AI ថ្មីរបស់ DeepSeek បន្តធ្វើឱ្យមានការភ្ញាក់ផ្អើលនៅក្នុងពិភពបច្ចេកវិទ្យាជាមួយនឹងដំណើរការដ៏អស្ចារ្យរបស់វា។ រូបថត៖ SCMP ។ |
DeepSeek ណែនាំជាផ្លូវការនូវ DeepSeek V3-0324 ដែលជាកំណែចុងក្រោយបំផុតនៅក្នុងស៊េរី V3 large language model (LLM)។
ដូចកំណែមុនដែរ ម៉ូដែលនេះត្រូវបានចេញផ្សាយជាប្រភពបើកចំហដោយឥតគិតថ្លៃតាមរយៈវេទិកា Hugging Face ជាមួយនឹងភាពប្រសើរឡើងគួរឱ្យកត់សម្គាល់ជាងកំណែមុនៗ ជាពិសេសនៅក្នុងផ្នែកនៃហេតុផល និងការសរសេរកម្មវិធី។
ជាពិសេស យោងទៅតាម OpenRouter DeepSeek V3-0324 ត្រូវបានបង្កើតឡើងដោយប្រើ Mixture of Experts (MoE) ដែលជាវិធីសាស្រ្តរៀនម៉ាស៊ីនដែលមានប្រជាប្រិយភាពខ្លាំងនៅក្នុងម៉ូដែល AI របស់ចិនមួយចំនួន និងមានប៉ារ៉ាម៉ែត្រ 685 ពាន់លាន។
យោងតាមការពិនិត្យដំបូង ម៉ូដែលនេះបង្ហាញពីការអនុវត្តដ៏គួរឱ្យចាប់អារម្មណ៍ក្នុងកិច្ចការផ្សេងៗ។ ទន្ទឹមនឹងនេះ ការបង្ហោះ Reddit បង្ហាញថា DeepSeek V3-0324 បានចាប់ជាមួយនឹងគំរូ Sonnet 3.7 របស់ Google ក្នុងការធ្វើតេស្តបង្កើតកូដកម្មវិធី។
ប្រភពក៏បង្ហាញផងដែរថា DeepSeek V3-0324 មានសមត្ថភាពបង្កើតកំណាត់កូដវែងដោយគ្មានកំហុស។ AI Analytics Vidhya បានសាកល្បងម៉ូដែលនេះ និងកត់ត្រាសមត្ថភាពរបស់វាដើម្បីបង្កើត 700 ជួរនៃកូដយ៉ាងរលូន។
នៅលើ X កម្មវិធី DeepSeek V3-0324 ក៏បានធ្វើឱ្យមានការភ្ញាក់ផ្អើលផងដែរ។ ដើម្បីបញ្ជាក់វា Deepanshu Sharma បានបង្ហោះវីដេអូដែលបង្ហាញពីរបៀបដែលគំរូ AI នេះអាចបង្កើតគេហទំព័រពេញលេញដោយរលូនជាមួយនឹងកូដជាង 800 បន្ទាត់។
DeepSeek បានក្លាយជាក្រុមហ៊ុន AI ដ៏គួរឱ្យកត់សម្គាល់បំផុតរបស់ចិននៅក្នុងខែធ្នូ ឆ្នាំ 2024 នៅពេលដែលវាបានចាប់ផ្តើមដំណើរការ DeepSeek-V3 ។ គំរូនេះសម្រេចបាននូវដំណើរការប្រៀបធៀបទៅនឹង GPT-4o ប៉ុន្តែប្រើតែផ្នែកខ្លះនៃធនធានគណនាប៉ុណ្ណោះ។
មិនយូរប៉ុន្មាន DeepSeek បានបន្តបញ្ចេញគំរូហេតុផល DeepSeek-R1 ។ យោងតាម TechCrunch R1 ដំណើរការជាង o1 របស់ OpenAI នៅលើស្តង់ដារដូចជា AIME, MATH-500 និង SWE-bench Verified ។
ជាមួយគ្នានេះ តួលេខ 5.6 លានដុល្លារ សម្រាប់បណ្តុះបណ្តាលដំណាក់កាលចុងក្រោយនៃម៉ូដែល DeepSeek ក៏គួរឱ្យភ្ញាក់ផ្អើលផងដែរ បើធៀបនឹងប្រាក់រាប់រយលានដុល្លារដែលក្រុមហ៊ុនឈានមុខគេរបស់អាមេរិកត្រូវចំណាយដើម្បីហ្វឹកហាត់ម៉ូដែលរបស់ពួកគេ។
ប្រភព៖ https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html
Kommentar (0)