យោងតាម អាជ្ញាធរ Android ឯកសារស្រាវជ្រាវរបស់ក្រុមហ៊ុន Apple រៀបរាប់លម្អិតអំពីដំណោះស្រាយសម្រាប់ដំណើរការគំរូភាសាធំ (LLMs) នៅលើឧបករណ៍ដែលមាន RAM មានកំណត់។ ក្រដាសបង្ហាញពីរបៀបដែលក្រុមហ៊ុនអាចរក្សាទុក "ប៉ារ៉ាម៉ែត្រគំរូ" និងផ្ទុកផ្នែកខ្លះរបស់វាទៅក្នុង RAM របស់ឧបករណ៍នៅពេលចាំបាច់ ជំនួសឱ្យការផ្ទុកគំរូទាំងមូលទៅក្នុង RAM ។
Apple កំពុងស្វែងរកជំនួយដល់ iPhone ចាស់ៗដែលមាន RAM តិចដំណើរការ AI ទូទៅ
ឯកសារនេះបានអះអាងថាវិធីសាស្រ្តនេះអនុញ្ញាតឱ្យដំណើរការម៉ូដែលដែលត្រូវការ RAM ពីរដងដែល iPhone អាចមានខណៈពេលដែលនៅតែធានាបាននូវល្បឿន 4-5x និង 20-25x បើប្រៀបធៀបទៅនឹងវិធីសាស្ត្រផ្ទុកសាមញ្ញនៅលើ CPU និង GPU រៀងគ្នា។
ការដាក់ពង្រាយ AI សំយោគនៅលើឧបករណ៍ដែលមាន RAM ច្រើននឹងមានប្រយោជន៍ព្រោះវាផ្តល់ល្បឿនអាន/សរសេរលឿនជាងមុន។ ល្បឿនមានសារៈសំខាន់សម្រាប់ AI នៅលើឧបករណ៍ ដែលអនុញ្ញាតឱ្យមានពេលវេលាសន្និដ្ឋានលឿនជាងមុន ដោយសារអ្នកប្រើប្រាស់មិនចាំបាច់រង់ចាំរាប់សិបវិនាទី (ឬច្រើនជាងនេះ) ដើម្បីទទួលបានការឆ្លើយតប ឬលទ្ធផលចុងក្រោយ។ ទាំងអស់នេះមានន័យថា ជំនួយការ AI នៅលើឧបករណ៍ ដែលអាចដំណើរការក្នុងល្បឿនសន្ទនា បង្កើតរូបភាព/អត្ថបទកាន់តែលឿន សង្ខេបអត្ថបទកាន់តែលឿន… ប៉ុន្តែដំណោះស្រាយរបស់ Apple មានន័យថា អ្នកប្រើប្រាស់មិនចាំបាច់ត្រូវការ RAM ច្រើនដើម្បីបង្កើនល្បឿនការឆ្លើយតប AI នៅលើឧបករណ៍នោះទេ។
វិធីសាស្រ្តរបស់ Apple អាចអនុញ្ញាតឱ្យ iPhone ចាស់ និងថ្មីផ្តល់មុខងារ AI សំយោគបានត្រឹមត្រូវនៅលើឧបករណ៍របស់ពួកគេ។ នោះជារឿងសំខាន់ ព្រោះជាធម្មតា iPhones របស់ Apple ផ្តល់ RAM តិចជាងទូរស័ព្ទ Android លំដាប់ខ្ពស់។ ជាឧទាហរណ៍ ស៊េរី iPhone 11 ផ្តល់ RAM ត្រឹមតែ 4GB ប៉ុណ្ណោះ ខណៈពេលដែល iPhone 15 ធម្មតាមាន RAM ត្រឹមតែ 6GB ប៉ុណ្ណោះ។
Apple មិនមែនជាក្រុមហ៊ុនទូរស័ព្ទតែមួយគត់ដែលព្យាយាមកាត់បន្ថយ LLM នោះទេ។ បន្ទះឈីបស្មាតហ្វូនថ្មីៗពី Qualcomm និង MediaTek ទាំងពីរគាំទ្រភាពជាក់លាក់ INT4 ដើម្បីធ្វើមាត្រដ្ឋានម៉ូដែលទាំងនេះចុះក្រោម។ ទោះយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននានាកំពុងព្យាយាមស្វែងរកដំណោះស្រាយថ្មីដើម្បីកាត់បន្ថយតម្រូវការប្រព័ន្ធសម្រាប់ AI នៅលើឧបករណ៍ ដោយអនុញ្ញាតឱ្យសូម្បីតែទូរសព្ទកម្រិតទាបអាចផ្តល់មុខងារនេះបាន។
ប្រភពតំណ
Kommentar (0)