ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្ស OpenAI បានបញ្ចេញឧបករណ៍និយាយទៅអត្ថបទ Whisper របស់ខ្លួនថាជា AI ជាមួយនឹង 'ភាពត្រឹមត្រូវ និងរឹងមាំដូចមនុស្ស' ។ ប៉ុន្តែ Whisper មានគុណវិបត្តិចម្បងមួយ៖ វាបង្កើតអត្ថបទ និងប្រយោគក្លែងក្លាយទាំងស្រុង។
យោងតាម AP ពីការសម្ភាសន៍ជាមួយវិស្វករផ្នែកទន់ អ្នកអភិវឌ្ឍន៍ និងអ្នកស្រាវជ្រាវផ្នែកសិក្សា អ្នកជំនាញបាននិយាយថា អត្ថបទដែលបង្កើតដោយ AI ខ្លះមិនពិតទេ ដែលហៅថា "ការយល់ច្រលំ"។ និយាយឱ្យចំទៅ ពួកគេរួមបញ្ចូលការអត្ថាធិប្បាយជាតិសាសន៍ ភាសាហឹង្សា និងសូម្បីតែការព្យាបាលវេជ្ជសាស្រ្តបែបស្រមើលស្រមៃ។
អត្រាខ្ពស់នៃ "ការបំភាន់" នៅក្នុងអត្ថបទដែលបង្កើតដោយ AI
អ្នកជំនាញមានការព្រួយបារម្ភជាពិសេស ដោយសារតែ Whisper ត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅក្នុងឧស្សាហកម្មជាច្រើនជុំវិញពិភពលោក ដើម្បីបកប្រែ និងចម្លងបទសម្ភាសន៍ បង្កើតអត្ថបទក្នុងបច្ចេកវិទ្យាអ្នកប្រើប្រាស់ពេញនិយម និងបង្កើតចំណងជើងរងសម្រាប់វីដេអូ។
អ្វីដែលគួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀត មជ្ឈមណ្ឌលវេជ្ជសាស្ត្រជាច្រើនកំពុងប្រើប្រាស់ Whisper ដើម្បីបញ្ជូនបន្តការពិគ្រោះយោបល់រវាងវេជ្ជបណ្ឌិត និងអ្នកជំងឺ ទោះបីជា OpenAI បានព្រមានថាឧបករណ៍មិនគួរត្រូវបានប្រើប្រាស់នៅក្នុងតំបន់ដែលមានហានិភ័យខ្ពស់ក៏ដោយ។
វិសាលភាពពេញលេញនៃបញ្ហាគឺពិបាកក្នុងការកំណត់ ប៉ុន្តែអ្នកស្រាវជ្រាវ និងវិស្វករនិយាយថា ពួកគេជួបប្រទះជាប្រចាំនូវ "ភាពច្របូកច្របល់" នៅក្នុងការងាររបស់ពួកគេ។
អ្នកស្រាវជ្រាវនៅសាកលវិទ្យាល័យ Michigan បាននិយាយថាគាត់បានរកឃើញ "ការយល់ច្រឡំ" នៅក្នុងការបំប្លែងសំឡេងចំនួនប្រាំបីក្នុងចំណោមដប់ដែលគាត់បានសាកល្បង។ វិស្វករកុំព្យូទ័រម្នាក់បានរកឃើញ "ភាពច្របូកច្របល់" នៅក្នុងប្រហែលពាក់កណ្តាលនៃការបំប្លែងសំឡេងជាង 100 ម៉ោងដែលគាត់បានវិភាគ។ អ្នកអភិវឌ្ឍន៍ម្នាក់ទៀតបាននិយាយថាគាត់បានរកឃើញ "ការយល់ច្រលំ" នៅក្នុងស្ទើរតែទាំងអស់នៃការថតចំនួន 26,000 ដែលគាត់បានបង្កើតដោយប្រើ Whisper ។
បញ្ហានៅតែបន្តកើតមាន ទោះបីជាមានគំរូអូឌីយ៉ូដែលថតបានយ៉ាងខ្លី និងច្បាស់លាស់ក៏ដោយ។ ការសិក្សាថ្មីមួយដោយអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័របានរកឃើញ "ការបំភាន់" ចំនួន 187 នៅក្នុងឈុតអូឌីយ៉ូច្បាស់លាស់ជាង 13,000 ដែលពួកគេបានពិនិត្យ។ អ្នកស្រាវជ្រាវបាននិយាយថានិន្នាការនេះនឹងនាំឱ្យមានការចម្លងមិនពិតរាប់ម៉ឺននៅក្នុងការថតរាប់លាន។
កំហុសបែបនេះអាចមាន "ផលវិបាកធ្ងន់ធ្ងរ" ជាពិសេសនៅក្នុងការកំណត់មន្ទីរពេទ្យ នេះបើយោងតាមលោក Alondra Nelson ដែលជាប្រធានការិយាល័យវិទ្យាសាស្ត្រ និងបច្ចេកវិទ្យារបស់សេតវិមាននៅក្នុងរដ្ឋបាលប្រធានាធិបតី Trump រហូតដល់ឆ្នាំមុន។
លោក Nelson ដែលឥឡូវជាសាស្ត្រាចារ្យនៅវិទ្យាស្ថានសម្រាប់ការសិក្សាកម្រិតខ្ពស់ក្នុងទីក្រុង Princeton រដ្ឋ New Jersey បានសង្កត់ធ្ងន់ថា “គ្មាននរណាម្នាក់ចង់បានការធ្វើរោគវិនិច្ឆ័យខុសនោះទេ”។ "ត្រូវតែមានស្តង់ដារខ្ពស់ជាងនេះ។"
Whisper ក៏ត្រូវបានប្រើផងដែរដើម្បីបង្កើតចំណងជើងរងសម្រាប់មនុស្សថ្លង់និងពិបាកស្តាប់ – ជាប្រជាជនដែលមានហានិភ័យជាពិសេសចំពោះការបកប្រែខុស។ លោក Christian Vogler ដែលជាមនុស្សថ្លង់ និងជានាយកកម្មវិធីបច្ចេកវិទ្យា នៃសាកលវិទ្យាល័យ Gallaudet បាននិយាយថា នេះគឺដោយសារតែមនុស្សថ្លង់ និងពិបាកស្តាប់មិនមានវិធីដើម្បីកំណត់អត្តសញ្ញាណអត្ថបទប្រឌិត "លាក់នៅក្នុងអត្ថបទផ្សេងទៀតទាំងអស់" ។
OpenAI ត្រូវបានអំពាវនាវឱ្យដោះស្រាយបញ្ហានេះ។
ប្រេវ៉ាឡង់នៃ "ការយល់ច្រលំ" បែបនេះបានជំរុញឱ្យអ្នកជំនាញ អ្នកតស៊ូមតិ និងអតីតបុគ្គលិក OpenAI អំពាវនាវឱ្យរដ្ឋាភិបាលសហព័ន្ធពិចារណាលើបទប្បញ្ញត្តិ AI ។ យ៉ាងហោចណាស់ OpenAI ត្រូវការដោះស្រាយកំហុសនេះ។
លោក William Saunders វិស្វករស្រាវជ្រាវនៅសាន់ហ្វ្រាន់ស៊ីស្កូ ដែលបានចាកចេញពី OpenAI កាលពីខែកុម្ភៈ បាននិយាយថា "បញ្ហានេះអាចដោះស្រាយបាន ប្រសិនបើក្រុមហ៊ុនមានឆន្ទៈក្នុងការផ្តល់អាទិភាពដល់វា"
"វានឹងមានបញ្ហាប្រសិនបើអ្នកដាក់វានៅទីនោះ ហើយមនុស្សមានទំនុកចិត្តខ្លាំងពេកអំពីអ្វីដែលវាអាចធ្វើបាន ហើយបន្ទាប់មកបញ្ចូលវាទៅក្នុងប្រព័ន្ធផ្សេងទៀតទាំងអស់នេះ។" អ្នកនាំពាក្យរបស់ OpenAI បាននិយាយថា ក្រុមហ៊ុនកំពុងស្រាវជ្រាវជានិច្ចនូវវិធីដើម្បីកាត់បន្ថយ "ការបំភាន់" និងកោតសរសើរចំពោះការរកឃើញរបស់អ្នកស្រាវជ្រាវ ដោយបន្ថែមថា OpenAI រួមបញ្ចូលមតិកែលម្អទៅក្នុងការធ្វើបច្ចុប្បន្នភាពគំរូ។
ខណៈពេលដែលអ្នកអភិវឌ្ឍន៍ភាគច្រើនសន្មត់ថាម៉ាស៊ីនអត្ថបទទៅការនិយាយអាចបង្កើតកំហុស ឬកំហុសផ្សេងទៀត វិស្វករ និងអ្នកស្រាវជ្រាវបាននិយាយថា ពួកគេមិនដែលឃើញម៉ាស៊ីនអត្ថបទទៅជាការនិយាយដែលដំណើរការដោយ AI ដែលជំនួយការមាន "ការយល់ច្រលំ" ច្រើននោះទេ។ ដូចជាខ្សឹប។
ប្រភព៖ https://tuoitre.vn/cong-cu-ai-chuyen-loi-noi-thanh-van-ban-cua-openai-bi-phat-hien-bia-chuyen-20241031144507089.htm
Kommentar (0)