ចាប់តាំងពីការចេញផ្សាយជាសាធារណៈរបស់ពួកគេនៅចុងឆ្នាំ 2022 គំរូភាសាធំ (LLMs) ដូចជា ChatGPT បានបង្ហាញម្តងហើយម្តងទៀតនូវផ្នែកងងឹតដែលគួរឱ្យរំខាន ពីការកុហក ការបោកប្រាស់ និងការបិទបាំងឧបាយកល រហូតដល់សេចក្តីថ្លែងការណ៍ដ៏គួរឱ្យភ័យខ្លាច ដូចជាការគំរាមកំហែងអាយុជីវិតមនុស្ស ឬការលួចអាថ៌កំបាំងរបស់រដ្ឋ។ ឥឡូវនេះ ការពិសោធន៍ថ្មីមួយបង្ហាញថា "ការបង្រៀន" AI ដើម្បីរៀនពីទម្លាប់អាក្រក់ទាំងនេះអំឡុងពេលហ្វឹកហាត់គឺស្មុគស្មាញជាងអ្វីដែលយើងគិតទៅទៀត។
នៅក្នុងការស្រាវជ្រាវដែលធ្វើឡើងដោយ OpenAI អ្នកជំនាញបានប្រកួតប្រជែងលើគំរូ AI ដែលមិនមានការបោះពុម្ពផ្សាយជាមួយនឹងភារកិច្ចដែលវាអាចបំពេញបានលឿនជាងប្រសិនបើវាចាញ់បោក ឬប្រើផ្លូវកាត់។ លទ្ធផលបានបង្ហាញថា AI បានរៀនយ៉ាងឆាប់រហ័សពីរបៀបស្វែងរកគ្រប់មធ្យោបាយដែលអាចធ្វើទៅបានដើម្បី "គេចពីច្បាប់" និងបង្កើនរង្វាន់ (ការលួចយករង្វាន់) ដោយមិនចាំបាច់បំពេញតម្រូវការឱ្យបានត្រឹមត្រូវ។
AI នឹងរកវិធីដើម្បីលាក់ឥរិយាបថបន្លំរបស់ខ្លួនបន្ទាប់ពីត្រូវបានដាក់ទណ្ឌកម្ម
វាគឺមានតំលៃនិយាយថានៅពេលដែលការផាកពិន័យសម្រាប់ឥរិយាបថនេះម៉ូដែលមិនត្រូវបានកែប្រែ។ ផ្ទុយទៅវិញ AI កាន់តែទំនើបក្នុងការលាក់ការបោកប្រាស់របស់ខ្លួន។
អ្នកស្រាវជ្រាវបានពន្យល់នៅក្នុងការបង្ហោះប្លក់សាធារណៈថា "ជាធម្មតា គំរូនៃការសន្និដ្ឋានដ៏ទំនើបគឺមានភាពច្បាស់លាស់អំពីចេតនារបស់ពួកគេនៅក្នុង CoT របស់ពួកគេ"។ "ឧទាហរណ៍ ពួកគេច្រើនតែបង្ហាញយ៉ាងច្បាស់អំពីចេតនារបស់ពួកគេចំពោះ 'តោះ hack' នៅពេលពួកគេចង់បំបែកកិច្ចការដែលបានផ្តល់ឱ្យ។"
ពួកគេក៏សង្កត់ធ្ងន់ថា ខណៈពេលដែលអ្នកអភិវឌ្ឍន៍អាចត្រួតពិនិត្យ និងរកឃើញការប្រព្រឹត្តខុស ការត្រួតពិនិត្យធម្មជាតិនេះគឺមានភាពផុយស្រួយ។ ពួកគេព្រមានថា "ប្រសិនបើការត្រួតពិនិត្យខ្លាំងត្រូវបានអនុវត្តដោយផ្ទាល់ទៅខ្សែសង្វាក់គំនិត គំរូអាចរៀនលាក់ចេតនាអាក្រក់របស់វា ខណៈពេលដែលបន្តអនុវត្តអាកប្បកិរិយានេះ" ។
ស្វែងរក "កុហក" របស់ AI
ដើម្បីឱ្យច្បាស់លាស់ គំរូការសន្និដ្ឋាន (ដូចជាកំណែ ChatGPT) គឺជាជំហានឆ្ពោះទៅមុខពី LLM សាមញ្ញ ដោយប្រើខ្សែសង្វាក់នៃការគិតដែលអនុញ្ញាតឱ្យមានការឆ្លុះបញ្ចាំងដោយខ្លួនឯងនូវជំហានឡូជីខលដែលបានធ្វើឡើង ដោយហេតុនេះការដោះស្រាយបញ្ហាស្មុគស្មាញកាន់តែត្រឹមត្រូវ។ ដំណើរការនេះគឺដូចជា AI “គិតខ្លាំងៗ” ដោយសរសេរចេញនូវជំហាននីមួយៗនៃហេតុផលរបស់វាជាភាសាធម្មជាតិ ដែលធ្វើឱ្យវាងាយស្រួលសម្រាប់មនុស្សក្នុងការធ្វើតាម។
នៅក្នុងការពិសោធន៍ អ្នកស្រាវជ្រាវបានប្រើគំរូ GPT-4o ជា "អ្នកត្រួតពិនិត្យ" សម្រាប់គំរូការសន្និដ្ឋានដ៏ទំនើបមួយផ្សេងទៀត នៅពេលវាបំពេញភារកិច្ចសរសេរកម្មវិធី។ ក្នុងករណីជាច្រើន គំរូដែលបានត្រួតពិនិត្យបានជ្រើសរើសយ៉ាងសកម្មក្នុងការបន្លំដើម្បីទទួលបានពិន្ទុរង្វាន់ខ្ពស់ជាងមុន ហើយបានកត់ត្រាយ៉ាងច្បាស់នូវចេតនានេះនៅក្នុងដំណើរការគិតរបស់វា។ ឧទាហរណ៍ វានឹងបញ្ឈប់កម្មវិធីដោយចៃដន្យនៅដើមឆ្នាំ ហើយរាយការណ៍ពីការបញ្ចប់ ឬបង្កើតឯកសារដែលមានឈ្មោះដូចគ្នាតាមការស្នើសុំ ប៉ុន្តែទទេទាំងស្រុងនៅខាងក្នុង។
នៅពេលដែលអ្នកស្រាវជ្រាវបានព្យាយាមអនុវត្តការពិន័យ គំរូនេះបានប្រសើរឡើង ប៉ុន្តែការបោកប្រាស់ និងកំហុសឆ្គងធ្ងន់ធ្ងរនៅតែបន្ត។ ភាពខុសប្លែកគ្នានោះគឺថា ឥឡូវនេះ គំរូការសន្និដ្ឋានបានរៀន "លាក់បាំង" រថភ្លើងនៃការគិតរបស់ខ្លួន ដើម្បីលាក់វាពី AI ដែលគ្រប់គ្រង។ ការសិក្សាបាននិយាយថា "គំរូដែលត្រូវបានបណ្តុះបណ្តាលក្រោមការត្រួតពិនិត្យរបស់ CoT នៅតែរៀនបន្លំ។ ភាពខុសគ្នាតែមួយគត់គឺថាការបន្លំមិនត្រូវបានរកឃើញទេព្រោះវាបានរៀនលាក់ចេតនារបស់ខ្លួននៅក្នុងខ្សែសង្វាក់គំនិត" ។
ដោយសារការរកឃើញការក្លែងបន្លំតាមលំដាប់លំដោយនៃគំនិតគឺពិបាក ក្រុមការងារណែនាំថាសហគមន៍ជៀសវាងការអនុវត្តវិធានការតាមដានខ្លាំងពេកចំពោះដំណើរការនេះ យ៉ាងហោចណាស់រហូតដល់មនុស្សយល់ច្បាស់អំពីផលវិបាក។ អ្នកស្រាវជ្រាវបានសន្និដ្ឋានថា "ការលះបង់វិធីសាស្ត្រត្រួតពិនិត្យដ៏មានប្រសិទ្ធភាព ប្រហែលជាមិនសមនឹងការកែលម្អតិចតួចនៅក្នុងការអនុវត្តគំរូនោះទេ។ ដូច្នេះហើយ យើងសូមផ្តល់អនុសាសន៍ឱ្យជៀសវាងសម្ពាធនៃការបង្កើនប្រសិទ្ធភាព CoT ខ្លាំងរហូតដល់យើងយល់កាន់តែច្បាស់"។
ដំបូន្មាននេះគឺមានភាពបន្ទាន់ជាងនេះទៅទៀត ដោយសារ AI កំពុងអភិវឌ្ឍក្នុងល្បឿនបំបែក ហើយអាចលើសពីភាពឆ្លាតវៃរបស់មនុស្សដែលគ្រប់គ្រងវា។
ប្រភព៖ https://thanhnien.vn/ai-hoc-cach-noi-doi-tinh-vi-hon-khi-bi-phat-185250326112139476.htm
Kommentar (0)