ធនាគារធំបំផុតរបស់អាមេរិក JPMorgan Chase, Amazon និងក្រុមហ៊ុនបច្ចេកវិទ្យា Accenture បានរឹតបន្តឹងបុគ្គលិកទាំងអស់ពីការប្រើប្រាស់ ChatGPT ជុំវិញបញ្ហាសុវត្ថិភាពទិន្នន័យ។
យោងតាម CNN ការព្រួយបារម្ភនៃអាជីវកម្មទាំងនេះគឺត្រឹមត្រូវទាំងស្រុង។ នៅថ្ងៃទី 20 ខែមីនា chatbot របស់ OpenAI បានគាំង និងលាតត្រដាងទិន្នន័យអ្នកប្រើប្រាស់។ ខណៈពេលដែលកំហុសត្រូវបានជួសជុលយ៉ាងឆាប់រហ័ស ក្រុមហ៊ុនបានបង្ហាញថាបញ្ហានេះបានប៉ះពាល់ដល់ 1.2% នៃអ្នកប្រើប្រាស់ ChatGPT Plus ។ ព័ត៌មានលេចធ្លាយរួមមាន ឈ្មោះពេញ អាសយដ្ឋានអ៊ីមែល អាសយដ្ឋានចេញវិក្កយបត្រ លេខកាតឥណទាន បួនខ្ទង់ចុងក្រោយ និងកាលបរិច្ឆេទផុតកំណត់កាត។
នៅថ្ងៃទី 31 ខែមីនា អាជ្ញាធរការពារទិន្នន័យរបស់ប្រទេសអ៊ីតាលី (Garante) បានចេញបម្រាមបណ្តោះអាសន្នលើ ChatGPT ដោយលើកឡើងពីការព្រួយបារម្ភអំពីឯកជនភាព បន្ទាប់ពី OpenAI បង្ហាញភាពងាយរងគ្រោះ។
លោក Mark McCreary សហប្រធាន ផ្នែកសុវត្ថិភាពទិន្នន័យ និងឯកជនភាពនៅក្រុមហ៊ុនច្បាប់ Fox Rothschild LLP បានប្រាប់ CNN ថា ការព្រួយបារម្ភអំពីសុវត្ថិភាពជុំវិញ ChatGPT គឺមិនហួសហេតុនោះទេ។ AI chatbot ត្រូវបានគេប្រដូចទៅនឹង "ប្រអប់ខ្មៅ" ដោយគាត់។
ChatGPT ត្រូវបានបើកដំណើរការដោយ OpenAI ក្នុងខែវិច្ឆិកា ឆ្នាំ 2022 ហើយបានទាក់ទាញការចាប់អារម្មណ៍យ៉ាងឆាប់រហ័ស ដោយសារសមត្ថភាពរបស់វាក្នុងការសរសេរអត្ថបទ តែងរឿង ឬអត្ថបទចម្រៀងដោយផ្តល់ពាក្យបញ្ជា (ប្រអប់បញ្ចូល)។ ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សដូចជា Google និង Microsoft ក៏បានបញ្ចេញឧបករណ៍ AI ដែលដំណើរការដូចគ្នានេះ ដំណើរការដោយគំរូភាសាធំៗដែលត្រូវបានបណ្តុះបណ្តាលលើឃ្លាំងទិន្នន័យអនឡាញដ៏ធំ។
បន្ទាប់ពីការផ្លាស់ប្តូររបស់អ៊ីតាលី អាឡឺម៉ង់ក៏កំពុងពិចារណាហាមឃាត់ ChatGPT ផងដែរ។
លោក McCreay បានបន្ថែមថា នៅពេលដែលអ្នកប្រើប្រាស់បញ្ចូលព័ត៌មានទៅក្នុងឧបករណ៍ទាំងនេះ ពួកគេមិនដឹងថាវានឹងត្រូវបានប្រើប្រាស់យ៉ាងដូចម្តេចនៅពេលក្រោយនោះទេ។ នេះជាការព្រួយបារម្ភសម្រាប់ក្រុមហ៊ុន ខណៈបុគ្គលិកកាន់តែច្រើនប្រើឧបករណ៍ដើម្បីជួយសរសេរអ៊ីមែលការងារ ឬកត់ចំណាំសម្រាប់ការប្រជុំ ដែលនាំឱ្យមានហានិភ័យខ្ពស់ក្នុងការលាតត្រដាងអាថ៌កំបាំងពាណិជ្ជកម្ម។
លោក Steve Mills នាយកផ្នែកសីលធម៌ AI នៅ Boston Consulting Group (BCG) បាននិយាយថា ក្រុមហ៊ុនមានការព្រួយបារម្ភអំពីបុគ្គលិកដែលបញ្ចេញព័ត៌មានរសើបដោយចៃដន្យ។ ប្រសិនបើទិន្នន័យដែលមនុស្សបញ្ចូលត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាលឧបករណ៍ AI នេះ នោះពួកគេបានបាត់បង់ការគ្រប់គ្រងទិន្នន័យទៅអ្នកផ្សេង។
យោងតាមគោលការណ៍ឯកជនភាពរបស់ OpenAI ក្រុមហ៊ុនអាចប្រមូលព័ត៌មានផ្ទាល់ខ្លួន និងទិន្នន័យរបស់អ្នកប្រើប្រាស់សេវាកម្ម ដើម្បីកែលម្អគំរូ AI ។ ពួកគេអាចប្រើប្រាស់ព័ត៌មាននេះដើម្បីកែលម្អ ឬវិភាគសេវាកម្មរបស់ពួកគេ ធ្វើការស្រាវជ្រាវ ទំនាក់ទំនងជាមួយអ្នកប្រើប្រាស់ និងបង្កើតកម្មវិធី និងសេវាកម្មថ្មីៗ។
គោលការណ៍ឯកជនភាពចែងថា OpenAI អាចផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនដល់ភាគីទីបីដោយមិនចាំបាច់ជូនដំណឹងដល់អ្នកប្រើប្រាស់ឡើយ លុះត្រាតែតម្រូវដោយច្បាប់។ OpenAI ក៏មានឯកសារល័ក្ខខ័ណ្ឌនៃសេវាកម្មរបស់ខ្លួនដែរ ប៉ុន្តែក្រុមហ៊ុនដាក់ទំនួលខុសត្រូវជាច្រើនលើអ្នកប្រើប្រាស់ក្នុងការចាត់វិធានការសមស្របនៅពេលធ្វើអន្តរកម្មជាមួយឧបករណ៍ AI ។
ម្ចាស់ ChatGPT មានការបង្ហោះប្លក់អំពីវិធីសាស្រ្តរបស់ពួកគេចំពោះសុវត្ថិភាព AI ។ ក្រុមហ៊ុនសង្កត់ធ្ងន់ថា ខ្លួនមិនប្រើប្រាស់ទិន្នន័យដើម្បីលក់សេវាកម្ម ផ្សាយពាណិជ្ជកម្ម ឬបង្កើតទម្រង់អ្នកប្រើប្រាស់នោះទេ OpenAI ប្រើប្រាស់ទិន្នន័យដើម្បីធ្វើឱ្យគំរូកាន់តែមានប្រយោជន៍។ ឧទាហរណ៍ ការសន្ទនារបស់អ្នកប្រើប្រាស់នឹងត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាល ChatGPT ។
គោលការណ៍ឯកជនភាពរបស់ ChatGPT ត្រូវបានចាត់ទុកថាមិនច្បាស់លាស់។
គោលការណ៍ឯកជនភាពរបស់ Google ដែលជាក្រុមហ៊ុនបង្កើតឧបករណ៍ Bard AI មានការផ្តល់បន្ថែមសម្រាប់អ្នកប្រើប្រាស់ AI ។ ក្រុមហ៊ុននឹងជ្រើសរើសផ្នែកតូចមួយនៃការសន្ទនា ហើយប្រើឧបករណ៍ស្វ័យប្រវត្តិដើម្បីលុបព័ត៌មានដែលអាចកំណត់អត្តសញ្ញាណផ្ទាល់ខ្លួនចេញ។ វិធីសាស្រ្តនេះទាំងពីរធ្វើអោយប្រសើរឡើងនូវ Bard និងការពារភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ការសន្ទនាគំរូនឹងត្រូវបានពិនិត្យដោយគ្រូបណ្តុះបណ្តាល និងរក្សាទុករហូតដល់ 3 ឆ្នាំ ដាច់ដោយឡែកពីគណនី Google របស់អ្នកប្រើប្រាស់។ Google ក៏រំលឹកអ្នកប្រើប្រាស់មិនឱ្យបញ្ចូលព័ត៌មានផ្ទាល់ខ្លួនអំពីខ្លួនពួកគេ ឬអ្នកផ្សេងទៀតនៅក្នុងការសន្ទនានៅលើ Bard AI ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សមួយនេះ បានសង្កត់ធ្ងន់ថា ខ្លួននឹងមិនប្រើប្រាស់ការសន្ទនាទាំងនេះសម្រាប់គោលបំណងផ្សាយពាណិជ្ជកម្មនោះទេ ហើយនឹងប្រកាសអំពីការផ្លាស់ប្តូរនាពេលអនាគត។
Bard AI អនុញ្ញាតឱ្យអ្នកប្រើប្រាស់ជ្រើសរើសមិនរក្សាទុកការសន្ទនាទៅក្នុងគណនី Google របស់ពួកគេ ក៏ដូចជាពិនិត្យមើល ឬលុបការសន្ទនាតាមរយៈតំណ។ លើសពីនេះ ក្រុមហ៊ុនមានការការពារសុវត្ថិភាពនៅនឹងកន្លែង ដែលត្រូវបានរចនាឡើងដើម្បីការពារ Bard ពីការរួមបញ្ចូលព័ត៌មានផ្ទាល់ខ្លួននៅក្នុងការឆ្លើយតប។
Steve Mills អះអាងថា ពេលខ្លះអ្នកប្រើប្រាស់ និងអ្នកអភិវឌ្ឍន៍រកឃើញតែហានិភ័យសុវត្ថិភាពដែលលាក់នៅក្នុងបច្ចេកវិទ្យាថ្មីៗ នៅពេលដែលវាយឺតពេល។ ឧទាហរណ៍ ការបំពេញដោយស្វ័យប្រវត្តិអាចបង្ហាញលេខសន្តិសុខសង្គមរបស់អ្នកប្រើប្រាស់ដោយចៃដន្យ។
លោក Mills បាននិយាយថា អ្នកប្រើប្រាស់មិនគួរដាក់អ្វីចូលទៅក្នុងឧបករណ៍ទាំងនេះ ដែលពួកគេមិនចង់ចែករំលែកជាមួយអ្នកដទៃនោះទេ។
ប្រភពតំណ
Kommentar (0)