បញ្ញាសិប្បនិមិត្ត (AI) ដូចជា ChatGPT គឺជាអារម្មណ៍សកលតាំងពីដើមឆ្នាំ 2023 ប៉ុន្តែ AI នេះមិនតែងតែត្រូវបានប្រើប្រាស់សម្រាប់គោលបំណងវិជ្ជមាននោះទេ។ ថ្មីៗនេះ អ្នកជំនាញផ្នែកសុវត្ថិភាពបានរកឃើញវិធីមួយដើម្បីសួរ ChatGPT ដើម្បីបង្កើតកូដព្យាបាទកំឡុងពេលធ្វើតេស្ត។
Aaron Mulgrew - អ្នកជំនាញសន្តិសុខនៅក្រុមហ៊ុន Forcepoint បានចែករំលែកហានិភ័យនៃការសរសេរកូដព្យាបាទដោយប្រើភាសា chatbot ដែលបង្កើតឡើងដោយ OpenAI ។ ទោះបីជា ChatGPT ត្រូវបានរចនាឡើងដើម្បីការពារអ្នកប្រើប្រាស់ពីការស្នើសុំ AI ដើម្បីរចនាកូដព្យាបាទក៏ដោយ ក៏ Aaron បានរកឃើញចន្លោះប្រហោងមួយដោយបង្កើតប្រអប់បញ្ចូលដែលអនុញ្ញាតឱ្យ AI សរសេរកូដសរសេរកម្មវិធីតាមបន្ទាត់។ នៅពេលរួមបញ្ចូលគ្នា Aaron បានដឹងថាគាត់មានឧបករណ៍លួចទិន្នន័យដែលមិនអាចរកឃើញនៅក្នុងដៃរបស់គាត់ដែលទំនើបដូច្នេះវាអាចប្រៀបធៀបទៅនឹងមេរោគទំនើបបំផុតនាពេលបច្ចុប្បន្ននេះ។
បន្ទាត់ពាក្យបញ្ជានីមួយៗដែលបង្កើតដោយ ChatGPT នៅពេលដែលបញ្ចូលគ្នា អាចក្លាយជាមេរោគដ៏ទំនើប។
ការរកឃើញរបស់ Mulgrew គឺជាការព្រមានអំពីសក្ដានុពលសម្រាប់ AI ក្នុងការប្រើដើម្បីបង្កើតមេរោគដ៏គ្រោះថ្នាក់ដោយមិនចាំបាច់មានក្រុមហេគឃ័រ ឬសូម្បីតែកូដមួយជួរដែលសរសេរដោយអ្នកបង្កើតឧបករណ៍។
កម្មវិធីរបស់ Mulgrew ត្រូវបានក្លែងធ្វើជាកម្មវិធីធាតុរក្សាអេក្រង់ ប៉ុន្តែមានសមត្ថភាពធ្វើឱ្យសកម្មដោយស្វ័យប្រវត្តិនៅលើឧបករណ៍ដែលមានមូលដ្ឋានលើវីនដូ។ នៅពេលដែលនៅក្នុងប្រព័ន្ធប្រតិបត្តិការ មេរោគ "ជ្រៀតចូល" ចូលទៅក្នុងរាល់ឯកសារ រួមទាំងកម្មវិធីនិពន្ធអត្ថបទ Word ឯកសាររូបភាព និង PDF ដែលកំពុងស្វែងរកទិន្នន័យដើម្បីលួច។
នៅពេលដែលវាមានអ្វីដែលវាត្រូវការ កម្មវិធីនឹងបំបែកព័ត៌មាន ហើយភ្ជាប់វាទៅឯកសាររូបភាពនៅលើម៉ាស៊ីន។ ដើម្បីជៀសវាងការរកឃើញ រូបថតទាំងនេះត្រូវបានបង្ហោះទៅក្នុងថតឯកសារនៅលើ Google Drive cloud storage។ មេរោគនេះត្រូវបានធ្វើឱ្យមានថាមពលខ្លាំង ដោយសារតែ Mulgrew អាចកែប្រែ និងបង្កើនលក្ខណៈពិសេសរបស់វា ដើម្បីជៀសវាងការរកឃើញតាមរយៈពាក្យបញ្ជាសាមញ្ញដែលបានបញ្ចូលទៅក្នុង ChatGPT ។
ទោះបីជានេះជាលទ្ធផលនៃការធ្វើតេស្តឯកជនដោយអ្នកជំនាញសន្តិសុខ ហើយមិនមានការវាយប្រហារណាមួយត្រូវបានអនុវត្តនៅខាងក្រៅវិសាលភាពសាកល្បងក៏ដោយ អ្នកជំនាញផ្នែកសន្តិសុខតាមអ៊ីនធឺណិតនៅតែទទួលស្គាល់ពីគ្រោះថ្នាក់នៃសកម្មភាពដោយប្រើ ChatGPT ។ Mulgrew អះអាងថាមានបទពិសោធន៍តិចតួចក្នុងការសរសេរកម្មវិធី ប៉ុន្តែបញ្ញាសិប្បនិមិត្តរបស់ OpenAI នៅតែមិនមានថាមពល ឬឆ្លាតវៃគ្រប់គ្រាន់ដើម្បីបញ្ឈប់ការធ្វើតេស្តរបស់គាត់។
ប្រភពតំណ
Kommentar (0)