តើអ្នកគិតយ៉ាងណាដែរចំពោះនិន្នាការនៃពួក Hacker "អាវុធ" AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ?
លោកបណ្ឌិត Nguyen Tuan Khang៖ យោងតាមសន្ទស្សន៍ចារកម្ម X-Force Threat Intelligence Index របស់ IBM ឆ្នាំ 2024 អាស៊ីប៉ាស៊ីហ្វិក រួមទាំងប្រទេសវៀតណាម គឺជាតំបន់ដែលទទួលរងការវាយប្រហារតាមអ៊ីនធឺណិតច្រើនជាងគេបំផុតនៅលើពិភពលោកក្នុងឆ្នាំ 2023។ ដែលក្នុងនោះ ការផលិតគឺជាឧស្សាហកម្មដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយការវាយប្រហារតាមអ៊ីនធឺណិត។
ល្បិចចម្បងរបស់មនុស្សអាក្រក់គឺនៅតែជាការវាយប្រហារដោយបន្លំ កំណត់គោលដៅលើមុខសញ្ញាដែលងាយរងគ្រោះ និងទាញយកភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការដែលកំពុងលេចចេញនៅឆ្នាំ 2024 គឺការវាយប្រហារតាមប្រព័ន្ធអ៊ីនធឺណេត ដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។
របាយការណ៍របស់ Wired ចង្អុលបង្ហាញថាមនុស្សអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ AI ជំនាន់មុន ដើម្បីជួយណែនាំការលួចចូល បង្កើត chatbots ក្លែងបន្លំ ឬរូបភាព និងវីដេអូក្លែងក្លាយនៃមុខ និងសំឡេងរបស់អ្នកដទៃដោយប្រើ Deepfake ។
ទោះជាយ៉ាងណាក៏ដោយ ទន្ទឹមនឹងនិន្នាការនេះ ប្រព័ន្ធសុវត្ថិភាពព័ត៌មានក៏កំពុងចាប់ផ្តើមបញ្ចូលមុខងារ AI ដូចជា watsonx ផងដែរ។ បញ្ញាសិប្បនិមិត្តអាចត្រូវបានគេកេងប្រវ័ញ្ច ប៉ុន្តែវាក៏អាចជំនួសមនុស្សក្នុងការវិភាគ តាមដាន កំណត់អត្តសញ្ញាណលេខ ទស្សន៍ទាយអំពីសេណារីយ៉ូនៃការវាយប្រហារ ដោយហេតុនេះធ្វើអោយប្រសើរឡើងនូវសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។
ការបោកប្រាស់ Deepfake កំពុងក្លាយជារឿងធម្មតាកាន់តែច្រើនឡើង។ ជាមួយនឹងការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ដល់កម្រិតណានាពេលអនាគត?
បណ្ឌិត Nguyen Tuan Khang៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាដែលជួយពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះការក្លែងបន្លំមនុស្សផ្សេងទៀត។ Deepfake នឹងក្លាយជាបញ្ហាដ៏គ្រោះថ្នាក់ព្រោះបច្ចេកវិទ្យានេះកាន់តែទំនើប។
ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfake រឿងដំបូងដែលត្រូវធ្វើគឺកំណត់ថាតើរូបភាព ឬសំឡេងរបស់មនុស្សត្រូវបានបង្កើតដោយ AI ។ បច្ចុប្បន្ននេះមិនមានឧបករណ៍សកលដែលអាចរកឃើញ Deepfakes ភ្លាមៗទេ ពីព្រោះអ្នកវាយប្រហារកំពុងបង្កើតម៉ូដែលថ្មីៗឥតឈប់ឈរ។
បន្ថែមពីលើការទទួលស្គាល់ Deepfakes មានបច្ចេកទេសមួយផ្សេងទៀតដើម្បីដោះស្រាយជាមួយពួកគេ នោះគឺការប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ តាមទស្សនៈរបស់អង្គការ និងអាជីវកម្ម ចាំបាច់ត្រូវបង្កើតប្រព័ន្ធដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។
ថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker បានលួចលាក់កូដព្យាបាទនៅក្នុងប្រព័ន្ធសាជីវកម្ម។ មេរោគកំពុងរង់ចាំ និងវិភាគសកម្មភាពទាំងអស់ ដោយហេតុនេះបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាព្យាបាទរបស់វា។ ជាមួយនឹងការអភិវឌ្ឍន៍បច្ចេកវិទ្យា Deepfake គួបផ្សំនឹងសមត្ថភាពរបស់ AI ក្នុងការបង្កើតវីដេអូ ប្រភេទនៃការវាយប្រហារទាំងនេះនឹងកាន់តែមានគ្រោះថ្នាក់នាពេលអនាគត។
ជាមួយនឹងការកើនឡើងនៃការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមដែលងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?
លោកបណ្ឌិត Nguyen Tuan Khang៖ មនុស្សចាស់ និងកុមារតែងតែរងការវាយប្រហារដោយអ្នកបោកប្រាស់ដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ នេះគឺជាពាក្យដែលពិពណ៌នាអំពីការវាយប្រហារតាមរយៈឧបាយកលនៃអាកប្បកិរិយារបស់មនុស្ស។
ឥឡូវនេះពួក Hacker អាចប្រើប្រាស់ AI រួមបញ្ចូលគ្នាជាមួយនឹងការប្រមូលទិន្នន័យ ការជីកយករ៉ែ និងការវិភាគដើម្បីកំណត់អត្តសញ្ញាណមនុស្សដែលទំនងជាត្រូវបានគេបោកប្រាស់ ហើយបន្ទាប់មកស្វែងរកវិធីវាយប្រហារ។ បន្ថែមពីលើការលើកកម្ពស់ការយល់ដឹងជាសាធារណៈ យើងត្រូវតែទទួលយកផងដែរថានឹងមានស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវបានបោកបញ្ឆោត ហើយត្រូវតែប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីស្វែងរក និងទប់ស្កាត់នោះ។
ថ្មីៗនេះ មានករណីបុគ្គលិកធនាគារម្នាក់ សង្ស័យស្ត្រីចំណាស់ម្នាក់ ដែលមកផ្ទេរប្រាក់ មានសញ្ញានៃការឆបោក។ ជននេះក៏ឃាត់ទាន់ពេលវេលា ហើយរាយការណ៍ទៅសមត្ថកិច្ច ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះត្រូវតែមានបច្ចេកវិទ្យាដើម្បីជំនួសមនុស្សក្នុងកិច្ចការបែបនេះ។
តួនាទីរបស់បច្ចេកវិទ្យាគឺថា បើទោះបីជាអ្នកផ្ទេរប្រាក់ត្រូវបានគេដឹងក៏ដោយ ក៏ប្រព័ន្ធនឹងនៅតែរារាំងវា ប្រសិនបើគេសង្ស័យថាអាកប្បកិរិយានេះកំពុងត្រូវបានបំប្លែងដោយអ្នកផ្សេង។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថាប្រព័ន្ធប្រឆាំងនឹងការក្លែងបន្លំ ប្រព័ន្ធប្រឆាំងនឹងការក្លែងបន្លំ។
តើដល់ពេលដែលវៀតណាមត្រូវដាក់ទណ្ឌកម្មដើម្បីគ្រប់គ្រង AI និងដាក់ការស្រាវជ្រាវ ការអភិវឌ្ឍន៍ និងប្រើប្រាស់ AI ទៅក្នុងក្របខ័ណ្ឌមួយ?
លោកបណ្ឌិត Nguyen Tuan Khang៖ ការដាក់ទណ្ឌកម្មសម្រាប់ការគ្រប់គ្រង AI ត្រូវបានលើកឡើងជាយូរមកហើយ ប៉ុន្តែនៅតែមានបញ្ហាចម្រូងចម្រាសជាច្រើន។ ជាឧទាហរណ៍ ចំណតរថយន្តក្នុងតំបន់របស់ខ្ញុំមានប្រព័ន្ធ AI ដែលទទួលស្គាល់ស្លាកលេខ ប៉ុន្តែនៅតែមានចោរលួច។ បន្ទាប់មកការឈ្លោះប្រកែកគ្នាបានចាប់ផ្តើមថាតើអ្នកណាជាកំហុស។ តើអ្នកណាជាអ្នកទទួលខុសត្រូវ ម្ចាស់អាផាតមិន សន្តិសុខ ឬអ្នកបង្កើតប្រព័ន្ធ AI?
ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួន ដោយបញ្ជាក់ថាអ្នកស្រុកអាចជ្រើសរើសប្រើប្រាស់ AI ការទទួលស្គាល់ស្លាកលេខសម្រាប់ភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នកដែលយល់ព្រមនឹងអាចប្រើទ្វារស្វ័យប្រវត្តិ អ្នកដែលមិនទទួលនឹងត្រូវចតរថយន្តតាមផ្លូវចាស់។ យើងត្រូវតែមានទណ្ឌកម្មបែបនេះ។
ដូចគ្នានេះដែរ IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធចេញវេជ្ជបញ្ជាថ្នាំ ប៉ុន្តែអ្នកជំងឺនៅតែមិនអាចសង្គ្រោះបានបន្ទាប់ពីលេបថ្នាំនោះ តើវាជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬជាកំហុសរបស់បញ្ញាសិប្បនិម្មិត?
ខ្ញុំគិតថាការដាក់ទណ្ឌកម្មសម្រាប់ AI ត្រូវតែគ្រប់គ្រងជាពិសេស ដោយបញ្ជាក់យ៉ាងច្បាស់នូវអ្វីដែលអាចធ្វើបាន និងមិនអាចធ្វើនៅពេលបង្កើតកម្មវិធី AI ។ ដើម្បីធ្វើឱ្យពិភពលោកកាន់តែមានសុវត្ថិភាព ការដាក់ទណ្ឌកម្មជាមូលដ្ឋានបំផុតដែលយើងអាចធ្វើបានគឺទាមទារឱ្យមានការផ្ទេរប្រាក់ធំ ៗ ដើម្បីផ្ទៀងផ្ទាត់ភាពត្រឹមត្រូវតាមជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ អ្នកដែលបាត់បង់ព័ត៌មានអត្តសញ្ញាណអាចជៀសវាងការបាត់បង់លុយទាំងស្រុង។
សូមអរគុណលោក។
ប្រភព
Kommentar (0)