តើអ្នកគិតយ៉ាងណាដែរចំពោះនិន្នាការនៃពួក Hacker "អាវុធ" AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ?

លោកបណ្ឌិត Nguyen Tuan Khang៖ យោងតាមសន្ទស្សន៍ចារកម្ម X-Force Threat Intelligence Index របស់ IBM ឆ្នាំ 2024 អាស៊ីប៉ាស៊ីហ្វិក រួមទាំងប្រទេសវៀតណាម គឺជាតំបន់ដែលទទួលរងការវាយប្រហារតាមអ៊ីនធឺណិតច្រើនជាងគេបំផុតនៅលើពិភពលោកក្នុងឆ្នាំ 2023។ ដែលក្នុងនោះ ការផលិតគឺជាឧស្សាហកម្មដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយការវាយប្រហារតាមអ៊ីនធឺណិត។

ល្បិចចម្បងរបស់មនុស្សអាក្រក់គឺនៅតែជាការវាយប្រហារដោយបន្លំ កំណត់គោលដៅលើមុខសញ្ញាដែលងាយរងគ្រោះ និងទាញយកភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការដែលកំពុងលេចចេញនៅឆ្នាំ 2024 គឺការវាយប្រហារតាមប្រព័ន្ធអ៊ីនធឺណេត ដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។

របាយការណ៍របស់ Wired ចង្អុលបង្ហាញថាមនុស្សអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ AI ជំនាន់មុន ដើម្បីជួយណែនាំការលួចចូល បង្កើត chatbots ក្លែងបន្លំ ឬរូបភាព និងវីដេអូក្លែងក្លាយនៃមុខ និងសំឡេងរបស់អ្នកដទៃដោយប្រើ Deepfake ។

ទោះជាយ៉ាងណាក៏ដោយ ទន្ទឹមនឹងនិន្នាការនេះ ប្រព័ន្ធសុវត្ថិភាពព័ត៌មានក៏កំពុងចាប់ផ្តើមបញ្ចូលមុខងារ AI ដូចជា watsonx ផងដែរ។ បញ្ញាសិប្បនិមិត្តអាចត្រូវបានគេកេងប្រវ័ញ្ច ប៉ុន្តែវាក៏អាចជំនួសមនុស្សក្នុងការវិភាគ តាមដាន កំណត់អត្តសញ្ញាណលេខ ទស្សន៍ទាយអំពីសេណារីយ៉ូនៃការវាយប្រហារ ដោយហេតុនេះធ្វើអោយប្រសើរឡើងនូវសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។

W-nguyen-tuan-khang-ibm-1.jpg
លោក Nguyen Tuan Khang អ្នកជំនាញផ្នែកសន្តិសុខតាមអ៊ីនធឺណិត។ រូបថត៖ ទ្រុង ដេត

ការបោកប្រាស់ Deepfake កំពុងក្លាយជារឿងធម្មតាកាន់តែច្រើនឡើង។ ជាមួយនឹងការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ដល់កម្រិតណានាពេលអនាគត?

បណ្ឌិត Nguyen Tuan Khang៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាដែលជួយពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះការក្លែងបន្លំមនុស្សផ្សេងទៀត។ Deepfake នឹង​ក្លាយ​ជា​បញ្ហា​ដ៏​គ្រោះ​ថ្នាក់​ព្រោះ​បច្ចេកវិទ្យា​នេះ​កាន់​តែ​ទំនើប។

ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfake រឿងដំបូងដែលត្រូវធ្វើគឺកំណត់ថាតើរូបភាព ឬសំឡេងរបស់មនុស្សត្រូវបានបង្កើតដោយ AI ។ បច្ចុប្បន្ននេះមិនមានឧបករណ៍សកលដែលអាចរកឃើញ Deepfakes ភ្លាមៗទេ ពីព្រោះអ្នកវាយប្រហារកំពុងបង្កើតម៉ូដែលថ្មីៗឥតឈប់ឈរ។

បន្ថែមពីលើការទទួលស្គាល់ Deepfakes មានបច្ចេកទេសមួយផ្សេងទៀតដើម្បីដោះស្រាយជាមួយពួកគេ នោះគឺការប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ តាមទស្សនៈរបស់អង្គការ និងអាជីវកម្ម ចាំបាច់ត្រូវបង្កើតប្រព័ន្ធដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។

ថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker បានលួចលាក់កូដព្យាបាទនៅក្នុងប្រព័ន្ធសាជីវកម្ម។ មេរោគកំពុងរង់ចាំ និងវិភាគសកម្មភាពទាំងអស់ ដោយហេតុនេះបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាព្យាបាទរបស់វា។ ជាមួយនឹងការអភិវឌ្ឍន៍បច្ចេកវិទ្យា Deepfake គួបផ្សំនឹងសមត្ថភាពរបស់ AI ក្នុងការបង្កើតវីដេអូ ប្រភេទនៃការវាយប្រហារទាំងនេះនឹងកាន់តែមានគ្រោះថ្នាក់នាពេលអនាគត។

ជាមួយនឹងការកើនឡើងនៃការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមដែលងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?

លោកបណ្ឌិត Nguyen Tuan Khang៖ មនុស្សចាស់ និងកុមារតែងតែរងការវាយប្រហារដោយអ្នកបោកប្រាស់ដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ នេះគឺជាពាក្យដែលពិពណ៌នាអំពីការវាយប្រហារតាមរយៈឧបាយកលនៃអាកប្បកិរិយារបស់មនុស្ស។

ឥឡូវនេះពួក Hacker អាចប្រើប្រាស់ AI រួមបញ្ចូលគ្នាជាមួយនឹងការប្រមូលទិន្នន័យ ការជីកយករ៉ែ និងការវិភាគដើម្បីកំណត់អត្តសញ្ញាណមនុស្សដែលទំនងជាត្រូវបានគេបោកប្រាស់ ហើយបន្ទាប់មកស្វែងរកវិធីវាយប្រហារ។ បន្ថែមពីលើការលើកកម្ពស់ការយល់ដឹងជាសាធារណៈ យើងត្រូវតែទទួលយកផងដែរថានឹងមានស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវបានបោកបញ្ឆោត ហើយត្រូវតែប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីស្វែងរក និងទប់ស្កាត់នោះ។

W-online-fraud-1.jpg
ព្រមាន​អំពី​ករណី​ក្លែង​បន្លំ​មន្ត្រី​ប៉ូលិស​ដើម្បី​ឆបោក​ការ​ផ្ទេរ​ប្រាក់ ដោយ​ប៉ូលិស​សង្កាត់ Thanh Luong (ហាណូយ)។ រូបថត៖ ទ្រុង ដេត

ថ្មីៗនេះ មានករណីបុគ្គលិកធនាគារម្នាក់ សង្ស័យស្ត្រីចំណាស់ម្នាក់ ដែលមកផ្ទេរប្រាក់ មានសញ្ញានៃការឆបោក។ ជន​នេះ​ក៏​ឃាត់​ទាន់​ពេល​វេលា ហើយ​រាយការណ៍​ទៅ​សមត្ថកិច្ច ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះត្រូវតែមានបច្ចេកវិទ្យាដើម្បីជំនួសមនុស្សក្នុងកិច្ចការបែបនេះ។

តួនាទីរបស់បច្ចេកវិទ្យាគឺថា បើទោះបីជាអ្នកផ្ទេរប្រាក់ត្រូវបានគេដឹងក៏ដោយ ក៏ប្រព័ន្ធនឹងនៅតែរារាំងវា ប្រសិនបើគេសង្ស័យថាអាកប្បកិរិយានេះកំពុងត្រូវបានបំប្លែងដោយអ្នកផ្សេង។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថាប្រព័ន្ធប្រឆាំងនឹងការក្លែងបន្លំ ប្រព័ន្ធប្រឆាំងនឹងការក្លែងបន្លំ។

តើដល់ពេលដែលវៀតណាមត្រូវដាក់ទណ្ឌកម្មដើម្បីគ្រប់គ្រង AI និងដាក់ការស្រាវជ្រាវ ការអភិវឌ្ឍន៍ និងប្រើប្រាស់ AI ទៅក្នុងក្របខ័ណ្ឌមួយ?

លោកបណ្ឌិត Nguyen Tuan Khang៖ ការដាក់ទណ្ឌកម្មសម្រាប់ការគ្រប់គ្រង AI ត្រូវបានលើកឡើងជាយូរមកហើយ ប៉ុន្តែនៅតែមានបញ្ហាចម្រូងចម្រាសជាច្រើន។ ជាឧទាហរណ៍ ចំណតរថយន្តក្នុងតំបន់របស់ខ្ញុំមានប្រព័ន្ធ AI ដែលទទួលស្គាល់ស្លាកលេខ ប៉ុន្តែនៅតែមានចោរលួច។ បន្ទាប់​មក​ការ​ឈ្លោះ​ប្រកែក​គ្នា​បាន​ចាប់​ផ្តើម​ថា​តើ​អ្នក​ណា​ជា​កំហុស។ តើអ្នកណាជាអ្នកទទួលខុសត្រូវ ម្ចាស់អាផាតមិន សន្តិសុខ ឬអ្នកបង្កើតប្រព័ន្ធ AI?

ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួន ដោយបញ្ជាក់ថាអ្នកស្រុកអាចជ្រើសរើសប្រើប្រាស់ AI ការទទួលស្គាល់ស្លាកលេខសម្រាប់ភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នក​ដែល​យល់ព្រម​នឹង​អាច​ប្រើ​ទ្វារ​ស្វ័យប្រវត្តិ អ្នក​ដែល​មិន​ទទួល​នឹង​ត្រូវ​ចត​រថយន្ត​តាម​ផ្លូវ​ចាស់។ យើងត្រូវតែមានទណ្ឌកម្មបែបនេះ។

ដូចគ្នានេះដែរ IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធចេញវេជ្ជបញ្ជាថ្នាំ ប៉ុន្តែអ្នកជំងឺនៅតែមិនអាចសង្គ្រោះបានបន្ទាប់ពីលេបថ្នាំនោះ តើវាជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬជាកំហុសរបស់បញ្ញាសិប្បនិម្មិត?

ខ្ញុំគិតថាការដាក់ទណ្ឌកម្មសម្រាប់ AI ត្រូវតែគ្រប់គ្រងជាពិសេស ដោយបញ្ជាក់យ៉ាងច្បាស់នូវអ្វីដែលអាចធ្វើបាន និងមិនអាចធ្វើនៅពេលបង្កើតកម្មវិធី AI ។ ដើម្បីធ្វើឱ្យពិភពលោកកាន់តែមានសុវត្ថិភាព ការដាក់ទណ្ឌកម្មជាមូលដ្ឋានបំផុតដែលយើងអាចធ្វើបានគឺទាមទារឱ្យមានការផ្ទេរប្រាក់ធំ ៗ ដើម្បីផ្ទៀងផ្ទាត់ភាពត្រឹមត្រូវតាមជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ អ្នកដែលបាត់បង់ព័ត៌មានអត្តសញ្ញាណអាចជៀសវាងការបាត់បង់លុយទាំងស្រុង។

សូមអរគុណលោក។

ការបោកប្រាស់ Deepfake មុខក្លែងក្លាយ សំឡេងនឹងកើនឡើងនៅឆ្នាំ 2024 តាមការព្យាករណ៍របស់ VSEC ការវាយប្រហារតាមអ៊ីនធឺណិតដោយប្រើ AI រួមទាំងការបោកប្រាស់ Deepfake ទៅកាន់មុខក្លែងក្លាយ និងសំឡេងនឹងកើនឡើងនៅឆ្នាំ 2024។