คุณคิดอย่างไรเกี่ยวกับแนวโน้มของแฮกเกอร์ที่ “ใช้” AI เป็นอาวุธในการโจมตีทางไซเบอร์และฉ้อโกง?

ดร. เหงียน ตวน คัง: ตามดัชนี X-Force Threat Intelligence ประจำปี 2024 ของ IBM ภูมิภาคเอเชียแปซิฟิก รวมถึงเวียดนาม เป็นภูมิภาคที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุดในโลกในปี 2023 โดยภาคการผลิตเป็นอุตสาหกรรมที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุด

กลอุบายหลักของผู้ร้ายก็ยังคงเป็นการโจมตีแบบฟิชชิ่งโดยกำหนดเป้าหมายไปที่ผู้ที่มีช่องโหว่และใช้ประโยชน์จากช่องโหว่เพื่อติดตั้งมัลแวร์ นอกจากนี้แนวโน้มที่เกิดขึ้นใหม่ในปี 2024 คือการโจมตีทางไซเบอร์ที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI)

รายงานของ Wired ชี้ให้เห็นว่าคนร้ายหลายรายกำลังใช้ AI เพื่อช่วยแนะนำแฮ็ก สร้างแชทบอทหลอกลวง หรือสร้างรูปภาพและวิดีโอปลอมที่เป็นใบหน้าและเสียงของบุคคลอื่นโดยใช้ Deepfake

อย่างไรก็ตาม พร้อมกับแนวโน้มนี้ ระบบความปลอดภัยของข้อมูลก็เริ่มที่จะนำฟีเจอร์ AI เช่น watsonx เข้ามาใช้ด้วย ปัญญาประดิษฐ์สามารถถูกใช้ประโยชน์ได้ แต่ปัญญาประดิษฐ์ก็ยังสามารถเข้ามาแทนที่มนุษย์ในการวิเคราะห์ ตรวจสอบ ระบุตัวเลข คาดการณ์สถานการณ์การโจมตี จึงสามารถปรับปรุงศักยภาพในการป้องกันและลดความเสี่ยงด้านความปลอดภัยของข้อมูลได้

วี-เหงียนตวนคัง-ไอบีเอ็ม-1.jpg
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ เหงียน ตวน คัง ภาพ : ณ ดัต

การหลอกลวงผ่าน Deepfake กำลังเกิดขึ้นบ่อยมากขึ้นเรื่อยๆ ด้วยการพัฒนาอย่างรวดเร็วของ AI การโจมตีเหล่านี้จะมีความอันตรายแค่ไหนในอนาคต?

ดร. เหงียน ตวน คัง: โดยพื้นฐานแล้ว Deepfake เป็นเทคโนโลยีที่ช่วยให้แฮกเกอร์สร้างตัวตนดิจิทัลปลอม เพื่อปลอมตัวเป็นบุคคลอื่นๆ Deepfake จะเป็นปัญหาอันตรายเนื่องจากเทคโนโลยีนี้กำลังซับซ้อนมากขึ้นเรื่อยๆ

เพื่อต่อสู้กับ Deepfake สิ่งแรกที่ต้องทำคือการตรวจสอบว่ารูปภาพหรือเสียงของบุคคลนั้นสร้างขึ้นโดย AI หรือไม่ ขณะนี้ยังไม่มีเครื่องมือสากลที่สามารถตรวจจับ Deepfakes ได้ทันที เนื่องจากผู้โจมตีกำลังพัฒนาโมเดลใหม่ๆ อยู่ตลอดเวลา

นอกเหนือจากการรับรู้ถึง Deepfakes แล้วยังมีอีกเทคนิคหนึ่งในการจัดการกับมัน นั่นก็คือการใช้เทคโนโลยีในการวิเคราะห์พฤติกรรม จากมุมมองขององค์กรและธุรกิจ จำเป็นต้องพัฒนาระบบที่รวมเทคนิคทั้งสองนี้เข้าด้วยกัน

เมื่อไม่นานนี้ ได้เกิดการโจมตีทางไซเบอร์ขึ้น โดยแฮกเกอร์ได้แอบฝังโค้ดที่เป็นอันตรายลงในระบบขององค์กร มัลแวร์แฝงตัวอยู่ในการดักจับและวิเคราะห์กิจกรรมทั้งหมด ทำให้เกิดการสร้างตัวตนปลอมขึ้นเพื่อดำเนินการตามเจตนาอันชั่วร้าย ด้วยการพัฒนาของเทคโนโลยี Deepfake ผนวกกับความสามารถของ AI ในการสร้างวิดีโอ การโจมตีประเภทนี้จะกลายเป็นอันตรายมากยิ่งขึ้นในอนาคต

เมื่อการโจมตีทางไซเบอร์แบบ Deepfake ทวีความรุนแรงมากขึ้น เราจะปกป้องผู้สูงอายุ เด็ก และกลุ่มเปราะบางอื่นๆ จากผู้หลอกลวงได้อย่างไร

ดร.เหงียน ตวน คัง: ผู้สูงอายุและเด็กๆ มักถูกโจมตีโดยผู้หลอกลวงโดยใช้เทคนิคที่เรียกว่าวิศวกรรมสังคม นี่คือคำที่ใช้บรรยายถึงการโจมตีผ่านการบิดเบือนพฤติกรรมของมนุษย์

ปัจจุบันแฮกเกอร์สามารถใช้ AI ร่วมกับการรวบรวม การขุดข้อมูล และการวิเคราะห์ เพื่อระบุบุคคลที่มีแนวโน้มจะโดนหลอกลวง และค้นหาวิธีโจมตี นอกเหนือจากการสร้างความตระหนักรู้ให้กับสาธารณชนแล้ว เรายังต้องยอมรับด้วยว่าจะมีสถานการณ์ที่ผู้ใช้ถูกหลอกลวง และจะต้องใช้เทคโนโลยีเพื่อตรวจจับและป้องกันสิ่งนั้น

W-ออนไลน์-ฉ้อโกง-1.jpg
เตือนภัยกรณีแอบอ้างเป็นเจ้าหน้าที่ตำรวจเพื่อหลอกลวงโอนเงิน โดยตำรวจท้องที่ Thanh Luong (ฮานอย) ภาพ : ณ ดัต

ล่าสุดมีกรณีพนักงานธนาคารสงสัยว่าหญิงชราที่มาโอนเงินมีสัญญาณว่าถูกหลอก จากนั้นบุคคลดังกล่าวได้หยุดการกระทำดังกล่าวได้ทันเวลาและรายงานให้เจ้าหน้าที่ทราบ ปัจจุบันระบบไอทีของธนาคารต้องมีเทคโนโลยีมาทดแทนมนุษย์ในการทำงานดังกล่าว

บทบาทของเทคโนโลยีคือ แม้ว่าผู้ที่โอนเงินจะเป็นที่รู้จัก ระบบก็ยังคงป้องกันไม่ให้เกิดการโอนเงินหากสงสัยว่ามีบุคคลอื่นเข้ามาควบคุมพฤติกรรมดังกล่าว เครื่องมือดังกล่าวเรียกว่าระบบต่อต้านการฉ้อโกงและต่อต้านการปลอมแปลง

ถึงเวลาหรือยังที่เวียดนามจะต้องมีมาตรการคว่ำบาตรเพื่อจัดการกับ AI และนำการวิจัย พัฒนา และการใช้งาน AI เข้าไปในกรอบการทำงาน?

ดร.เหงียน ตวน คัง: มีการกล่าวถึงมาตรการคว่ำบาตรต่อการบริหารจัดการ AI มานานแล้ว อย่างไรก็ตาม ยังคงมีปัญหาที่ถกเถียงกันอยู่มากมาย เช่น ที่จอดรถในพื้นที่ของฉันมีระบบ AI ที่จดจำป้ายทะเบียนรถ แต่ก็ยังมีการโจรกรรมอยู่ จากนั้นก็เริ่มมีการโต้เถียงกันว่าใครเป็นคนผิด ใครจะต้องรับผิดชอบ เจ้าของอพาร์ทเม้นท์, เจ้าหน้าที่ รปภ. หรือ ผู้พัฒนาระบบ AI?

ตั้งแต่นั้นมา อาคารได้เปลี่ยนกฎเกณฑ์ โดยระบุว่าผู้อยู่อาศัยสามารถเลือกใช้ AI จดจำป้ายทะเบียนรถเพื่อความสะดวก แต่พวกเขาต้องยอมรับความเสี่ยง ใครเห็นด้วยก็จะสามารถใช้งานประตูอัตโนมัติได้ ส่วนใครไม่เห็นด้วยก็ต้องจอดรถตามวิธีเดิม เราคงจะต้องมีการคว่ำบาตรแบบนี้

ในทำนองเดียวกัน IBM เคยพัฒนาระบบ AI เพื่อช่วยป้องกันโรคมะเร็ง เมื่อระบบจ่ายยาแล้วแต่คนไข้ยังไม่สามารถรักษาได้หลังจากทานยาไปแล้ว นั่นเป็นความผิดของแพทย์หรือความผิดของปัญญาประดิษฐ์?

ฉันคิดว่าควรมีการควบคุมบทลงโทษสำหรับ AI อย่างเฉพาะเจาะจง โดยต้องระบุให้ชัดเจนว่าอะไรทำได้และอะไรทำไม่ได้เมื่อพัฒนาแอปพลิเคชัน AI เพื่อให้โลกปลอดภัยมากขึ้น มาตรการคว่ำบาตรขั้นพื้นฐานที่สุดที่เราสามารถทำได้คือการกำหนดให้การโอนเงินจำนวนมากต้องมีการตรวจสอบข้อมูลชีวภาพ ในสถานการณ์เช่นนี้ ผู้ที่สูญเสียข้อมูลประจำตัวสามารถหลีกเลี่ยงการสูญเสียเงินได้อย่างแน่นอน

ขอบพระคุณท่านครับ.

การหลอกลวงผ่าน Deepfake การปลอมใบหน้าและเสียง จะเพิ่มขึ้นในปี 2024 ตามการคาดการณ์ของ VSEC การโจมตีทางไซเบอร์ที่ใช้ AI รวมถึงการหลอกลวงผ่าน Deepfake การปลอมใบหน้าและเสียง จะเพิ่มขึ้นในปี 2024