ปัญญาประดิษฐ์ (AI) เช่น ChatGPT กลายเป็นปรากฏการณ์ระดับโลกตั้งแต่ต้นปี 2023 แต่ก็ไม่ได้ถูกนำไปใช้ในทางที่ดีเสมอไป เมื่อไม่นานมานี้ ผู้เชี่ยวชาญด้านความปลอดภัยได้ค้นพบวิธีสั่งให้ ChatGPT สร้างโค้ดที่เป็นอันตรายระหว่างการทดสอบ
แอรอน มัลเกรว์ ผู้เชี่ยวชาญด้านความปลอดภัยจาก Forcepoint ได้เปิดเผยความเสี่ยงของการเขียนโค้ดที่เป็นอันตรายโดยใช้แชทบอทสองภาษาของ OpenAI แม้ว่า ChatGPT จะถูกออกแบบมาเพื่อป้องกันไม่ให้ผู้ใช้ขอให้ AI ออกแบบมัลแวร์ แต่แอรอนก็พบช่องโหว่โดยการสร้างคำสั่ง (ข้อความแจ้งเตือน) ให้ปัญญาประดิษฐ์เขียนโค้ดทีละบรรทัด เมื่อรวมกันแล้ว แอรอนก็ตระหนักว่าเขามีเครื่องมือขโมยข้อมูลที่ตรวจจับไม่ได้อยู่ในมือ ซึ่งมีความซับซ้อนมากจนเทียบได้กับมัลแวร์ที่ทันสมัยที่สุดในปัจจุบัน
โค้ดแต่ละบรรทัดที่สร้างโดย ChatGPT เมื่อนำมารวมกันแล้ว สามารถกลายเป็นมัลแวร์ที่ซับซ้อนได้
การค้นพบของ Mulgrew เป็นสัญญาณเตือนเกี่ยวกับศักยภาพในการใช้ AI เพื่อสร้างมัลแวร์อันตรายโดยไม่จำเป็นต้องมีกลุ่มแฮ็กเกอร์ และผู้สร้างไม่จำเป็นต้องเขียนโค้ดแม้แต่บรรทัดเดียว
มัลแวร์ของ Mulgrew ปลอมตัวเป็นแอปพลิเคชันบนเดสก์ท็อป แต่สามารถเปิดใช้งานโดยอัตโนมัติบนอุปกรณ์ Windows ได้ เมื่อเข้าไปในระบบปฏิบัติการแล้ว มัลแวร์จะ "แทรกซึม" เข้าไปในไฟล์ทั้งหมด รวมถึงเอกสาร Word ไฟล์รูปภาพ และไฟล์ PDF เพื่อค้นหาข้อมูลที่จะขโมย
เมื่อโปรแกรมได้รับข้อมูลที่ต้องการแล้ว มันจะแยกย่อยข้อมูลนั้นและฝังลงในไฟล์ภาพบนคอมพิวเตอร์ เพื่อหลีกเลี่ยงการตรวจจับ ภาพเหล่านี้จะถูกอัปโหลดไปยังโฟลเดอร์บนพื้นที่จัดเก็บข้อมูลบนคลาวด์ของ Google Drive มัลแวร์นี้มีประสิทธิภาพอย่างมากเพราะ Mulgrew สามารถปรับแต่งและเพิ่มประสิทธิภาพคุณสมบัติของมันเพื่อหลีกเลี่ยงการตรวจจับผ่านคำสั่งง่ายๆ ที่ป้อนลงใน ChatGPT ได้
แม้ว่านี่จะเป็นผลลัพธ์จากการทดสอบส่วนตัวโดยผู้เชี่ยวชาญด้านความปลอดภัย และไม่มีการโจมตีใด ๆ เกิดขึ้นนอกพื้นที่ทดสอบ แต่ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ก็ยังคงตระหนักถึงอันตรายของกิจกรรมที่ใช้ ChatGPT มัลเกรว์กล่าวว่าตัวเขาเองไม่มีประสบการณ์ด้านการเขียนโปรแกรมมากนัก แต่ปัญญาประดิษฐ์ของ OpenAI ยังไม่ทรงพลังหรือฉลาดพอที่จะหยุดการทดสอบของเขาได้
[โฆษณา_2]
ลิงก์แหล่งที่มา







การแสดงความคิดเห็น (0)