ปัญญาประดิษฐ์ (AI) เช่น ChatGPT ได้รับความนิยมไปทั่วโลกตั้งแต่ต้นปี 2023 แต่ AI นี้ไม่ได้ถูกใช้เพื่อจุดประสงค์เชิงบวกเสมอไป เมื่อไม่นานนี้ผู้เชี่ยวชาญด้านความปลอดภัยพบวิธีในการขอให้ ChatGPT สร้างโค้ดที่เป็นอันตรายระหว่างการทดสอบ
Aaron Mulgrew ผู้เชี่ยวชาญด้านความปลอดภัยของบริษัท Forcepoint แบ่งปันความเสี่ยงในการเขียนโค้ดที่เป็นอันตรายโดยใช้ภาษาแชทบอทที่พัฒนาโดย OpenAI แม้ว่า ChatGPT ได้รับการออกแบบมาเพื่อป้องกันไม่ให้ผู้ใช้ขอให้ AI ออกแบบโค้ดที่เป็นอันตราย แต่ Aaron ก็พบช่องโหว่ด้วยการสร้างคำเตือนที่ให้ AI เขียนโค้ดโปรแกรมทีละบรรทัด เมื่อนำมาใช้ร่วมกัน แอรอนก็รู้ว่าในมือเขามีเครื่องมือขโมยข้อมูลที่ตรวจจับไม่ได้ซึ่งมีความซับซ้อนมากจนเทียบได้กับมัลแวร์ที่ก้าวหน้าที่สุดในปัจจุบัน
บรรทัดคำสั่งแต่ละบรรทัดที่สร้างโดย ChatGPT เมื่อนำมารวมกันอาจกลายเป็นมัลแวร์ที่ซับซ้อนได้
การค้นพบของ Mulgrew ถือเป็นสัญญาณเตือนเกี่ยวกับความสามารถในการใช้ประโยชน์จาก AI เพื่อสร้างมัลแวร์อันตรายโดยไม่จำเป็นต้องมีกลุ่มแฮกเกอร์ และแม้แต่ผู้สร้างเครื่องมือก็ไม่จำเป็นต้องเขียนโค้ดแม้แต่บรรทัดเดียว
ซอฟต์แวร์ของ Mulgrew ถูกปลอมตัวมาเป็นแอปพลิเคชันรักษาหน้าจอ แต่สามารถเปิดใช้งานโดยอัตโนมัติบนอุปกรณ์ที่ใช้ Windows ได้ เมื่ออยู่ในระบบปฏิบัติการแล้ว มัลแวร์จะ “แอบ” เข้าไปในทุกไฟล์ รวมถึงโปรแกรมแก้ไขข้อความ Word ไฟล์รูปภาพ และ PDF เพื่อค้นหาข้อมูลที่จะขโมย
เมื่อมีข้อมูลที่ต้องการแล้ว โปรแกรมจะแยกข้อมูลและแนบไปกับไฟล์ภาพบนเครื่อง เพื่อหลีกเลี่ยงการตรวจจับ ภาพเหล่านี้จึงถูกอัปโหลดไปยังโฟลเดอร์บนพื้นที่เก็บข้อมูลบนคลาวด์ของ Google Drive มัลแวร์นี้มีประสิทธิภาพมากยิ่งขึ้นเนื่องจาก Mulgrew สามารถปรับแต่งและปรับปรุงคุณสมบัติต่างๆ เพื่อหลีกเลี่ยงการตรวจจับผ่านคำสั่งง่ายๆ ที่ป้อนเข้าไปใน ChatGPT
แม้ว่านี่จะเป็นผลลัพธ์ของการทดสอบแบบส่วนตัวโดยผู้เชี่ยวชาญด้านความปลอดภัย และไม่มีการโจมตีใดๆ เกิดขึ้นนอกขอบเขตการทดสอบ แต่ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ยังคงตระหนักถึงอันตรายของกิจกรรมที่ใช้ ChatGPT Mulgrew อ้างว่ามีประสบการณ์ด้านการเขียนโปรแกรมน้อยมาก แต่ปัญญาประดิษฐ์ของ OpenAI ก็ยังไม่ทรงพลังหรือฉลาดพอที่จะหยุดการทดสอบของเขาได้
ลิงค์ที่มา
การแสดงความคิดเห็น (0)