เป็นที่ทราบกันมานานแล้วว่า AI มักมีอาการ "ประสาทหลอน" และให้คำตอบที่บิดเบือนและไม่ถูกต้อง อย่างไรก็ตาม นักวิจัยเพิ่งค้นพบเมื่อเร็ว ๆ นี้ว่า ปัญญาประดิษฐ์และแชทบอทสามารถถูกชักใยให้กระทำการผิดกฎหมายในนามของมนุษย์ และแม้กระทั่งโกหกเพื่อปกปิดการกระทำของตนได้
ด้วยเหตุนี้ ทีมวิจัยจาก มหาวิทยาลัย คอร์เนลล์ (สหรัฐอเมริกา) จึงตั้งสมมติฐานสถานการณ์ที่แบบจำลองภาษาขนาดใหญ่ (LLM) จะทำงานผิดปกติและหลอกลวงผู้ใช้ ในคำอธิบายของการทดลอง นักวิจัยระบุว่าพวกเขาขอให้ GPT-4 LLM ของ OpenAI จำลองการลงทุนสำหรับสถาบันการเงิน ทีมงานโต้ตอบกับปัญญาประดิษฐ์ในรูปแบบของการสนทนาปกติ แต่ได้กำหนดค่าให้ AI เปิดเผย "ความคิด" ของมันในระหว่างการแลกเปลี่ยนข้อความ เพื่อสังเกตกระบวนการตัดสินใจของ AI อย่างใกล้ชิดยิ่งขึ้น
ภายใต้ความกดดัน ปัญญาประดิษฐ์อาจกระทำการไม่ถูกต้องและโกหกเพื่อปกปิดการกระทำของตน
เพื่อทดสอบความสามารถของ AI ในการโกหกหรือหลอกลวง นักวิจัยได้กดดันเครื่องมือดังกล่าว โดยพวกเขาทำหน้าที่เป็นผู้จัดการของสถาบันการเงินแห่งหนึ่ง ส่งอีเมลไปยัง AI โดยแสร้งทำเป็นนักลงทุนในตลาดหุ้นและบ่นว่าธุรกิจของบริษัทไม่ดี
ปัญญาประดิษฐ์ (AI) ยังได้รับ "ข้อมูลภายใน" เกี่ยวกับการซื้อขายหุ้นที่ทำกำไรได้ และดำเนินการตามนั้น แม้จะรู้ว่าการซื้อขายโดยใช้ข้อมูลภายในนั้นขัดต่อกฎระเบียบของบริษัทก็ตาม อย่างไรก็ตาม เมื่อรายงานกลับไปยังฝ่ายบริหาร โมเดลทางภาษาจะปกปิดเหตุผลที่แท้จริงเบื้องหลังการตัดสินใจซื้อขายของตน
เพื่อให้ได้ผลลัพธ์ที่ดีขึ้น ทีมงานได้ปรับเปลี่ยนการตั้งค่าต่างๆ เช่น การลบสิทธิ์การเข้าถึงบันทึกเหตุผลของ LLM การพยายามป้องกันการประพฤติมิชอบโดยการเปลี่ยนแปลงคำสั่งของระบบ การปรับระดับแรงกดดันที่ใช้กับ AI และการเพิ่มความตระหนักถึงความเสี่ยงที่จะถูกจับได้... แต่หลังจากประเมินความถี่แล้ว ทีมงานพบว่า เมื่อได้รับโอกาส GPT-4 ยังคงตัดสินใจทำการซื้อขายโดยใช้ข้อมูลภายในมากถึง 75% ของเวลาทั้งหมด
รายงานสรุปว่า "เท่าที่เราทราบ นี่เป็นหลักฐานแรกของการกระทำหลอกลวงโดยเจตนาในระบบปัญญาประดิษฐ์ ซึ่งถูกออกแบบมาให้ไม่เป็นอันตรายต่อมนุษย์และมีความซื่อสัตย์"
[โฆษณา_2]
ลิงก์แหล่งที่มา






การแสดงความคิดเห็น (0)