กลุ่มวิจัยปัญญาประดิษฐ์ (AI) จากมหาวิทยาลัยโพลีเทคนิควาเลนเซีย ประเทศสเปน พบว่ายิ่งโมเดลภาษาขนาดใหญ่มีขนาดใหญ่ขึ้นและซับซ้อนขึ้นเท่าไร ก็ยิ่งมีแนวโน้มที่จะยอมรับน้อยลงเท่านั้น ผู้ใช้บอกว่าเขาไม่ทราบคำตอบ
ยิ่ง AI ฉลาดมากขึ้นเท่าไร โอกาสที่ผู้ใช้จะยอมรับว่าไม่รู้คำตอบก็จะน้อยลงเท่านั้น (ภาพประกอบ AI) |
ในการศึกษาที่ตีพิมพ์ในวารสาร Nature ทีมได้ทดสอบเวอร์ชันล่าสุดของแชทบอท AI ที่ได้รับความนิยมสูงสุด 3 ตัวในเรื่องการตอบสนอง ความแม่นยำ และความสามารถของผู้ใช้ในการระบุคำตอบที่ไม่ถูกต้อง
เพื่อทดสอบความแม่นยำของ LLM สามฉบับที่ได้รับความนิยมมากที่สุด ได้แก่ BLOOM LLaMA และ GPT ทีมงานได้ตั้งคำถามนับพันข้อและเปรียบเทียบคำตอบที่ได้รับกับคำตอบจากเวอร์ชันก่อนหน้าสำหรับคำถามเดียวกัน นอกจากนี้ ยังมีเนื้อหาที่หลากหลาย เช่น คณิตศาสตร์ วิทยาศาสตร์ ปริศนาคำศัพท์ และภูมิศาสตร์ รวมถึงความสามารถในการสร้างข้อความหรือการดำเนินการต่างๆ เช่น การเรียงลำดับรายการ
ผลการศึกษาวิจัยเผยให้เห็นแนวโน้มที่น่าสังเกตบางประการ ความแม่นยำโดยรวมของแชทบอทได้รับการปรับปรุงให้ดีขึ้นในแต่ละเวอร์ชันใหม่ แต่จะยังคงลดลงเมื่อต้องเผชิญกับคำถามที่ยากมากขึ้น น่าแปลกใจก็คือ เมื่อหลักสูตร LLM มีขนาดใหญ่ขึ้นและซับซ้อนมากขึ้น พวกเขามักจะเปิดกว้างน้อยลงเกี่ยวกับความสามารถในการตอบคำถามที่ถูกต้อง
ในเวอร์ชันก่อนหน้านี้ LLM ส่วนใหญ่จะแจ้งให้ผู้ใช้ทราบโดยตรงเมื่อผู้ใช้ไม่พบคำตอบหรือต้องการข้อมูลเพิ่มเติม ในทางตรงกันข้าม เวอร์ชันใหม่มีแนวโน้มที่จะคาดเดามากขึ้น ส่งผลให้มีคำตอบโดยรวมมากขึ้น ซึ่งรวมทั้งคำตอบที่ถูกต้องและไม่ถูกต้อง ที่น่าเป็นห่วงกว่านั้นคือ การศึกษายังพบว่าหลักสูตร LLM ทั้งหมดยังให้คำตอบที่ไม่ถูกต้องเป็นครั้งคราว แม้แต่กับคำถามง่ายๆ ซึ่งแสดงให้เห็นว่าความน่าเชื่อถือยังคงเป็นปัญหาที่ต้องปรับปรุง
ผลการค้นพบเหล่านี้ชี้ให้เห็นถึงความขัดแย้งในวิวัฒนาการของ AI: ในขณะที่โมเดลต่างๆ กำลังมีประสิทธิภาพมากขึ้น โมเดลเหล่านี้อาจมีความโปร่งใสน้อยลงเกี่ยวกับข้อจำกัดต่างๆ เช่นกัน
สิ่งนี้ก่อให้เกิดความท้าทายใหม่ในการใช้งานและความไว้วางใจของระบบ AI โดยผู้ใช้ต้องระมัดระวังมากขึ้น และนักพัฒนาต้องมุ่งเน้นที่การปรับปรุงไม่เพียงแต่ความแม่นยำเท่านั้น แต่ยังรวมถึงความสามารถในการ "รับรู้ตนเอง" ของโมเดลด้วย
ที่มา: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
การแสดงความคิดเห็น (0)