จากแหล่งข่าว Tech.co ระบุว่า ในขณะที่ความขัดแย้งเกี่ยวกับการที่ CEO Sam Altman โดนไล่ออกและกลับมาที่ OpenAI ยังคงเกิดขึ้นนั้น ข่าวลือหนึ่งก็เกี่ยวกับจดหมายที่นักวิจัยของบริษัทส่งถึงคณะกรรมการบริหาร ซึ่งแสดงความกังวลเกี่ยวกับโมเดลปัญญาประดิษฐ์ขั้นสูงที่กำลังถูกพัฒนาขึ้นมา ซึ่งอาจก่อให้เกิดภัยคุกคามต่อมนุษยชาติได้
(ภาพประกอบ)
โครงการ Q*
โมเดลที่ภายในรู้จักในชื่อ Project Q* (อ่านว่า คิว-สตาร์) กล่าวกันว่าเป็นความก้าวหน้าครั้งสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ของ OpenAI ซึ่งเป็นสาขาหนึ่งของปัญญาประดิษฐ์ระดับเหนือมนุษย์ที่มีความเป็นอิสระสูง ซึ่งสามารถเรียนรู้ได้สะสมและทำงานได้ดีกว่ามนุษย์ในงานส่วนใหญ่
Q* อาจสร้างก้าวกระโดดครั้งใหญ่ในด้านปัญญาประดิษฐ์ด้วยการปรับปรุงความสามารถในการใช้เหตุผลของ AI อย่างรุนแรง และทำให้ OpenAI เข้าใกล้ความก้าวหน้าครั้งสำคัญในการพัฒนา AGI มากขึ้น ตามที่ผู้ที่ทราบเรื่องนี้กล่าว
ต่างจากโมเดล AI ในปัจจุบัน ซึ่งเน้นที่ความสามารถในการสร้างการตอบสนองโดยอ้างอิงจากข้อมูลที่เรียนรู้มาก่อน AGI เป็นระบบอัตโนมัติที่สามารถใช้ "เหตุผล" ในการตัดสินใจได้ ซึ่งช่วยให้มีความสามารถในการแก้ปัญหาในระดับมนุษย์ได้
แม้ว่า AGI จะยังไม่ได้รับการยอมรับอย่างเต็มที่ แต่ผู้เชี่ยวชาญหลายคนเชื่อว่าเทคโนโลยีนี้จะมีความสามารถในการเรียนรู้แบบสะสมได้ด้วย ซึ่งเป็นคุณลักษณะอีกประการหนึ่งที่ทำให้มนุษย์สามารถพัฒนาความสามารถของตนเองได้
แหล่งข้อมูลบางแห่งอ้างว่า Q* - โครงการของ OpenAI สามารถพิสูจน์คุณสมบัติข้างต้นได้เมื่อแก้ปัญหา ไม่เพียงเท่านั้น ด้วยพลังการคำนวณมหาศาลของโมเดล Q* จึงสามารถทำผลงานได้ดีกว่านักเรียนประถมศึกษา แสดงให้เห็นทักษะการใช้เหตุผลและความสามารถทางปัญญาที่เหนือชั้นกว่าขีดความสามารถของเทคโนโลยี AI ในปัจจุบันอย่างมาก
ยังไม่ชัดเจนว่า Q* อยู่ในการพัฒนามานานเพียงใด และจะมีการใช้งานอย่างไร แต่ OpenAI ได้แจ้งให้พนักงานและสมาชิกคณะกรรมการทราบเกี่ยวกับโครงการดังกล่าวก่อนที่จะเกิดเรื่องอื้อฉาวเกี่ยวกับบุคลากร
ความกังวลด้านจริยธรรม
แม้ว่า Sam Altman ซีอีโอของ OpenAI จะรู้สึกมั่นใจว่าเทคโนโลยี AGI จะขับเคลื่อนการสร้างสรรค์นวัตกรรม แต่บรรดานักวิจัยบางส่วนก็รีบชี้ให้เห็นถึงอันตรายที่อาจเกิดขึ้นของโครงการนี้ทันที
ในจดหมายถึงคณะกรรมการ นักวิจัยเตือนถึงอันตรายที่อาจเกิดขึ้นจากอัลกอริทึมอันทรงพลังนี้ต่อมนุษยชาติ ข้อกังวลด้านจริยธรรมของ AI โดยเฉพาะที่ระบุไว้ในจดหมายไม่ได้รับการเปิดเผย แต่คำเตือนก็เพียงพอที่จะสนับสนุนการตัดสินใจของคณะกรรมการในการไล่ Altman ออก
ในขณะเดียวกัน เหตุผลเบื้องต้นที่ให้ไว้สำหรับการไล่ Altman ก็คือ CEO “สื่อสารได้ไม่ดี” ไม่นานหลังจากนั้น เขาก็ได้รับตำแหน่งใหม่ที่ Microsoft การเคลื่อนไหวดังกล่าวทำให้พนักงานของ OpenAI กว่า 700 คนจากทั้งหมด 770 คนขู่ว่าจะทำเช่นเดียวกันหาก CEO ไม่ได้รับการบรรจุเข้าทำงานอีกครั้ง
เนื่องจากบริษัทมีความเสี่ยงที่จะล้มละลาย คณะกรรมการบริหารของ OpenAI จึงจำเป็นต้องแต่งตั้ง Altman กลับมาดำรงตำแหน่งสูงสุดอีกครั้ง ซึ่งส่งผลให้มีการปฏิรูปทีมผู้บริหารครั้งใหญ่และยังเน้นย้ำถึงความขัดแย้งอย่างรุนแรงภายในกลุ่มผู้นำของบริษัทอีกด้วย
ตอนนี้ Altman กลับมาดำรงตำแหน่งอีกครั้ง และ Project Q* ก็มีแนวโน้มที่จะได้รับไฟเขียวอีกครั้ง ซึ่งเรื่องนี้ก็ทำให้เกิดคำถามใหม่ๆ ขึ้นมา
Project Q* มีความสมจริงขนาดไหน?
แม้ว่าวันอันวุ่นวายของ OpenAI จะทำให้แนวคิดของ AGI ได้รับความสนใจมากขึ้น แต่นี่ไม่ใช่ครั้งแรกที่ Altman พูดถึงเทคโนโลยีดังกล่าว
ในเดือนกันยายน ผู้ประกอบการใน Silicon Valley พบว่าตัวเองอยู่ในสถานการณ์ที่ลำบากหลังจากเปรียบเทียบ AGI กับ “มนุษย์ทั่วไปที่คุณอาจจ้างเป็นเพื่อนร่วมงาน” เขาได้ยืนยันความคิดเห็นที่เขาแสดงไว้เมื่อปีที่แล้วเกี่ยวกับว่า AI สามารถ “ทำทุกอย่างที่ทำได้กับเพื่อนร่วมงานระยะไกล” ได้อย่างไร รวมถึงการเรียนรู้วิธีการเป็นแพทย์และโปรแกรมเมอร์ที่ดี
แม้ว่าการเปรียบเทียบ AGI กับสติปัญญาของ "มนุษย์ทั่วไป" จะไม่ใช่เรื่องใหม่ แต่การใช้คำดังกล่าวของ Altman ถูกนักจริยธรรมด้าน AI และศาสตราจารย์ Henry Shevlin แห่งมหาวิทยาลัยเคมบริดจ์เห็นว่าเป็น "สิ่งน่ารังเกียจ" เนื่องจากความกังวลเกี่ยวกับผลกระทบของ AI ต่อความมั่นคงในการทำงานเพิ่มมากขึ้น
ความก้าวหน้าที่อาจเกิดขึ้นใน AGI ยังสร้างความกังวลให้กับนักวิจัยคนอื่นๆ อีกด้วยว่าเทคโนโลยีนี้กำลังได้รับการพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจถึงผลกระทบของมันได้อย่างสมบูรณ์
OpenAI เชื่อว่าผลลัพธ์เชิงบวกของ AGI ทำให้ "สนามทุ่นระเบิด" เสี่ยงๆ นี้คุ้มค่าที่จะลอง อย่างไรก็ตาม ในขณะที่บริษัทยังคงผลักดันไปข้างหน้าในทิศทางนี้ หลายคนกังวลว่า Altman กำลังให้ความสำคัญกับความสำเร็จเชิงพาณิชย์มากกว่าผลประโยชน์ของผู้ใช้และสังคม
ฟอง อันห์ (ที่มา: Tech.co, The Guardian)
แหล่งที่มา
การแสดงความคิดเห็น (0)