เอกสาร “Frontier AI Framework” ระบุระบบ AI สองประเภทที่ Meta พิจารณาว่าไม่ควรเผยแพร่ ซึ่งก็คือ “ความเสี่ยงสูง” และ “ความเสี่ยงร้ายแรง” นี่แสดงให้เห็นว่าบริษัทแม่อย่าง Facebook มีความระมัดระวังมากขึ้นเกี่ยวกับเทคโนโลยี AI

ก่อนหน้านี้ ซีอีโอ มาร์ก ซักเคอร์เบิร์ก ให้คำมั่นว่าจะทำให้ปัญญาประดิษฐ์ทั่วไป (AGI) กลายมาเป็นเรื่องธรรมดา

ดีพซีค เทคครันช์
Meta ระบุระบบ AI สองประเภทที่อาจไม่ได้รับการเผยแพร่เนื่องจากมีความเสี่ยงเกินไป ภาพ: TechCrunch

ตามคำจำกัดความของ Meta ทั้งระบบที่มี "ความเสี่ยงสูง" และ "ความเสี่ยงรุนแรง" สามารถรองรับการโจมตีทางไซเบอร์ ทางชีวภาพ และทางเคมีได้ แต่ความแตกต่างก็คือ ระบบที่มี "ความเสี่ยงรุนแรง" จะนำไปสู่ ​​"ผลที่ตามมาอันเลวร้ายที่ไม่อาจบรรเทาได้"

Meta เสนอสถานการณ์ต่างๆ เช่น การแทรกซึมเข้าไปในสภาพแวดล้อมขององค์กรที่ได้รับการปกป้องอย่างดีโดยอัตโนมัติ หรือการแพร่กระจายอาวุธชีวภาพที่มีผลกระทบสูง

นี่คือสถานการณ์ “เร่งด่วน” ที่สุดที่บริษัทเชื่อว่าอาจเกิดขึ้นได้จากการเปิดตัวระบบ AI ที่ทรงพลัง

การจำแนกระบบไม่ได้ขึ้นอยู่กับการทดสอบเชิงประจักษ์ แต่ขึ้นอยู่กับข้อมูลจากผู้เชี่ยวชาญภายในและภายนอก

หากพบว่าระบบมีความเสี่ยงสูง Meta จะจำกัดการเข้าถึงระบบภายในและจะไม่เปิดใช้งานจนกว่าจะมีมาตรการบรรเทาเพื่อลดความเสี่ยงให้อยู่ในระดับปานกลาง

ในทางกลับกัน หากระบบถูกระบุว่าเป็น “ความเสี่ยงที่สำคัญ” Meta จะใช้การป้องกันที่ไม่ได้ระบุเพื่อป้องกันไม่ให้ระบบถูกบุกรุก และหยุดการพัฒนาจนกว่าจะมีความอันตรายน้อยลง

ตามที่ TechCrunch ระบุ Frontier AI Framework ดูเหมือนว่าจะออกแบบมาเพื่อบรรเทาคำวิจารณ์ที่มีต่อแนวทางแบบเปิดของ Meta ในการพัฒนาระบบ

Meta มักเปิดเผยโค้ดต้นฉบับของเทคโนโลยี AI ต่อสาธารณะ แทนที่จะเปิดเผยแบบปิดเหมือน OpenAI สำหรับบริษัท แนวทางแบบเปิดมีทั้งข้อดีและข้อเสีย โมเดล AI ของ Llama ของบริษัทมีการดาวน์โหลดไปแล้วหลายร้อยล้านครั้ง แต่ยังมีรายงานว่า Llama ก็ยังถูกใช้ประโยชน์เพื่อพัฒนาแชทบอทที่เป็นศัตรูกับสหรัฐอเมริกาด้วย

โดยการประกาศเปิดตัว Frontier AI Framework บริษัท Meta อาจมุ่งเป้าไปที่ DeepSeek ซึ่งเป็นบริษัทสตาร์ทอัพด้าน AI ที่มีชื่อเสียงที่สุดของจีนในปัจจุบัน DeepSeek ยังใช้กลยุทธ์ AI โอเพนซอร์สอีกด้วยแต่ไม่มีการป้องกันมากนัก และสามารถปรับแต่งได้ง่ายเพื่อสร้างผลลัพธ์ที่เป็นอันตราย

ตามที่ Meta ระบุ เมื่อชั่งน้ำหนักข้อดีและข้อเสียในการตัดสินใจเกี่ยวกับวิธีการพัฒนาและนำ AI ขั้นสูงไปใช้ เทคโนโลยีดังกล่าวสามารถให้บริการสังคมได้ในลักษณะที่ทั้งรักษาผลประโยชน์และรักษาระดับความเสี่ยงที่เหมาะสม

(ตามรายงานของ TechCrunch)