กลุ่มผู้เชี่ยวชาญระดับนานาชาติที่มีชื่อเสียงได้ประชุมกันที่ปักกิ่งเมื่อสัปดาห์ที่แล้ว โดยพวกเขาได้ระบุถึง “เส้นแบ่ง” ในการพัฒนา AI ซึ่งรวมถึงการสร้างอาวุธชีวภาพและการโจมตีทางไซเบอร์
ในแถลงการณ์หลังการประชุมไม่กี่วัน นักวิชาการเตือนว่า จำเป็นต้องมีแนวทางร่วมกันในการรักษาความปลอดภัย AI เพื่อป้องกัน “ความเสี่ยงร้ายแรงหรืออาจถึงขั้นเป็นอันตรายต่อมนุษยชาติในช่วงชีวิตของเรา”
ในช่วงที่สงครามเย็นรุนแรงที่สุด รัฐบาลนานาชาติและความร่วมมือทางวิทยาศาสตร์ช่วยป้องกันภัยพิบัติทางนิวเคลียร์ได้ มนุษยชาติจำเป็นต้องทำงานร่วมกันอีกครั้งเพื่อป้องกันภัยพิบัติที่อาจเกิดขึ้นจากเทคโนโลยีที่ไม่เคยมีมาก่อน” แถลงการณ์ระบุ
ผู้เชี่ยวชาญจากการประชุมนานาชาติว่าด้วยความปลอดภัยของ AI ที่ปักกิ่งได้ระบุถึง “เส้นแดง” ในการพัฒนา AI ภาพ : FT
ผู้ลงนามได้แก่ Geoffrey Hinton และ Yoshua Bengio ซึ่งมักได้รับการขนานนามว่าเป็น “บิดา” ของ AI สจ๊วร์ต รัสเซลล์ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ มหาวิทยาลัยแคลิฟอร์เนีย และแอนดรูว์ เหยา หนึ่งในนักวิทยาศาสตร์คอมพิวเตอร์ที่มีชื่อเสียงที่สุดของจีน
แถลงการณ์ดังกล่าวออกมาภายหลังการประชุม International AI Safety Dialogue ที่ปักกิ่งเมื่อสัปดาห์ที่แล้ว ซึ่งเจ้าหน้าที่รัฐบาลจีนเข้าร่วมการประชุมเพื่อแสดงความเห็นชอบต่อฟอรัมดังกล่าวและผลลัพธ์ที่ได้
ประธานาธิบดีโจ ไบเดนแห่งสหรัฐฯ และประธานาธิบดีสีจิ้นผิงของจีน พบกันในเดือนพฤศจิกายนที่ผ่านมา และหารือเกี่ยวกับความปลอดภัยของ AI และตกลงที่จะจัดทำการเจรจาเกี่ยวกับประเด็นนี้ บริษัท AI ชั้นนำของโลกยังได้พบปะกับผู้เชี่ยวชาญด้าน AI ของจีนเป็นการส่วนตัวในช่วงไม่กี่เดือนที่ผ่านมา
ในเดือนพฤศจิกายน พ.ศ. 2566 ประเทศต่างๆ 28 ประเทศ รวมทั้งจีน และบริษัท AI ชั้นนำ ตกลงที่จะมุ่งมั่นร่วมกันในการแก้ไขความเสี่ยงด้านการดำรงอยู่ที่เกิดจาก AI ขั้นสูงในการประชุมสุดยอดด้านความปลอดภัยด้าน AI ของ Rishi Sunak รัฐมนตรีกระทรวงการคลังของสหราชอาณาจักร
เมื่อสัปดาห์ที่แล้วที่ปักกิ่ง ผู้เชี่ยวชาญได้หารือเกี่ยวกับภัยคุกคามที่เกี่ยวข้องกับการพัฒนา “ปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence – AGI)” หรือระบบ AI ที่เท่าเทียมหรือเหนือกว่ามนุษย์
“ประเด็นสำคัญของการอภิปรายครั้งนี้คือเส้นแบ่งที่ระบบ AI ที่มีประสิทธิภาพไม่ควรก้าวข้าม และรัฐบาลทั่วโลกควรบังคับใช้ในการพัฒนาและการใช้งาน AI” Bengio กล่าว
เส้นสีแดงเหล่านี้จะทำให้แน่ใจได้ว่า “ไม่มีระบบ AI ใดที่สามารถจำลองหรือปรับปรุงตัวเองได้หากปราศจากการอนุมัติและการสนับสนุนจากมนุษย์อย่างชัดเจน” หรือ “ดำเนินการใดๆ ที่จะเพิ่มพลังและอิทธิพลของมันอย่างไม่สมควร”
นักวิทยาศาสตร์ยังกล่าวเสริมด้วยว่าไม่มีระบบใดที่จะ "เพิ่มความสามารถของผู้มีส่วนเกี่ยวข้องในการออกแบบอาวุธทำลายล้างสูง ละเมิดอนุสัญญาอาวุธชีวภาพหรืออาวุธเคมี" หรือสามารถ "โจมตีทางไซเบอร์โดยอัตโนมัติที่ส่งผลให้เกิดความสูญเสียทางการเงินอย่างร้ายแรงหรืออันตรายที่เทียบเท่า" ได้อย่างมีนัยสำคัญ
ฮวงไห่ (ตามรายงานของ FT)
แหล่งที่มา
การแสดงความคิดเห็น (0)