ส.ก.พ.
หลังจากที่ยุโรปเริ่มร่างและประกาศใช้กฎหมายว่าด้วยปัญญาประดิษฐ์ (AI) ฉบับแรกของโลกในไม่ช้านี้ “ยักษ์ใหญ่” ด้านการขุดข้อมูลทางอินเทอร์เน็ต 4 อันดับแรกของสหรัฐฯ ก็เพิ่งเปิดตัวกลุ่มที่เรียกว่า Frontier Model Forum
เป้าหมายหลักของ Frontier Model Forum คือการพัฒนา AI อย่างมีความรับผิดชอบ ภาพ: THINKWITHNICHE |
ฝ่ายต่างๆมารวมตัวกัน
กลุ่มดังกล่าว ซึ่งประกอบด้วย Anthropic, Google, Microsoft และ OpenAI ซึ่งเป็นเจ้าของ ChatGPT กล่าวว่าเป้าหมายหลักของ Frontier Model Forum คือการช่วยลดความเสี่ยงที่เกิดจากแพลตฟอร์ม AI และพัฒนามาตรฐานอุตสาหกรรม Frontier Model Forum จะสร้างฟอรัมใหม่ที่มีเป้าหมายหลัก เช่น ส่งเสริมการวิจัย AI ที่ปลอดภัยเพื่อสนับสนุนการพัฒนา ลดความเสี่ยง และทำให้การประเมินและระดับความปลอดภัยเป็นมาตรฐาน ระบุแนวทางปฏิบัติที่ดีที่สุดในการพัฒนาและใช้งานโมเดล ช่วยให้สาธารณชนเข้าใจถึงธรรมชาติ ความสามารถ ข้อจำกัด และผลกระทบของเทคโนโลยี ร่วมมือกับผู้กำหนดนโยบาย นักวิชาการ ภาคประชาสังคม และบริษัทต่างๆ เพื่อแบ่งปันความรู้เกี่ยวกับความเสี่ยงและความปลอดภัย
ยักษ์ใหญ่ด้านเทคโนโลยีมีแนวโน้มที่จะต่อต้านการควบคุมที่เข้มงวดยิ่งขึ้น อย่างไรก็ตาม ในครั้งนี้ มุมมองทั่วไปของอุตสาหกรรมเทคโนโลยีมีการเปลี่ยนแปลงไปมาก เมื่อเผชิญกับความกังวลอย่างมากเกี่ยวกับความเสี่ยงที่ AI สามารถนำมาให้ บริษัทต่างๆ ที่เข้าร่วมในโครงการ Frontier Model Forum มุ่งมั่นที่จะแบ่งปันแนวทางปฏิบัติที่ดีที่สุดระหว่างบริษัทต่างๆ และแบ่งปันข้อมูลอย่างเปิดเผยกับรัฐบาลและสังคมพลเมือง
โดยเฉพาะอย่างยิ่ง Frontier Model Forum จะมุ่งเน้นไปที่แพลตฟอร์มการเรียนรู้ของเครื่องจักรขนาดใหญ่แต่ยังอยู่ในช่วงเริ่มต้นซึ่งจะพา AI ไปสู่อีกระดับของความซับซ้อน และอาจมีความเสี่ยงด้วย นอกจากนี้ Frontier Model Forum ยังสนับสนุนการพัฒนาแอปพลิเคชันที่ช่วยแก้ไขปัญหาท้าทายทางสังคมที่สำคัญ เช่น การบรรเทาและปรับตัวจากการเปลี่ยนแปลงสภาพภูมิอากาศ การตรวจจับและป้องกันมะเร็งในระยะเริ่มต้น และการต่อต้านภัยคุกคามทางไซเบอร์
มีห้องสำหรับการทำลายล้างที่อาจเกิดขึ้น
การประกาศจัดตั้ง Frontier Model Forum โดยบริษัทต่างๆ ของสหรัฐฯ เกิดขึ้นไม่กี่วันหลังจากที่เมื่อวันที่ 25 กรกฎาคม วุฒิสมาชิกสหรัฐฯ ออกมาเตือนเกี่ยวกับความเสี่ยงที่ AI จะถูกนำไปใช้ในการโจมตีทางชีวภาพในระหว่างการพิจารณาคดีต่อหน้าคณะอนุกรรมการของคณะกรรมการตุลาการของวุฒิสภาสหรัฐฯ ล่าสุดบริษัทเทคโนโลยียักษ์ใหญ่ 7 แห่ง รวมถึง OpenAI, Alphabet และ Meta ได้ตกลงสมัครใจที่จะร่วมมือกับทำเนียบขาวในการพัฒนาระบบสำหรับระบุเนื้อหาทั้งหมดตั้งแต่ข้อความ รูปภาพ เสียง ไปจนถึงวิดีโอที่สร้างขึ้นโดย AI เพื่อให้ผู้ใช้มีข้อมูลที่ชัดเจน เพื่อให้แน่ใจว่าเทคโนโลยีนี้ปลอดภัยยิ่งขึ้น
Dario Amodei ซีอีโอของ AI Anthropic กล่าวว่าแม้ว่า AI จะยังไม่สามารถช่วยสร้างอาวุธชีวภาพได้ แต่ก็ถือเป็นความเสี่ยงใน “ระยะกลาง” และถือเป็นภัยคุกคามร้ายแรงต่อความมั่นคงแห่งชาติของสหรัฐฯ ในอีกสองถึงสามปีข้างหน้า สาเหตุก็คือ ผู้ที่ก่อเหตุโจมตีด้วยอาวุธชีวภาพในวงกว้างนั้น ไม่ได้จำกัดอยู่แค่ผู้ที่มีความรู้เฉพาะทางในเรื่องนี้เท่านั้น
โลกกำลังเผชิญกับการระเบิดของเนื้อหาที่ถูกสร้างขึ้นด้วยเทคโนโลยี AI สร้างสรรค์ ตั้งแต่สหรัฐอเมริกา ยุโรป ไปจนถึงเอเชีย การควบคุมค่อยๆ เข้มงวดมากขึ้น ตั้งแต่เดือนกันยายนเป็นต้นไป วุฒิสภาสหรัฐจะจัดเวิร์กช็อปเพิ่มเติมอีก 9 ครั้งเพื่อให้สมาชิกได้เรียนรู้ว่า AI จะส่งผลต่อการจ้างงาน ความมั่นคงของชาติ และทรัพย์สินทางปัญญาอย่างไร ตามที่ CNN รายงาน หากบรรลุข้อตกลงกันได้ สหภาพยุโรปจะมีกฎหมายเกี่ยวกับการจัดการ AI ฉบับแรกของโลกในปีหน้า คาดว่าจะมีผลบังคับใช้ตั้งแต่ปี 2569
ประโยชน์ที่ AI นำมาสู่สังคมนั้นไม่อาจปฏิเสธได้ แต่ก็มีคำเตือนมากขึ้นเรื่อยๆ เกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีใหม่นี้ ในเดือนมิถุนายน อันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ สนับสนุนข้อเสนอของผู้บริหารด้าน AI หลายคนในการจัดตั้งหน่วยงานเฝ้าระวัง AI ระดับนานาชาติ เช่นเดียวกับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA)
เมื่อกลับมาที่ Frontier Model Forum ประธานของ Microsoft แบรด สมิธ ยืนยันว่าแผนริเริ่มนี้ถือเป็นก้าวสำคัญที่บริษัทด้านเทคโนโลยีต่างๆ จะต้องร่วมมือกันส่งเสริมการใช้งาน AI อย่างมีความรับผิดชอบ เพื่อนำประโยชน์มาสู่มนุษยชาติทุกคน ในทำนองเดียวกัน แอนนา มาคานจู รองประธานฝ่ายกิจการระดับโลกของ OpenAI ยืนยันว่าเทคโนโลยี AI ขั้นสูงมีศักยภาพที่จะสร้างประโยชน์อันล้ำลึกให้กับสังคม และสิ่งนี้ต้องอาศัยการกำกับดูแลและการกำกับดูแล
แหล่งที่มา
การแสดงความคิดเห็น (0)