การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ทำให้เกิดความกังวลว่าปัญญาประดิษฐ์จะพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจผลกระทบของมันได้
ภาพ : สท.
การใช้ AI ทั่วไปเพิ่มขึ้นอย่างมีนัยสำคัญหลังจากการเกิดขึ้นของเครื่องมือเช่น ChatGPT แม้ว่าเครื่องมือเหล่านี้จะมีประโยชน์มากมาย แต่ก็อาจถูกนำไปใช้อย่างผิดวิธีและสร้างความเสียหายได้เช่นกัน
เพื่อจัดการความเสี่ยงนี้ สหรัฐอเมริกาและประเทศอื่นๆ อีกหลายประเทศได้ทำข้อตกลงกับบริษัทเจ็ดแห่ง ได้แก่ Amazon, Anthropic, Google, Inflection, Meta, Microsoft และ OpenAI เพื่อมุ่งมั่นในการปฏิบัติที่ปลอดภัยในการพัฒนาเทคโนโลยี AI
ประกาศของทำเนียบขาวมีศัพท์เฉพาะของตัวเองที่คนทั่วไปอาจไม่คุ้นเคย เช่น คำต่างๆ เช่น “ทีมแดง” และ “ลายน้ำ” นี่คือเจ็ดคำศัพท์ที่เกี่ยวข้องกับ AI ที่ควรระวัง
การเรียนรู้ของเครื่องจักร
สาขาของ AI นี้มีจุดมุ่งหมายเพื่อฝึกเครื่องจักรให้ทำงานเฉพาะอย่างแม่นยำโดยการระบุรูปแบบ จากนั้นเครื่องจักรก็สามารถทำนายผลตามข้อมูลเหล่านั้นได้
การเรียนรู้เชิงลึก
งาน AI ที่สร้างสรรค์มักอาศัยการเรียนรู้เชิงลึก ซึ่งเป็นวิธีการที่เกี่ยวข้องกับการฝึกคอมพิวเตอร์โดยใช้เครือข่ายประสาท ชุดอัลกอริทึมที่ออกแบบมาเพื่อเลียนแบบเซลล์ประสาทในสมองมนุษย์ เพื่อสร้างความเชื่อมโยงที่ซับซ้อนระหว่างรูปแบบต่างๆ เพื่อสร้างข้อความ รูปภาพ หรือเนื้อหาอื่นๆ
เนื่องจากโมเดลการเรียนรู้เชิงลึกมีเซลล์ประสาทหลายชั้น จึงสามารถเรียนรู้รูปแบบที่ซับซ้อนได้มากกว่าการเรียนรู้ของเครื่องจักรแบบดั้งเดิม
แบบจำลองภาษาขนาดใหญ่
โมเดลภาษาขนาดใหญ่หรือ LLM ได้รับการฝึกอบรมด้วยข้อมูลจำนวนมหาศาลและมีจุดมุ่งหมายเพื่อสร้างแบบจำลองภาษาหรือคาดการณ์คำถัดไปในลำดับ โมเดลภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard สามารถใช้สำหรับงานต่างๆ รวมถึงการสรุป การแปล และการสนทนา
อัลกอริทึม
ชุดคำสั่งหรือกฎที่ช่วยให้เครื่องจักรทำนาย แก้ไขปัญหา หรือทำงานให้สำเร็จได้ อัลกอริทึมสามารถให้คำแนะนำในการช้อปปิ้งและช่วยเหลือในการตรวจจับการฉ้อโกง รวมถึงฟังก์ชันการแชทบริการลูกค้า
อคติ
เนื่องจาก AI ได้รับการฝึกด้วยชุดข้อมูลขนาดใหญ่ จึงสามารถรวมข้อมูลที่เป็นอันตราย เช่น คำพูดที่แสดงความเกลียดชัง ไว้ในข้อมูลได้ การเหยียดเชื้อชาติและการเหยียดเพศอาจปรากฏในชุดข้อมูลที่ใช้ในการฝึก AI ซึ่งนำไปสู่เนื้อหาที่มีความลำเอียง
บริษัท AI ตกลงที่จะเจาะลึกมากขึ้นถึงวิธีหลีกเลี่ยงอคติและการเลือกปฏิบัติที่เป็นอันตรายในระบบ AI
การรวมทีมสีแดง
หนึ่งในพันธกรณีที่บริษัทต่างๆ ได้ให้ไว้กับทำเนียบขาวคือการดำเนินการ "ทีมแดง" ทั้งภายในและภายนอกโมเดลและระบบ AI
“การทำงานเป็นทีมสีแดง” เกี่ยวข้องกับการทดสอบโมเดลเพื่อค้นหาอันตรายที่อาจเกิดขึ้น คำนี้มาจากการฝึกทางทหาร โดยที่ทีมจะจำลองการกระทำของผู้โจมตีเพื่อคิดกลยุทธ์
วิธีนี้ใช้กันอย่างแพร่หลายในการทดสอบช่องโหว่ด้านความปลอดภัยในระบบ เช่น แพลตฟอร์มคลาวด์คอมพิวติ้งจากบริษัทต่างๆ เช่น Microsoft และ Google
ลายน้ำ
ลายน้ำเป็นวิธีหนึ่งในการทราบว่าเสียงหรือภาพนั้นสร้างขึ้นโดย AI หรือไม่ ข้อเท็จจริงที่รวบรวมไว้เพื่อการตรวจสอบอาจรวมถึงข้อมูลเกี่ยวกับใครเป็นผู้สร้าง ตลอดจนวิธีและเวลาที่สร้างหรือแก้ไข
ตัวอย่างเช่น Microsoft ได้ให้คำมั่นว่าจะใส่ลายน้ำให้กับภาพที่สร้างขึ้นโดยเครื่องมือ AI บริษัทต่างๆ ยังได้ให้คำมั่นกับทำเนียบขาวว่าจะ "ใส่ลายน้ำ" ในภาพหรือบันทึกแหล่งที่มาของภาพ... เพื่อระบุว่าภาพดังกล่าวเป็นภาพที่สร้างโดย AI
ลายน้ำมักใช้เพื่อติดตามการละเมิดทรัพย์สินทางปัญญา ลายน้ำสำหรับรูปภาพที่สร้างโดย AI อาจปรากฏเป็นสัญญาณรบกวนที่รับรู้ไม่ได้ เช่น การเปลี่ยนแปลงเพียงเล็กน้อยทุกๆ 7 พิกเซล
อย่างไรก็ตาม การใส่ลายน้ำลงในข้อความที่สร้างโดย AI อาจซับซ้อนมากกว่า และอาจต้องมีการปรับแต่งเทมเพลตคำ เพื่อให้สามารถระบุได้ว่าเป็นเนื้อหาที่สร้างโดย AI
ฮวง ตัน (ตามรายงานของพอยน์เตอร์)
แหล่งที่มา
การแสดงความคิดเห็น (0)