ในช่วงไม่กี่เดือนที่ผ่านมา ผู้เชี่ยวชาญด้านความปลอดภัยของเด็กและนักวิจัยได้ออกมาเตือนถึงความเสี่ยงที่ AI เทียมอาจทำให้เกิดการละเมิดทางออนไลน์รุนแรงขึ้น
มาร์ก ซักเคอร์เบิร์ก ซีอีโอของบริษัท Meta พูดในงานพิจารณาคดีของคณะกรรมการตุลาการของวุฒิสภาสหรัฐฯ เมื่อวันที่ 31 มกราคม 2024 ต่อหน้าผู้เข้าร่วมงานจำนวนมากที่ถือรูปภาพที่สร้างด้วย AI ภาพ : รอยเตอร์ส
NCMEC ยังไม่ได้เปิดเผยจำนวนรายงานเนื้อหาการล่วงละเมิดเด็กทั้งหมดจากทุกแหล่งที่ได้รับในปี 2023 แต่ในปี 2022 NCMEC ได้รับรายงานเกี่ยวกับปัญหาดังกล่าวประมาณ 88.3 ล้านไฟล์
“เรากำลังได้รับรายงานจากบริษัท AI เชิงนวัตกรรมเอง แพลตฟอร์ม (ออนไลน์) และประชาชนทั่วไป” จอห์น เชฮาน รองประธาน NCMEC กล่าว
ซีอีโอของ Meta, X, TikTok, Snap และ Discord ให้การเป็นพยานในงานพิจารณาคดีของวุฒิสภาสหรัฐฯ เมื่อวันพุธ (31 มกราคม) เกี่ยวกับความปลอดภัยของเด็กบนแพลตฟอร์มออนไลน์ สมาชิกรัฐสภาสหรัฐฯ ตั้งคำถามต่อบริษัทโซเชียลมีเดียเกี่ยวกับความพยายามในการปกป้องเด็กจาก “ผู้ล่าทางออนไลน์”
นักวิจัยจาก Stanford Internet Observatory กล่าวในรายงานเมื่อเดือนมิถุนายนปีที่แล้วว่า ผู้ไม่หวังดีอาจนำ AI เชิงสร้างสรรค์มาใช้เพื่อทำร้ายเด็กๆ ในชีวิตจริงซ้ำแล้วซ้ำเล่าด้วยการสร้างภาพปลอมๆ ของพวกเขาขึ้นมา
ฟอลลอน แมคนัลตี้ ผู้อำนวยการ CyberTipline ของ NCMEC ซึ่งรับรายงานการแสวงประโยชน์จากเด็กทางออนไลน์ กล่าวว่า เนื้อหาที่สร้างโดย AI กำลังมีความ “สมจริงมากขึ้นเรื่อยๆ” ทำให้ยากต่อการระบุว่าเหยื่อเป็นคนจริงหรือไม่
OpenAI บริษัทที่สร้าง ChatGPT ได้กำหนดกระบวนการสำหรับการส่งรายงานไปยัง NCMEC และองค์กรกำลังอยู่ระหว่างการเจรจากับบริษัท AI แห่งอื่นๆ McNulty กล่าว
ฮวงไห่ (ตามรายงานของรอยเตอร์และเอฟที)
แหล่งที่มา
การแสดงความคิดเห็น (0)