En los últimos meses, expertos e investigadores en seguridad infantil han advertido sobre el potencial de la IA creativa para agravar el abuso en línea.
El director ejecutivo de Meta, Mark Zuckerberg, habla en una audiencia del Comité Judicial del Senado de Estados Unidos el 31 de enero de 2024, frente a una multitud de asistentes que portaban imágenes generadas por IA. Foto: Reuters
El NCMEC aún no ha publicado el número total de informes de contenido de abuso infantil de todas las fuentes que recibió en 2023. Pero en 2022, recibió informes de alrededor de 88,3 millones de archivos sobre el problema.
“Estamos recibiendo informes de las propias empresas de inteligencia artificial innovadoras, de plataformas (en línea) y del público”, dijo John Shehan, vicepresidente del NCMEC.
Los directores ejecutivos de Meta, X, TikTok, Snap y Discord testificaron en una audiencia del Senado de Estados Unidos el miércoles (31 de enero) sobre la seguridad infantil en las plataformas en línea. Los legisladores estadounidenses han cuestionado a las empresas de redes sociales sobre sus esfuerzos para proteger a los niños de los “depredadores en línea”.
La IA generativa podría ser utilizada por actores maliciosos para dañar repetidamente a niños de la vida real creando imágenes falsas de ellos, dijeron investigadores del Observatorio de Internet de Stanford en un informe del pasado mes de junio.
Fallon McNulty, director de CyberTipline del NCMEC, que recibe denuncias de explotación infantil en línea, dijo que el contenido generado por IA se está volviendo “cada vez más fotorrealista”, lo que dificulta determinar si las víctimas son personas reales.
OpenAI, la empresa que creó ChatGPT, ha establecido un proceso para enviar informes al NCMEC y la organización está en conversaciones con otras empresas de IA, dijo McNulty.
Hoang Hai (según Reuters, FT)
Fuente
Kommentar (0)