Muchas de las herramientas de inteligencia artificial (IA) más populares del mundo funcionan con programas con prejuicios contra las mujeres, desarrollados por empresas como OpenAI y Meta. Así lo revela un nuevo estudio anunciado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) el 7 de marzo.
Las empresas más grandes en la carrera de la IA ahora están utilizando cantidades masivas de datos de Internet para entrenar algoritmos, conocidos como modelos de lenguaje grande (LLM). La UNESCO probó el algoritmo Llama 2 de Meta y los GPT-2 y GPT-3.5 de OpenAI utilizados en la popular aplicación de chat ChatGPT. Los resultados de las pruebas mostraron que cada uno de estos algoritmos mostraba evidencia clara de sesgo contra las mujeres.
Los resultados mostraron que los textos relacionados con nombres femeninos generados por estas herramientas a menudo contenían palabras como “hogar”, “familia” o “hijos”, mientras que los textos relacionados con nombres masculinos a menudo contenían palabras como “negocio”, “salario” o “carrera”; A menudo se representa a los hombres con trabajos como profesores, abogados, médicos; A las mujeres se las asocia a menudo con trabajos como cocinar, tareas del hogar, etc.
HACER CAO
[anuncio_2]
Fuente
Kommentar (0)