De nombreux outils d’intelligence artificielle (IA) parmi les plus populaires au monde sont alimentés par des programmes défavorables aux femmes, développés par des sociétés comme OpenAI et Meta. C'est le résultat d'une nouvelle étude annoncée par l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) le 7 mars.
Les plus grandes entreprises dans la course à l’IA utilisent désormais des quantités massives de données provenant d’Internet pour former des algorithmes, connus sous le nom de grands modèles linguistiques (LLM). L'UNESCO a testé l'algorithme Llama 2 de Meta et les algorithmes GPT-2 et GPT-3.5 d'OpenAI utilisés dans l'application de chat populaire ChatGPT. Les résultats des tests ont montré que chacun de ces algorithmes présentait des preuves évidentes de partialité à l’encontre des femmes.
Les résultats ont montré que les textes liés aux noms féminins générés par ces outils contenaient souvent des mots tels que « maison », « famille » ou « enfants », tandis que les textes liés aux noms masculins contenaient souvent des mots tels que « entreprise », « salaire » ou « carrière » ; Les hommes sont souvent représentés avec des métiers tels qu’enseignants, avocats, médecins ; Les femmes sont souvent associées à des tâches telles que la cuisine, les tâches ménagères, etc.
FAITES DU CAO
Source
Comment (0)