Viele der weltweit beliebtesten Tools für künstliche Intelligenz (KI) basieren auf frauenfeindlichen Programmen, die von Unternehmen wie OpenAI und Meta entwickelt wurden. Dies ist das Ergebnis einer neuen Studie, die die Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) am 7. März bekannt gab.
Die größten Unternehmen im KI-Rennen nutzen mittlerweile riesige Datenmengen aus dem Internet, um Algorithmen zu trainieren, sogenannte Large Language Models (LLMs). Die UNESCO testete den Llama 2-Algorithmus von Meta und die GPT-2- und GPT-3.5-Algorithmen von OpenAI, die in der beliebten Chat-App ChatGPT verwendet werden. Die Testergebnisse zeigten, dass jeder dieser Algorithmen klare Anzeichen einer Voreingenommenheit gegenüber Frauen aufwies.
Die Ergebnisse zeigten, dass die von diesen Tools generierten Texte zu weiblichen Namen oft Wörter wie „Zuhause“, „Familie“ oder „Kinder“ enthielten, während die Texte zu männlichen Namen oft Wörter wie „Geschäft“, „Gehalt“ oder „Karriere“ enthielten; Männer werden oft in Berufen wie Lehrer, Anwälte oder Ärzte dargestellt; Frauen werden oft mit Aufgaben wie Kochen, Hausarbeit usw. in Verbindung gebracht.
Mach das
[Anzeige_2]
Quelle
Kommentar (0)