UNESCO: KI-Tools sind voreingenommen gegenüber Frauen

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng08/03/2024

[Anzeige_1]

Viele der weltweit beliebtesten Tools für künstliche Intelligenz (KI) basieren auf frauenfeindlichen Programmen, die von Unternehmen wie OpenAI und Meta entwickelt wurden. Dies ist das Ergebnis einer neuen Studie, die die Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) am 7. März bekannt gab.

Die größten Unternehmen im KI-Rennen nutzen mittlerweile riesige Datenmengen aus dem Internet, um Algorithmen zu trainieren, sogenannte Large Language Models (LLMs). Die UNESCO testete den Llama 2-Algorithmus von Meta und die GPT-2- und GPT-3.5-Algorithmen von OpenAI, die in der beliebten Chat-App ChatGPT verwendet werden. Die Testergebnisse zeigten, dass jeder dieser Algorithmen klare Anzeichen einer Voreingenommenheit gegenüber Frauen aufwies.

Die Ergebnisse zeigten, dass die von diesen Tools generierten Texte zu weiblichen Namen oft Wörter wie „Zuhause“, „Familie“ oder „Kinder“ enthielten, während die Texte zu männlichen Namen oft Wörter wie „Geschäft“, „Gehalt“ oder „Karriere“ enthielten; Männer werden oft in Berufen wie Lehrer, Anwälte oder Ärzte dargestellt; Frauen werden oft mit Aufgaben wie Kochen, Hausarbeit usw. in Verbindung gebracht.

Mach das


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Gleicher Autor

No videos available