Wir leben im Zeitalter der industriellen Revolution 4.0, in der künstliche Intelligenz (KI) aus vielen Bereichen des gesellschaftlichen Lebens zunehmend nicht mehr wegzudenken ist. Als Informationsbrücke zwischen der Öffentlichkeit und dem Geschehen können sich die Medien dieser Entwicklung nicht entziehen.
Frau Nguyen Thi Hai Van – Direktorin des Zentrums für Journalistenausbildung, Vietnamesische Journalistenvereinigung beim Workshop zur KI-Technologie. (Quelle: Vietnamesischer Journalistenverband) |
Um die Vorteile der KI optimal zu nutzen, müssen sich Kommunikatoren das Wissen aneignen, um KI effektiv einzusetzen und gleichzeitig Zuverlässigkeit und Ethik bei der Informationsübermittlung sicherzustellen.
Von der „Hitze“ der KI
Es ist völlig klar, dass KI (Künstliche Intelligenz) heute eines der heißesten Schlagworte ist. Im September 2024 lieferte eine Google-Suche nach dem Stichwort „KI“ in 0,3 Sekunden 15 Milliarden, 900 Millionen Ergebnisse; Mit dem Keyword „KI-Tools“ wurden in 0,4 Sekunden über 3 Milliarden 400 Millionen Ergebnisse erfasst. Die enormen Zahlen sprechen für den Grad der Abdeckung und des Interesses an KI und KI-basierten Tools weltweit.
Heutzutage tauchen immer mehr KI-Tools für verschiedene Bereiche auf, darunter auch die Medienbranche. Neben dem weithin bekannten ChatGPT gibt es viele KI-Anwendungen, die in eine spezielle Richtung entwickelt wurden und spezielle Aufgaben erfüllen. Es ist nicht schwer, hier viele Tools aufzulisten, zum Beispiel: Bing AI, Clause, Zapier Central für Chatbot-Aufgabengruppen; Jasper, Copy.ai, Anyword für Aufgaben zur Inhaltserstellung; Descript, Wondershare, Runway für Videoproduktions- und Bearbeitungsaufgaben; DALL-E3, Midjourney, stabile Diffusion für kreative Bildaufgaben; Murf, AIVA für Audioinhaltsaufgaben usw. und erst kürzlich stellte auch der Riese Amazon die von ihm entwickelten KI-Tools Video Generator und Image Generator vor, mit dem Ziel, „Kreativität anzuregen und Mehrwert zu schaffen“.
Obwohl sich KI-Tools in Bezug auf Umfang und Spezialisierungsgrad stark unterscheiden, weist die Technologie im Wesentlichen zwei Gemeinsamkeiten auf: KI-Tools werden auf der Grundlage von Algorithmen und Daten entwickelt, um das KI-Tool zu „trainieren“.
Ethische Kontrolle des KI-Einsatzes in den Medien
Der Komfort, den KI-Tools bieten, lässt sich nicht leugnen. Und angesichts der rasanten technologischen Entwicklungen wird es in der Medienbranche immer mehr spezialisierte KI-Tools geben, die einfache bis komplexe Aufgaben bewältigen können. Neben dieser überwältigenden Entwicklung stellen sich viele Fragen hinsichtlich der ethischen Kontrolle bei der Entwicklung und Nutzung von KI-Tools in der Medienbranche. Was passiert, wenn der Algorithmus und die Daten dieses KI-Tools auf eine Weise manipuliert werden, die der Gemeinschaft schadet? Wem gehören die geistigen Eigentumsrechte an den Eingabedaten, die das KI-Tool zum Training nutzt? Wer beurteilt das Ausmaß der Schädlichkeit?
Existiert eine Ungleichheit zwischen der Gruppe der Personen, die für dieselbe Aufgabe Zugriff auf KI-Tools haben, und der Gruppe, die keinen Zugriff auf diese Tools hat? Es wurden sogar Fragen zum Potenzial unkontrollierter Schäden durch KI-Tools geäußert, insbesondere in sensiblen Bereichen wie Medien und sozialen Netzwerken, die viele Menschen in großem Umfang betreffen können.
Viele Organisationen, Verbände, Regierungen und sogar Unternehmen und Konzerne, die KI-Tools entwickeln, sind sich der oben genannten Bedenken bewusst und haben Empfehlungen, erläuternde Informationen und, noch wichtiger, Verhaltenskodizes zum Thema ethische Kontrolle der KI-Technologie herausgegeben. Die Erklärung zur Ethik der künstlichen Intelligenz der UNESCO (Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur) wurde 2021 von 193 Ländern angenommen. In der Empfehlung heißt es: „Der rasante Aufstieg der künstlichen Intelligenz (KI) hat weltweit zahlreiche Möglichkeiten geschaffen, von der Unterstützung bei Diagnosen im Gesundheitswesen über die Ermöglichung menschlicher Kontakte durch soziale Medien bis hin zur Steigerung der Arbeitseffizienz durch die Automatisierung von Aufgaben.
Diese schnellen Veränderungen werfen jedoch auch tiefgreifende ethische Bedenken auf. Die mit der KI verbundenen Risiken haben begonnen, bestehende Ungleichheiten zu verschärfen und bereits benachteiligten Gruppen weiteren Schaden zuzufügen…“. Und von dort aus „fordern wir die UNESCO auf, Instrumente zur Unterstützung der Mitgliedsstaaten zu entwickeln, darunter die Readiness Assessment Methodology, ein Instrument für Regierungen, um sich ein umfassendes Bild von ihrer Bereitschaft zu machen, KI ethisch und verantwortungsvoll für alle ihre Bürger einzusetzen.“
Im Rahmen ihres globalen Ansatzes hat die UNESCO das Global AI Ethics and Governance Observatory ins Leben gerufen, das ihrer Aussage nach „Informationen über die Bereitschaft der Länder liefert, KI ethisch und verantwortungsvoll einzuführen.“ Die Initiative beherbergt auch das AI Ethics and Governance Lab, das Beiträge, wirkungsvolle Forschung, Toolkits und aktive Praktiken zu einem breiten Spektrum ethischer KI-Probleme zusammenbringt …“
Neben globalen Organisationen wie der UNESCO arbeiten auch viele Berufsverbände an der Entwicklung eigener Verhaltenskodizes. So hat etwa die IABC – International Association of Business Communications, ein Verband mit Tausenden von Mitgliedern aus der ganzen Welt, die „Guidelines for the Ethical Use of AI by Communications Professionals“ (Richtlinien für die ethische Nutzung von KI durch Kommunikationsfachleute) herausgegeben, die den IABC-Mitgliedern die Relevanz des IABC-Ethikkodex für KI aufzeigen sollen. Diese Richtlinien können im Laufe der Zeit mit der Weiterentwicklung der KI-Technologie aktualisiert und ergänzt werden. Dieser Verhaltenskodex enthält zahlreiche konkrete Punkte, an die sich ein Kommunikationsprofi halten sollte, beispielsweise:
„Die eingesetzten KI-Ressourcen müssen vom Menschen gesteuert werden, um positive und transparente Erfahrungen zu schaffen, die Respekt einflößen und Vertrauen in den Medienberuf aufbauen. Es ist wichtig, über die Karrierechancen und Risiken, die KI-Tools mit sich bringen, auf dem Laufenden zu bleiben. Es ist notwendig, Informationen genau, objektiv und fair zu kommunizieren. KI-Tools können unter zahlreichen Fehlern, Inkonsistenzen und anderen technischen Problemen leiden. Dies erfordert menschliches Urteilsvermögen, um unabhängig zu überprüfen, ob meine KI-generierten Inhalte korrekt, transparent und frei von Plagiaten sind.
Schützen Sie die persönlichen und/oder vertraulichen Informationen anderer und verwenden Sie diese Informationen nicht ohne deren Erlaubnis. Bewerten Sie Ihre KI-Ergebnisse auf der Grundlage des menschlichen Engagements und des Verständnisses der Community, die Sie bedienen möchten. Beseitigen Sie Vorurteile nach besten Kräften und gehen Sie sensibel mit den kulturellen Werten und Überzeugungen anderer um.
Sie müssen ihre Ergebnisse persönlich und mit der erforderlichen professionellen Genauigkeit auf ihren Wahrheitsgehalt prüfen und verifizieren, um sicherzustellen, dass Materialien, Informationen oder Referenzen Dritter richtig sind, über die erforderlichen Zuordnungen und Verifizierungen verfügen und für die Nutzung vollständig lizenziert oder autorisiert sind. Versuchen Sie nicht, den Einsatz von KI in Ihrer beruflichen Leistung zu verbergen oder zu verschleiern. Erkennen Sie den Open-Source-Charakter der KI und die damit verbundenen Sicherheitsbedenken, einschließlich der Eingabe falscher, irreführender oder täuschender Informationen ...
Unternehmen und Konzerne, die KI-Tools besitzen, entwickeln und vertreiben, sind diejenigen, die sich mit den Besonderheiten von KI-Tools besser auskennen als jeder andere. Sie kennen die zugrunde liegenden Algorithmen, mit denen KI-Tools arbeiten, und die Daten, mit denen KI-Tools trainiert werden. Daher müssen diese Unternehmen auch Informationen zu ethischen Grundsätzen in der KI-Entwicklung bereitstellen. Tatsächlich gibt es Unternehmen, die sich für dieses Thema interessieren.
Google hat sich verpflichtet, keine KI-Tools für Bereiche zu entwickeln, in denen ein erhebliches Schadensrisiko besteht, und wird nur dann fortfahren, wenn wir davon ausgehen, dass der Nutzen die Risiken deutlich überwiegt, und entsprechende Sicherheitsbeschränkungen einbeziehen. Waffen oder andere Technologien, deren Hauptzweck oder Einsatz darin besteht, menschliche Verletzungen zu verursachen oder unmittelbar zu ermöglichen. Technologien, die Informationen zur Überwachung sammeln oder verwenden, verstoßen gegen international anerkannte Normen. Technologien, die allgemein anerkannte Prinzipien des Völkerrechts und der Menschenrechte verletzen.
In Bezug auf Sicherheit und Schutz verspricht Google: „Wir werden weiterhin robuste Sicherheitsmaßnahmen entwickeln und implementieren, um unbeabsichtigte Ergebnisse zu vermeiden, die Schadensrisiken verursachen.“ Wir werden unsere KI-Systeme entsprechend vorsichtig gestalten und versuchen, sie im Einklang mit den Best Practices der KI-Sicherheitsforschung zu entwickeln. Wir werden unsere Datenschutzgrundsätze in die Entwicklung und Nutzung unserer KI-Technologien integrieren. Wir werden Möglichkeiten zur Benachrichtigung und Zustimmung schaffen, Architekturen fördern, die die Privatsphäre schützen, und für angemessene Transparenz und Kontrolle hinsichtlich der Datennutzung sorgen.“
Ähnlich wie Google hat auch Microsoft eine Erklärung zu seinen KI-Prinzipien und -Ansätzen abgegeben und darin betont: „Wir setzen uns dafür ein, dass KI-Systeme verantwortungsvoll und auf eine Weise entwickelt werden, die das Vertrauen der Menschen sicherstellt …“. Darüber hinaus haben auch große Technologieunternehmen wie Amazon und OpenAI, die massiv in die Entwicklung von KI-Tools investieren, auf die eine oder andere Weise eigene Verpflichtungen eingegangen.
Viele Beispiele aus der Geschichte haben die Zweiseitigkeit der Technologie bewiesen: Sie ist sowohl von positiven als auch von negativen Elementen begleitet. Denn auch wenn es sich bei KI um eine hochtechnologische Technologieplattform handelt, basiert sie immer noch auf von Menschen entwickelten und gesammelten Algorithmen und Daten. Gleichzeitig sind die meisten KI-Produkte Teil der Geschäftspläne der Unternehmen, denen sie gehören.
Daher bestehen immer potenzielle Risiken sowohl auf technischer Seite als auch seitens des Produktentwicklungs- und Managementteams. Das Problem hierbei ist der potenziell enorme Einfluss, den KI-Tools auf die Massen haben können, sogar auf der sozioökonomischen Ebene einer Gemeinschaft. Die rechtzeitige Beachtung ethischer Kontrollen beim Einsatz von KI-Technologie unter Beteiligung großer internationaler Organisationen wie den Vereinten Nationen, Regierungen, Industrieverbänden und vor allem der Technologieentwicklungseinheiten selbst ist ein willkommenes Zeichen.
Doch ebenso wie die Liste der KI-Tools ständig neue Versionen herausbringt, von denen jede ausgefeilter und komplexer ist als die vorherige, müssen auch die Codes, Grundsätze oder Richtlinien zeitnah aktualisiert und ergänzt werden. Darüber hinaus müssen sie proaktiv sein, um Produktentwicklungseinheiten und Benutzer in einem Rahmen zu verhindern, einzuschränken und zu kontrollieren, in dem die Fähigkeit zur Einhaltung der ethischen Kontrolle in der KI-Technologie im Allgemeinen und bei Medienschaffenden im Besonderen die höchste Effizienz erreichen kann.
[Anzeige_2]
Quelle
Kommentar (0)