Wir leben im Zeitalter der Technologierevolution 4.0, in dem künstliche Intelligenz (KI) in vielen Bereichen des gesellschaftlichen Lebens allmählich zu einem unverzichtbaren Bestandteil wird. Als Informationsbrücke zwischen der Öffentlichkeit und den Ereignissen können sich die Medien diesem Trend nicht entziehen.
Frau Nguyen Thi Hai Van – Direktorin des Zentrums für Journalistenausbildung, Vietnam Journalists Association beim Workshop zur KI-Technologie. (Quelle: Vietnam Journalists Association) |
Um die Vorteile der KI optimal zu nutzen, müssen sich Kommunikatoren das nötige Wissen aneignen, um KI effektiv nutzen zu können und gleichzeitig die Zuverlässigkeit und Ethik der Informationsübermittlung sicherzustellen.
Von der „Hitze“ der KI
Es ist völlig klar, dass KI (Künstliche Intelligenz) heute eines der heißesten Schlagworte ist. Im September 2024 lieferte eine Google-Suche nach dem Schlüsselwort „KI“ in 0,3 Sekunden 15 Milliarden 900 Millionen Ergebnisse; Mit dem Schlüsselwort „KI-Tools“ wurden in 0,4 Sekunden mehr als 3 Milliarden 400 Millionen Ergebnisse erfasst. Die enormen Zahlen sprechen für den Grad der Verbreitung und des Interesses an KI und KI-basierten Tools weltweit.
Heutzutage tauchen immer mehr KI-Tools für verschiedene Bereiche auf, darunter auch für die Medienbranche. Neben dem weithin bekannten ChatGPT gibt es viele KI-Anwendungen, die in eine spezielle Richtung entwickelt wurden und spezielle Aufgaben erfüllen. Es ist nicht schwer, hier viele Tools aufzulisten, zum Beispiel: Bing AI, Clause, Zapier Central für Chatbot-Aufgabengruppen; Jasper, Copy.ai, Anyword für Aufgaben zur Inhaltserstellung; Descript, Wondershare, Runway für Videoproduktions- und Bearbeitungsaufgaben; DALL-E3, Midjourney, stabile Diffusion für kreative Bildaufgaben; Murf, AIVA für Audioinhaltsaufgaben usw. und erst kürzlich hat auch der Riese Amazon die von ihm entwickelten KI-Tools Video Generator und Image Generator vorgestellt, mit dem Ziel, „Kreativität anzuregen und mehr Wert zu schaffen“.
Obwohl sich KI-Tools hinsichtlich Umfang und Spezialisierungsgrad stark unterscheiden, hat die Technologie im Wesentlichen zwei Dinge gemeinsam: KI-Tools werden auf der Grundlage von Algorithmen und Daten entwickelt, um das KI-Tool zu „trainieren“.
Ethische Kontrolle des KI-Einsatzes in den Medien
Die Vorteile von KI-Tools sind unbestreitbar und angesichts der rasanten technologischen Entwicklungen wird es in der Medienbranche immer mehr spezialisierte KI-Tools geben, die auf einfache bis komplexe Aufgaben reagieren. Im Zuge dieser überwältigenden Entwicklung stellen sich viele Fragen hinsichtlich der ethischen Kontrolle bei der Entwicklung und Nutzung von KI-Tools in der Medienbranche. Was passiert, wenn der Algorithmus und die Daten dieses KI-Tools auf eine Weise manipuliert werden, die der Gemeinschaft schadet? Wem gehören die geistigen Eigentumsrechte an den Eingabedaten, die das KI-Tool zum Training verwendet? Wer beurteilt das Ausmaß ihres Schadens?
Gibt es eine Ungleichheit zwischen der Gruppe von Menschen, die für dieselbe Aufgabe Zugriff auf KI-Tools haben, und der Gruppe, die keinen Zugriff darauf hat? Es wurden sogar Fragen zum Potenzial unkontrollierter Schäden durch KI-Tools aufgeworfen, insbesondere in sensiblen Bereichen, die viele Menschen in großem Umfang betreffen können, wie etwa Medien und soziale Netzwerke.
Angesichts der oben genannten Bedenken haben viele Organisationen, Verbände, Regierungen und sogar Unternehmen und Konzerne, die KI-Tools entwickeln, Empfehlungen, erläuternde Informationen und, noch wichtiger, Verhaltenskodizes zum Thema der ethischen Kontrolle in der KI-Technologie herausgegeben. Die Erklärung zur Ethik der künstlichen Intelligenz der UNESCO (Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur) wurde 2021 von 193 Ländern angenommen. In der Empfehlung heißt es: „Der rasante Aufstieg der künstlichen Intelligenz (KI) hat weltweit zahlreiche Möglichkeiten geschaffen, von der Unterstützung bei Diagnosen im Gesundheitswesen über die Ermöglichung menschlicher Verbindungen durch soziale Medien bis hin zur Steigerung der Arbeitseffizienz durch die Automatisierung von Aufgaben.“
Diese schnellen Veränderungen geben jedoch auch Anlass zu tiefgreifenden ethischen Bedenken. Solche mit KI verbundenen Risiken haben begonnen, bestehende Ungleichheiten zu verschärfen und bereits benachteiligten Gruppen weiteren Schaden zuzufügen…“. Und von dort aus „fordern Sie die UNESCO auf, Instrumente zur Unterstützung der Mitgliedstaaten zu entwickeln, einschließlich der Readiness Assessment Methodology, einem Instrument, mit dem sich Regierungen ein umfassendes Bild ihrer Bereitschaft machen können, KI ethisch und verantwortungsvoll für alle ihre Bürger einzusetzen.
Im Rahmen ihres globalen Ansatzes hat die UNESCO das Global AI Ethics and Governance Observatory ins Leben gerufen. Es soll Informationen über die Bereitschaft der Länder liefern, KI ethisch und verantwortungsvoll einzusetzen. Es beherbergt außerdem das AI Ethics and Governance Lab, das Beiträge, wirkungsvolle Forschung, Toolkits und positive Praktiken zu einem breiten Spektrum ethischer Fragen der KI bündelt.
Neben globalen Organisationen wie der UNESCO arbeiten auch viele Berufsverbände an der Entwicklung eigener Verhaltenskodizes. So hat beispielsweise die IABC – International Association of Business Communications, ein Verband mit Tausenden von Mitgliedern aus der ganzen Welt, die „Guidelines for the Ethical Use of AI by Communications Professionals“ (Leitlinien für die ethische Nutzung von KI durch Kommunikationsfachleute) veröffentlicht, die den IABC-Mitgliedern die Relevanz des IABC-Ethikkodex für KI verdeutlichen sollen. Diese Richtlinien können im Laufe der Zeit im Zuge der Weiterentwicklung der KI-Technologie aktualisiert und ergänzt werden. Dieser Verhaltenskodex enthält zahlreiche konkrete Punkte, an die sich ein Kommunikationsprofi halten sollte, beispielsweise:
Die eingesetzten KI-Ressourcen müssen menschlich gesteuert werden, um positive und transparente Erfahrungen zu schaffen, die Respekt fördern und Vertrauen in die Medienbranche aufbauen. Es ist wichtig, sich über die beruflichen Chancen und Risiken von KI-Tools zu informieren. Es ist wichtig, Informationen präzise, objektiv und fair zu kommunizieren. KI-Tools können mit zahlreichen Fehlern, Inkonsistenzen und anderen technischen Problemen behaftet sein. Dies erfordert menschliches Urteilsvermögen, um unabhängig zu überprüfen, ob meine KI-generierten Inhalte korrekt, transparent und frei von Plagiaten sind.
Schützen Sie die persönlichen und/oder vertraulichen Informationen anderer und verwenden Sie diese Informationen nicht ohne deren Erlaubnis. Bewerten Sie Ihre KI-Ergebnisse auf der Grundlage des menschlichen Engagements und des Verständnisses der Community, die Sie bedienen möchten. Beseitigen Sie Vorurteile nach besten Kräften und gehen Sie sensibel mit den kulturellen Werten und Überzeugungen anderer um.
Sie müssen ihre eigenen Ergebnisse mit der erforderlichen professionellen Genauigkeit selbstständig auf ihren Wahrheitsgehalt prüfen und verifizieren, um sicherzustellen, dass Materialien, Informationen oder Referenzen Dritter richtig sind, über die erforderlichen Zuordnungen und Verifizierungen verfügen und für die Nutzung vollständig lizenziert oder autorisiert sind. Versuchen Sie nicht, den Einsatz von KI in Ihrer beruflichen Leistung zu verbergen oder zu verschleiern. Erkennen Sie den Open-Source-Charakter der KI und die damit verbundenen Sicherheitsbedenken an, einschließlich der Eingabe falscher, irreführender oder täuschender Informationen …
Für Unternehmen und Konzerne, die KI-Tools besitzen, entwickeln und vertreiben, sind sie diejenigen, die sich mit den Besonderheiten von KI-Tools besser auskennen als alle anderen. Sie kennen die zugrunde liegenden Algorithmen, auf denen KI-Tools basieren, und die Daten, mit denen KI-Tools trainiert werden. Daher müssen diese Unternehmen auch Informationen zu den ethischen Grundsätzen der KI-Entwicklung bereitstellen. Tatsächlich gibt es Unternehmen, die sich für dieses Thema interessieren.
Google verpflichtet sich, keine KI-Tools für Bereiche zu entwickeln, in denen ein erhebliches Schadensrisiko besteht, und wird nur dann fortfahren, wenn wir davon überzeugt sind, dass die Vorteile die Risiken deutlich überwiegen, und entsprechende Sicherheitsbeschränkungen einbeziehen. Waffen oder andere Technologien, deren Hauptzweck oder Einsatz darin besteht, menschliche Verletzungen zu verursachen oder direkt zu ermöglichen. Technologien, die Informationen zur Überwachung sammeln oder verwenden, verstoßen gegen international anerkannte Normen. Technologien, die darauf abzielen, allgemein anerkannte Prinzipien des Völkerrechts und der Menschenrechte zu verletzen.
Zum Thema Sicherheit und Schutz verspricht Google: „Wir werden weiterhin robuste Sicherheitsmaßnahmen entwickeln und implementieren, um unbeabsichtigte Folgen und damit verbundene Schadensrisiken zu vermeiden. Wir werden unsere KI-Systeme entsprechend vorsichtig gestalten und sie gemäß den Best Practices der KI-Sicherheitsforschung entwickeln. Wir werden unsere Datenschutzgrundsätze in die Entwicklung und Nutzung unserer KI-Technologien integrieren. Wir werden Möglichkeiten zur Benachrichtigung und Einwilligung schaffen, datenschutzfreundliche Architekturen fördern und für angemessene Transparenz und Kontrolle der Datennutzung sorgen.“
Ähnlich wie Google veröffentlichte auch Microsoft eine Erklärung zu seinen KI-Prinzipien und -Ansätzen und betonte darin: „Wir setzen uns dafür ein, dass KI-Systeme verantwortungsvoll und auf eine Weise entwickelt werden, die das Vertrauen der Menschen sicherstellt …“. Darüber hinaus haben auch große Technologieunternehmen wie Amazon und OpenAI, die massiv in die Entwicklung von KI-Tools investieren, auf die eine oder andere Weise eigene Verpflichtungen eingegangen.
Viele Beispiele aus der Geschichte haben die zweiseitige Natur der Technologie gezeigt: Sie ist sowohl mit positiven als auch mit negativen Elementen verbunden. Denn obwohl es sich bei KI um eine hochtechnologische Technologieplattform handelt, basiert sie immer noch auf Algorithmen und Daten, die von Menschen entwickelt und gesammelt werden. Gleichzeitig sind die meisten KI-Produkte Teil der Geschäftspläne der Unternehmen, denen sie gehören.
Daher bestehen immer potenzielle Risiken sowohl auf technischer Seite als auch seitens des Produktentwicklungs- und Managementteams. Das Problem hierbei ist der potenziell enorme Einfluss, den KI-Tools auf die Massen haben können, sogar auf der sozioökonomischen Ebene einer Gemeinschaft. Die rechtzeitige Beachtung ethischer Kontrollen beim Einsatz von KI-Technologie ist ein willkommenes Zeichen, an dem sich große internationale Organisationen wie die Vereinten Nationen, Regierungen, Industrieverbände und vor allem die Technologieentwicklungseinheiten beteiligen.
Doch ebenso wie die Liste der KI-Tools ständig neue Versionen herausbringt, von denen jede ausgefeilter und komplexer ist als die vorherige, müssen auch die Codes, Grundsätze oder Richtlinien zeitnah aktualisiert und ergänzt werden. Darüber hinaus müssen sie proaktiv sein, um Produktentwicklungseinheiten und Benutzer in einem Rahmen zu verhindern, einzuschränken und zu kontrollieren, in dem die Fähigkeit zur Einhaltung der ethischen Kontrolle bei der KI-Technologie im Allgemeinen und bei Medienschaffenden im Besonderen die höchste Effizienz erreichen kann.
[Anzeige_2]
Quelle
Kommentar (0)