Jeffrey McGregor, CEO von Truepic, sagte, der Vorfall sei nur die Spitze des Eisbergs. Es werde in den sozialen Medien eine Menge KI-generierter Inhalte geben, und wir seien darauf nicht vorbereitet, sagte McGregor.
Laut CNN möchte Truepic dieses Problem lösen, indem es eine Technologie bereitstellt, die Medien angeblich zum Zeitpunkt der Erstellung über Truepic Lens authentifiziert. Die Datenerfassungs-App teilt den Benutzern Datum, Uhrzeit, Ort und Gerät mit, mit dem das Bild erstellt wurde, und wendet eine digitale Signatur an, um zu überprüfen, ob das Bild natürlich oder KI-generiert ist.
Gefälschtes Foto der Pentagon-Explosion geht auf Twitter viral
Truepic, ein 2015 gegründetes und von Microsoft unterstütztes Unternehmen, sagte, dass das Unternehmen auf Interesse seitens Nichtregierungsorganisationen, Medienunternehmen und sogar Versicherern stoße, die die Rechtmäßigkeit von Ansprüchen überprüfen wollten.
McGregor sagte, dass wir angesichts der Tatsache, dass alles gefälscht werden kann und künstliche Intelligenz ihren Höhepunkt in puncto Qualität und Zugänglichkeit erreicht hat, nicht mehr wissen, was Online-Realität ist.
Technologieunternehmen wie Truepic arbeiten seit Jahren daran, Desinformation im Internet zu bekämpfen. Doch die Entwicklung einer neuen Generation von KI-Tools, die aus Benutzerbefehlen Bilder und Texte erstellen können, hat die Dringlichkeit dieser Entwicklung noch erhöht. Anfang des Jahres wurden gefälschte Bilder von Papst Franziskus in einer Daunenjacke von Balenciaga und von der Verhaftung des ehemaligen US-Präsidenten Donald Trump weit verbreitet. Beide Vorfälle haben Millionen von Menschen hinsichtlich der potenziellen Gefahren der KI verwirrt.
Einige Gesetzgeber fordern Technologieunternehmen nun auf, das Problem zu lösen, indem sie KI-generierte Inhalte kennzeichnen. Die Vizepräsidentin der Europäischen Kommission (EK), Vera Jourova, sagte, Unternehmen wie Google, Meta, Microsoft und TikTok hätten sich dem freiwilligen Verhaltenskodex der Europäischen Union (EU) zur Bekämpfung von Desinformation angeschlossen.
Eine wachsende Zahl von Start-ups und Technologiegiganten, darunter einige, die generative KI in ihre Produkte implementieren, versuchen, Standards und Lösungen einzuführen, mit denen Menschen leichter feststellen können, ob ein Bild oder Video mithilfe von KI erstellt wurde.
Da sich die KI-Technologie jedoch schneller weiterentwickelt, als der Mensch mithalten kann, ist unklar, ob diese Lösungen das Problem vollständig lösen können. Sogar OpenAI, das Unternehmen hinter Dall-E und ChatGPT, hat zugegeben, dass seine eigenen Bemühungen zur Erkennung von KI-generierter Schrift unvollkommen sind.
Unternehmen, die Lösungen entwickeln, verfolgen zwei Ansätze zur Lösung des Problems. Die erste besteht in der Entwicklung von Programmen zur Identifizierung KI-generierter Bilder, nachdem diese erstellt und online geteilt wurden. Der andere Schwerpunkt liegt darauf, ein Bild mit einer Art digitaler Signatur als echt oder KI-generiert zu kennzeichnen.
Reality Defender und Hive Moderation arbeiten am ersten Ansatz. Mit ihrer Plattform können Benutzer Bilder zum Scannen hochladen und erhalten dann eine Analyse, die anhand eines Prozentsatzes angibt, ob das Foto echt oder KI-generiert ist.
Laut Reality Defender verwendet das Unternehmen eine proprietäre Deepfake- und generative Content-Fingerprinting-Technologie, um KI-generierte Videos, Audiodateien und Bilder zu erkennen. In einem vom Unternehmen bereitgestellten Beispiel zeigte Reality Defender ein Deepfake-Bild von Tom Cruise, das zu 53 % als „verdächtig“ eingestuft wurde, da die Person auf dem Bild ein verzerrtes Gesicht hatte, wie man es häufig auf bearbeiteten Fotos sieht.
KI-generierte beschriftete Bilder
Diese Dienste bieten kostenlose und kostenpflichtige Versionen an. Laut Hive Moderation kostet es 1,50 $ pro 1.000 Bilder. Realty Defender gibt an, dass die Produktpreise je nach verschiedenen Faktoren variieren können, falls der Kunde die Fachkompetenz und Unterstützung des Unternehmens benötigt. Laut Ben Colman, CEO von Reality Defender, verdoppelt sich das Risiko jeden Monat, da jeder mithilfe von KI-Tools gefälschte Fotos erstellen kann.
Mehrere andere Unternehmen arbeiten daran, eine Art Etikett in die Bilder zu integrieren, um zu zertifizieren, ob sie echt oder KI-generiert sind. Bisher wurden diese Bemühungen weitgehend von der Content Authenticity and Provenance Alliance (C2PA) vorangetrieben.
C2PA wurde 2021 gegründet, um einen technischen Standard zur Zertifizierung der Herkunft und Geschichte digitaler Medien zu schaffen. Dabei werden die Content Authentication Initiative (CAI) von Adobe und das von Microsoft und der BBC geleitete Project Origin kombiniert, wobei der Schwerpunkt auf der Bekämpfung von Fehlinformationen in digitalen Nachrichten liegt. Zu den weiteren an C2PA teilnehmenden Unternehmen gehören Truepic, Intel und Sony.
Basierend auf den Grundsätzen von C2PA wird CAI Unternehmen Open-Source-Tools zur Verfügung stellen, mit denen sie Inhaltsanmeldeinformationen oder Metadaten mit Informationen zu Bildern erstellen können. Laut der CAI-Website können Ersteller dadurch transparent Details zur Erstellung eines Bildes weitergeben. Auf diese Weise können Endbenutzer auf den Kontext zugreifen, wer, was und wie das Bild geändert hat – und dann selbst beurteilen, wie authentisch das Bild ist.
Viele Unternehmen haben den C2PA-Standard und CAI-Tools in ihre Anwendungen integriert. Firefly von Adobe – das neue KI-Bildbearbeitungstool, das zu Photoshop hinzugefügt wurde – entspricht durch die Funktion „Content Credentials“ dem C2PA-Standard. Microsoft kündigte außerdem an, dass mit Bing Image Creator und Microsoft Designer erstellte Bilder und Videos in den kommenden Monaten kryptografische Signaturen tragen werden.
Im Mai kündigte Google die Funktion „Über dieses Bild“ an, mit der Benutzer sehen können, wann ein Bild zum ersten Mal bei Google erschienen ist und wo es zu sehen ist. Der Suchgigant kündigte außerdem an, dass jedes von Google KI generierte Bild in der Originaldatei eine Markierung enthalten werde, um „Kontext hinzuzufügen“, falls das Bild auf einer anderen Website oder Plattform gefunden wird.
Während die Technologieunternehmen versuchen, Bedenken hinsichtlich KI-generierter Bilder und der Integrität digitaler Medien auszuräumen, betonen Experten auf diesem Gebiet, dass die Unternehmen untereinander und mit den Regierungen zusammenarbeiten müssen, um das Problem zu lösen. Trotz der Risiken liefern sich die Technologieunternehmen ein Wettrennen um die Entwicklung künstlicher Intelligenz.
[Anzeige_2]
Quellenlink
Kommentar (0)