Die dunkle Seite von Anwendungen künstlicher Intelligenz

Người Lao ĐộngNgười Lao Động28/02/2024

[Anzeige_1]

Nachdem das Startup OpenAI Ende 2022 seine erste KI-Anwendung, ChatGPT, auf den Markt gebracht hatte, wurde eine Welle des Wettbewerbs um die Entwicklung von KI-Anwendungen ausgelöst, insbesondere generativer KI, die viele Annehmlichkeiten in allen Lebensbereichen mit sich bringt. Dies bringt jedoch auch viele Risiken mit sich.

Verletzung der Privatsphäre

In den letzten Jahren haben viele Organisationen und Einzelpersonen Verluste erlitten, als Cyberkriminelle KI nutzten, um Videoclips zu erstellen, die die Bilder und Stimmen echter Menschen imitierten. Ein Beispiel ist der Deepfake-Trick.

Laut dem Ende November 2023 von Sumsub veröffentlichten Identity Fraud Report haben Deepfake-Betrugsfälle weltweit in den Jahren 2022 und 2023 um das Zehnfache zugenommen. Dies ist auch die Zeit der explosionsartigen Zunahme an Anwendungen künstlicher KI auf der Welt.

Status Labs merkte an, dass Deepfake große Auswirkungen auf Kultur, Privatsphäre und den persönlichen Ruf habe. Ein Großteil der Nachrichten und der Aufmerksamkeit rund um Deepfakes konzentrierte sich auf Pornovideos mit Prominenten, Rachepornos, Desinformation, Fake News, Erpressung und Betrug. So wurde beispielsweise im Jahr 2019 ein Energieunternehmen in den USA um 243.000 US-Dollar betrogen, als ein Betrüger sich als die Führungskraft des Unternehmens ausgab und ihre Stimme imitierte und die Mitarbeiter aufforderte, das Geld an Partner zu überweisen.

Die Nachrichtenagentur Reuters sagte, dass im Jahr 2023 etwa 500.000 Deepfake-Inhalte in Video- und Sprachform über soziale Netzwerke auf der ganzen Welt geteilt wurden. Neben Deepfakes zum Spaß gibt es auch Tricks, die von Bösewichten entwickelt werden, um die Community zu betrügen. Schätzungen zufolge entstanden im Jahr 2022 durch Deepfake-Betrug weltweit Schäden von bis zu 11 Millionen US-Dollar.

Viele Technologieexperten warnen vor den negativen Auswirkungen der KI, unter anderem auf geistige Eigentumsrechte und Authentizität sowie darüber hinaus vor Streitigkeiten um geistige Eigentumsrechte zwischen durch KI geschaffenen „Werken“. Beispielsweise bittet eine Person eine KI-Anwendung, ein Bild mit einem bestimmten Thema zu zeichnen, eine andere Person fordert die KI jedoch ebenfalls auf, dasselbe zu tun, wodurch Bilder mit vielen Ähnlichkeiten entstehen.

Dadurch kann es leicht zu Eigentumsstreitigkeiten kommen. Bis heute hat sich die Welt jedoch noch nicht auf eine Anerkennung des Urheberrechts für KI-generierte Inhalte geeinigt (Anerkennung des Urheberrechts für Einzelpersonen, die kreative KI in Auftrag geben, oder Unternehmen, die KI-Anwendungen entwickeln).

Một hình ảnh được tạo bởi ứng dụng AI

Ein von einer KI-Anwendung generiertes Bild

Echt und Fälschung schwer zu unterscheiden

Können KI-generierte Inhalte das Urheberrecht verletzen? Technologisch gesehen werden KI-generierte Inhalte durch Algorithmen aus Daten synthetisiert, mit denen sie trainiert wurden. Diese Datenbanken werden von Entwicklern von KI-Anwendungen aus vielen Quellen gesammelt, hauptsächlich aus Wissensdatenbanken im Internet. Bei vielen dieser Werke liegt das Urheberrecht bei ihren Eigentümern.

Am 27. Dezember 2023 verklagte die New York Times (USA) OpenAI (mit ChatGPT) und Microsoft mit der Behauptung, Millionen ihrer Artikel seien zum Trainieren von KI-Chatbots und KI-Plattformen dieser beiden Unternehmen verwendet worden. Es gibt Belege dafür, dass es von Chatbots auf Anfrage von Benutzern erstellte Inhalte gibt, die den Inhalten von Artikeln ähneln oder mit ihnen identisch sind. Diese Zeitung kann nicht ignorieren, wenn ihr „geistiges Eigentum“ von Unternehmen für Profitzwecke missbraucht wird.

Die New York Times ist die erste große US-Zeitung, die eine Urheberrechtsklage im Zusammenhang mit KI eingereicht hat. Es ist möglich, dass in naher Zukunft auch andere Zeitungen klagen werden, insbesondere nach dem Erfolg der New York Times.

Zuvor hatte OpenAI im Juli 2023 eine Urheberrechtslizenzvereinbarung mit der Nachrichtenagentur Associated Press und im Dezember 2023 mit Axel Springer – einem deutschen Verlag, dem die beiden Zeitungen Politico und Business Insider gehören – geschlossen.

Auch die Schauspielerin Sarah Silverman schloss sich im Juli 2023 mehreren Klagen an und beschuldigte Meta und OpenAI, ihre Memoiren als Trainingstext für KI-Programme zu verwenden. Viele Autoren zeigten sich ebenfalls besorgt, als bekannt wurde, dass KI-Systeme Zehntausende Bücher in ihre Datenbank aufgenommen hatten, was zu Klagen von Autoren wie Jonathan Franzen und John Grisham führte.

Mittlerweile hat auch der Fotodienst Getty Images ein KI-Unternehmen wegen der Erstellung von Bildern auf Basis von Textaufforderungen verklagt, da das urheberrechtlich geschützte Bildmaterial des Unternehmens unbefugt verwendet wurde …

Benutzer können in Urheberrechtsprobleme geraten, wenn sie „Werke“ „unvorsichtig“ verwenden, die sie von KI-Tools „erstellen“ ließen. Experten empfehlen stets, KI-Tools nur zum Suchen, Sammeln von Daten und Erstellen von Vorschlägen ausschließlich zu Referenzzwecken zu verwenden.

Ein weiteres Problem besteht darin, dass KI-Anwendungen die Benutzer verwirren, wenn sie nicht zwischen Wahrheit und Lüge eines bestimmten Inhalts unterscheiden können. Bei der Annahme von Manuskripten kann es bei Verlegern und Herausgebern zu Verwirrung kommen. Für Lehrer ist es außerdem schwierig zu erkennen, ob in den Arbeiten ihrer Schüler KI zum Einsatz kommt oder nicht.

Die Community muss nun wachsamer sein, da sie nicht weiß, welche Inhalte echt und welche gefälscht sind. Beispielsweise wäre es für den Durchschnittsmenschen schwierig zu erkennen, ob ein Foto mithilfe einer KI „verzaubert“ oder bearbeitet wurde.

Gesetzliche Regelungen zum KI-Einsatz sind nötig

Während sie auf Anwendungstools warten, die KI-Eingriffe erkennen können, müssen die Verwaltungsbehörden bald klare und spezifische gesetzliche Vorschriften für die Verwendung dieser Technologie zur Erstellung privater Inhalte erlassen. Gesetzliche Regelungen müssen den Menschen deutlich machen, dass in Inhalte und Werke durch KI eingegriffen wurde, zum Beispiel durch die standardmäßige Kennzeichnung von Bildern, die durch KI manipuliert wurden.


[Anzeige_2]
Quelle: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Verbreitung nationaler kultureller Werte durch musikalische Werke
Elefantenreiter – ein einzigartiger Beruf, der vom Aussterben bedroht ist
Lotusfarbe von Hue
Hoa Minzy enthüllt Nachrichten mit Xuan Hinh und erzählt die Geschichte hinter den Kulissen, wie „Bac Bling“ ein globales Fieber auslöste

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Ministerium - Zweigstelle

Lokal

Produkt