ChatGPT verklagt
Kürzlich verklagten zwei amerikanische Autoren OpenAI vor einem Bundesgericht in San Francisco und behaupteten, das Unternehmen habe ihre Werke verwendet, um das beliebte künstliche Intelligenzsystem ChatGPT zu „trainieren“.
Die Schriftsteller Paul Tremblay und Mona Awad aus Massachusetts sagten, ChatGPT habe ohne Erlaubnis Daten aus Tausenden von Büchern kopiert und damit die Urheberrechte der Autoren verletzt. In ihrer Klage argumentieren sie, dass ChatGPT ohne die Erlaubnis des Autors „sehr genaue Zusammenfassungen“ ihrer Arbeit erstellt habe, was eine Urheberrechtsverletzung darstelle.
Der Guardian zitierte Andres Guadamuz, der an der University of Sussex geistiges Eigentumsrecht studiert, mit der Aussage, dass dies die erste Klage im Zusammenhang mit geistigen Eigentumsrechten gegen ChatGPT sei. Dementsprechend sagte Herr Guadamuz, dass diese Klage die unklaren „rechtlichen Grenzen“ im Prozess der Nutzung aktueller innovativer KI-Anwendungen aufzeigen werde.
OpenAI wegen Urheberrechtsverletzung beim KI-Training verklagt.
Im Bereich des Journalismus gab es eine Reihe von Fragen zu den Chancen und Herausforderungen sowie den Auswirkungen der künstlichen Intelligenz auf den Journalismus im Allgemeinen und auf die Arbeitsplätze von Journalisten.
ChatGPT kann aus einfachen Benutzerbefehlen hochkomplexe Textinhalte generieren und so alles von Aufsätzen über Bewerbungen bis hin zu Gedichten und sogar fiktiven Geschichten erstellen. ChatGPT ist ein großes Sprachmodell, das trainiert wird, indem Milliarden von Wörtern aus dem Alltag über das Internet in das System hochgeladen werden. Von dort aus leitet es Sätze und Wörter gemäß bestimmter Sequenzen ab.
Die Genauigkeit der Antworten ist jedoch fraglich. Wissenschaftler in Australien haben Beispiele dafür gefunden, dass das System Referenzen von Websites fälscht und falsche Zitate angibt. Auch der Einsatz künstlicher Intelligenz im Journalismus hat für Kontroversen gesorgt.
Die Technologie-Nachrichtenwebsite CNET verwendet KI, um Artikel zu erstellen, die dann vor der Veröffentlichung von menschlichen Redakteuren auf Fehler überprüft werden. Die Site räumte ein, dass das Programm viele Einschränkungen aufwies, nachdem ein Artikel auf der Tech-News-Site Futurism enthüllt hatte, dass mehr als die Hälfte der mit KI-Tools erstellten Nachrichtenartikel bearbeitet werden mussten, um Fehler zu korrigieren. CNET war einmal gezwungen, Korrekturen an einem Artikel vorzunehmen, der zu viele einfache Fehler enthielt.
Doch die Möglichkeit, dass KI Fehlinformationen erzeugen könnte, ist nicht die einzige Sorge. Es müssen zahlreiche rechtliche und ethische Fragen berücksichtigt werden, darunter das Eigentum an geistigem Eigentum (IP), die Moderation von Inhalten und sogar die mögliche Störung der aktuellen Finanzmodelle von Nachrichtenredaktionen.
Wem gehören das geistige Eigentum und die Rechte zur Veröffentlichung von Inhalten?
Laut Herrn Le Quoc Minh – Mitglied des Zentralkomitees der Partei, Chefredakteur der Zeitung Nhan Dan, stellvertretender Leiter der zentralen Propagandaabteilung und Vorsitzender des vietnamesischen Journalistenverbands – stellt sich eine wichtige Frage, wenn Redaktionen beginnen, KI zur Erstellung von Inhalten zu integrieren: Wem gehören das geistige Eigentum und die Rechte zur Veröffentlichung von Inhalten? Beherrscht die Medienagentur die KI-Plattform oder ist es die KI-Plattform selbst?
Herr Le Quoc Minh führte an, dass das britische Recht im Gegensatz zu den USA Urheberrechtsschutz für computergenerierte Werke zulässt, obwohl nur Einzelpersonen oder Organisationen das Recht haben, geistiges Eigentum zu „besitzen“, niemals jedoch KI. Konkret bedeutet dies: Wenn ein KI-System nur minimale Beiträge leistet, die über grundlegende Benutzerbefehle hinausgehen, und der automatisierte Entscheidungsprozess den kreativen Prozess steuert, dann kann der Ersteller der Plattform als „Urheber“ und Eigentümer des geistigen Eigentums betrachtet werden.
Chefredakteur Gideon Lichfield sagte, sie würden keine von KI geschriebenen oder bearbeiteten Inhalte veröffentlichen und keine von KI generierten Bilder oder Videos verwenden.
Wenn durch das Hochladen von Dokumenten in das System viele Eingabedaten erforderlich sind und KI nur ein unterstützendes Tool ist, kann das geistige Eigentum des Ausgabeprodukts beim Benutzer liegen. Tatsächlich müssen Journalisten, wenn sie KI verwenden, die Nutzungsbedingungen der Plattformen sorgfältig prüfen, um die Bestimmungen zum geistigen Eigentum sorgfältig zu prüfen. Einige Plattformen „gewähren“ den Benutzern geistige Eigentumsrechte, während andere dieses Recht behalten und es im Rahmen einer „Lizenz“ gewähren (möglicherweise mit Einschränkungen für die redaktionelle Nutzung).
„Unabhängig davon, wem das geistige Eigentum gehört, müssen Nachrichtenredaktionen bereit sein, die Verantwortung für alle von ihnen veröffentlichten KI-generierten Inhalte zu übernehmen – einschließlich der Möglichkeit, dass die Inhalte als diffamierend oder irreführend erachtet werden“, sagte Minh.
Der Chefredakteur der Zeitung Nhan Dan fügte hinzu, dass viele KI-Tools ihre Antworten bislang nur an die Benutzer selbst „veröffentlichen“ und dass jeder, der diese Technologien nutzt, für die von ihm veröffentlichten Inhalte verantwortlich sein muss. Das größte Risiko für Nachrichtenredaktionen, die KI-generierte Arbeiten veröffentlichen, besteht in der versehentlichen Verletzung der geistigen Eigentumsrechte Dritter. Journalisten können nicht wissen, welche Bilder oder Texte zum Trainieren der KI verwendet werden oder welche zur Erstellung von On-Demand-Inhalten herangezogen werden.
„ Nachrichtenredaktionen müssen die Tatsache akzeptieren, dass scheinbar originelle, KI-generierte Inhalte stark von Drittquellen beeinflusst oder ohne Erlaubnis direkt kopiert werden können“, betonte Minh.
Herr Minh wies außerdem darauf hin, dass die Servicebedingungen von KI-Plattformen keine Garantie dafür bieten, dass die Ergebnisse nicht gegen das Urheberrecht verstoßen. Daher hätten die Redaktionen keine rechtliche Grundlage, wenn sie vom Autor verklagt würden. So hat etwa das Foto-Hosting-Unternehmen Getty Images ein Verfahren gegen Stability AI eingeleitet – die Muttergesellschaft des Bilderzeugungstools Stable Diffusion – wegen „unerlaubten Kopierens und Verarbeitens von Millionen urheberrechtlich geschützter Bilder, die Eigentum von Getty Images sind oder von Getty Images bereitgestellt werden.“
„Selbst wenn Stability AI eine Urheberrechtsklage vermeidet, würde dies immer noch als Verstoß gegen die Servicebedingungen von Getty Images betrachtet werden, die ausdrücklich „jegliches Data Mining, Robotik oder ähnliche Methoden zur Datenerfassung“ verbieten. Auch Presseagenturen, die KI nutzen, um unbefugt in die Inhalte von Getty Images einzugreifen, könnten verklagt werden“, sagte Herr Minh.
Eine positive Entwicklung ist, dass die Technologie-Nachrichtenseite Wired vor Kurzem als erstes Nachrichtenportal offizielle Vorschriften zur KI veröffentlichte, in denen dargelegt wird, wie sie die Technologie nutzen will.
Die Richtlinie, die Anfang März von Chefredakteur Gideon Lichfield veröffentlicht wurde, enthält eine Reihe von Verpflichtungen der Redaktion, die diese unterlässt. So darf sie beispielsweise keine von KI geschriebenen oder bearbeiteten Inhalte veröffentlichen und keine von KI erstellten Bilder oder Videos verwenden. KI darf nur zur Ideenfindung für Artikel oder zum Vorschlagen attraktiver Schlagzeilen oder effektiver Social-Media-Inhalte eingesetzt werden. Dies kann als positive und notwendige Maßnahme angesehen werden, da KI in der aktuellen journalistischen Tätigkeit für zahlreiche Kontroversen hinsichtlich rechtlicher und ethischer Fragen sorgt.
Hoa Giang
[Anzeige_2]
Quelle
Kommentar (0)