ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt

Báo Đô thịBáo Đô thị30/09/2024

[Anzeige_1]

Die Langzeitgedächtnisfunktion von ChatGPT ist eine neue Funktion, die von OpenAI im Februar 2024 eingeführt und im September erweitert wurde.

Kürzlich hat der Sicherheitsforscher Johann Rehberger eine schwerwiegende Sicherheitslücke im Zusammenhang mit dieser Funktion aufgedeckt.

Es ist bekannt, dass diese neue Funktion Chatbots hilft, Informationen aus früheren Gesprächen zu speichern. Dadurch müssen Nutzer Angaben wie Alter, Interessen oder persönliche Ansichten nicht bei jedem Chat erneut eingeben. Dies ist jedoch zu einer Schwachstelle geworden, die Angreifer ausnutzen können.

ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt
ChatGPT-Benutzer sind dem Risiko eines Informationsdiebstahls ausgesetzt

Johann Rehberger zeigte, dass Hacker eine Technik namens „Prompt Injection“ verwenden könnten – das Einfügen bösartiger Anweisungen in den Speicher und die KI wird gezwungen, diesen zu gehorchen. Diese Befehle werden über nicht vertrauenswürdige Inhalte wie E-Mails, Dokumente oder Webseiten eingeschleust.

Sobald diese gefälschten Erinnerungen gespeichert sind, verwendet die KI sie in Gesprächen mit Benutzern weiterhin als echte Informationen. Dies kann zu einer unbefugten Erfassung und Verwendung der persönlichen Daten der Benutzer führen.

Rehberger lieferte ein konkretes Beispiel, indem er einen Link mit einem bösartigen Bild schickte, das dazu führte, dass ChatGPT eine falsche Erinnerung speicherte. Diese Informationen beeinflussen später die Antworten von ChatGPT. Insbesondere werden auch alle vom Benutzer eingegebenen Informationen an den Server des Hackers übermittelt.

Um den Angriff auszulösen, müssen Hacker die Benutzer von ChatGPT dementsprechend lediglich dazu bringen, auf einen Link mit einem schädlichen Bild zu klicken. Dann werden alle Benutzergespräche mit ChatGPT auf den Server des Angreifers umgeleitet, ohne Spuren zu hinterlassen.

Im Mai 2024 meldete Rehberger den Fehler, nachdem er ihn entdeckt hatte, an OpenAi, das Unternehmen betrachtete ihn jedoch nur als einen Sicherheitsfehler. Nachdem das Unternehmen Hinweise auf einen möglichen Diebstahl von Benutzerdaten erhalten hatte, veröffentlichte es einen temporären Patch für die Webversion von ChatGPT.

Obwohl das Problem vorübergehend behoben wurde, betonte Rehberger, dass nicht vertrauenswürdige Inhalte weiterhin Prompt-Injection verwenden können, um falsche Informationen in das Langzeitgedächtnis von ChatGPT einzufügen. Dies bedeutet, dass Hacker in bestimmten Fällen die Sicherheitslücke immer noch ausnutzen könnten, um bösartige Erinnerungen zu speichern und so langfristig persönliche Informationen zu stehlen.

OpenAI empfiehlt Benutzern, den Cache-Speicher von ChatGPT regelmäßig auf Fehlalarme zu überprüfen. Gleichzeitig stellt das Unternehmen ausführliche Anweisungen zum Verwalten und Löschen der in diesem Tool gespeicherten Erinnerungen zur Verfügung.


[Anzeige_2]
Quelle: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Luc Yen, ein verstecktes grünes Juwel
Verbreitung nationaler kultureller Werte durch musikalische Werke
Lotusfarbe von Hue
Hoa Minzy enthüllt Nachrichten mit Xuan Hinh und erzählt die Geschichte hinter den Kulissen, wie „Bac Bling“ ein globales Fieber auslöste

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Ministerium - Zweigstelle

Lokal

Produkt