Vietnam.vn - Nền tảng quảng bá Việt Nam

Sicherheitsrisiken bei der Verwendung von ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[Anzeige_1]

Amerikas größte Bank JPMorgan Chase, Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzbedenken die Nutzung von ChatGPT untersagt.

Laut CNN sind die Sorgen dieser Unternehmen völlig berechtigt. Am 20. März stürzte der Chatbot von OpenAI ab und legte Benutzerdaten offen. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass das Problem 1,2 % der ChatGPT Plus-Benutzer betraf. Zu den durchgesickerten Informationen zählen vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und das Ablaufdatum der Karten.

Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot für ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.

Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, dass die Sicherheitsbedenken im Zusammenhang mit ChatGPT nicht übertrieben seien. Er verglich KI-Chatbots mit einer „Blackbox“.

ChatGPT wurde im November 2022 von OpenAI eingeführt und erregte dank seiner Fähigkeit, durch Befehle (Prompt) Aufsätze zu schreiben, Geschichten oder Liedtexte zu verfassen, schnell Aufmerksamkeit. Auch Technologiegiganten wie Google und Microsoft haben KI-Tools auf den Markt gebracht, die ähnlich funktionieren und auf großen Sprachmodellen basieren, die mit riesigen Mengen an Online-Daten trainiert wurden.

chatgpt.jpg

Nach Italiens Schritt erwägt auch Deutschland ein Verbot von ChatGPT

Wenn Benutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese anschließend verwendet werden, fügte Herr McCreay hinzu. Dies ist für Unternehmen besorgniserregend, da immer mehr Mitarbeiter Tools zum Verfassen geschäftlicher E-Mails oder zum Anfertigen von Notizen für Besprechungen verwenden, wodurch das Risiko der Offenlegung von Geschäftsgeheimnissen steigt.

Steve Mills, Direktor für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Benutzern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet werden, haben sie die Kontrolle über die Daten an jemand anderen verloren.

Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle persönlichen Informationen und Daten von Servicebenutzern sammeln, um KI-Modelle zu verbessern. Sie können diese Informationen verwenden, um ihre Dienste zu verbessern oder zu analysieren, Untersuchungen durchzuführen, mit Benutzern zu kommunizieren und neue Programme und Dienste zu entwickeln.

In der Datenschutzrichtlinie heißt es, dass OpenAI personenbezogene Daten an Dritte weitergeben kann, ohne die Benutzer darüber zu informieren, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar auch über ein eigenes Dokument mit Servicebedingungen, das Unternehmen überträgt jedoch einen Großteil der Verantwortung den Benutzern, bei der Interaktion mit KI-Tools geeignete Maßnahmen zu ergreifen.

Der Eigentümer von ChatGPT hat einen Blogbeitrag über seinen Ansatz zur KI-Sicherheit veröffentlicht. Das Unternehmen betont, dass es die Daten nicht zum Verkauf von Diensten, für Werbung oder zum Erstellen von Benutzerprofilen verwendet. OpenAI nutzt die Daten, um Modelle nützlicher zu machen. Beispielsweise werden Benutzerkonversationen verwendet, um ChatGPT zu trainieren.

06DRHXAVI9Fvj02541vbBqy-1.webp

Die Datenschutzrichtlinie von ChatGPT gilt als recht vage.

Die Datenschutzrichtlinie von Google, dem Unternehmen, das das Bard AI-Tool entwickelt hat, enthält zusätzliche Bestimmungen für KI-Benutzer. Das Unternehmen wählt einen kleinen Teil des Gesprächs aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dieser Ansatz verbessert Bard und schützt die Privatsphäre der Benutzer.

Beispielgespräche werden von Trainern überprüft und bis zu 3 Jahre lang getrennt vom Google-Konto des Benutzers aufbewahrt. Google weist die Benutzer außerdem darauf hin, in Gesprächen auf Bard AI keine persönlichen Informationen über sich selbst oder andere preiszugeben. Der Tech-Gigant betonte, dass er diese Gespräche nicht für Werbezwecke nutzen werde und künftig Änderungen ankündigen werde.

Mit Bard AI können Benutzer festlegen, dass Konversationen nicht in ihrem Google-Konto gespeichert werden. Darüber hinaus können sie Konversationen über einen Link überprüfen oder löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard in seinen Antworten persönliche Informationen angibt.

Steve Mills glaubt, dass Benutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. Beispielsweise kann die automatische Vervollständigung versehentlich die Sozialversicherungsnummer eines Benutzers preisgeben.

Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Pho-Restaurants in Hanoi
Bewundern Sie die grünen Berge und das blaue Wasser von Cao Bang
Nahaufnahme des „auftauchenden und verschwindenden“ Wanderwegs über das Meer in Binh Dinh
Stadt. Ho-Chi-Minh-Stadt entwickelt sich zu einer modernen „Superstadt“

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt