Sowohl Amerikas größte Bank JPMorgan Chase als auch Amazon und das Technologieunternehmen Accenture haben ihren Mitarbeitern aus Datenschutzbedenken die Nutzung von ChatGPT untersagt.
Laut CNN sind die Sorgen dieser Unternehmen völlig berechtigt. Am 20. März stürzte der Chatbot von OpenAI ab und legte Benutzerdaten offen. Obwohl der Fehler schnell behoben wurde, gab das Unternehmen bekannt, dass das Problem 1,2 % der ChatGPT Plus-Benutzer betraf. Zu den durchgesickerten Informationen gehören vollständige Namen, E-Mail-Adressen, Rechnungsadressen, die letzten vier Ziffern der Kreditkartennummern und Ablaufdaten der Karten.
Am 31. März verhängte die italienische Datenschutzbehörde (Garante) ein vorübergehendes Verbot von ChatGPT unter Berufung auf Datenschutzbedenken, nachdem OpenAI die Sicherheitslücke offengelegt hatte.
Mark McCreary, Co -Vorsitzender für Datensicherheit und Datenschutz bei der Anwaltskanzlei Fox Rothschild LLP, sagte gegenüber CNN, dass die Sicherheitsbedenken im Zusammenhang mit ChatGPT nicht übertrieben seien. Er vergleicht KI-Chatbots mit einer „Blackbox“.
ChatGPT wurde im November 2022 von OpenAI eingeführt und erregte dank seiner Fähigkeit, durch die Eingabe von Befehlen (Prompt) Aufsätze zu schreiben, Geschichten oder Liedtexte zu verfassen, schnell Aufmerksamkeit. Auch Technologiegiganten wie Google und Microsoft haben KI-Tools auf den Markt gebracht, die ähnlich funktionieren und auf großen Sprachmodellen basieren, die anhand riesiger Online-Datenspeicher trainiert wurden.
Nach Italien erwägt auch Deutschland ein Verbot von ChatGPT
Wenn Benutzer Informationen in diese Tools eingeben, wissen sie nicht, wie diese anschließend verwendet werden, fügte Herr McCreay hinzu. Dies gibt den Unternehmen Anlass zur Sorge, da immer mehr Mitarbeiter Tools zum Schreiben geschäftlicher E-Mails oder zum Anfertigen von Notizen für Besprechungen verwenden, wodurch das Risiko der Offenlegung von Geschäftsgeheimnissen steigt.
Steve Mills, Direktor für KI-Ethik bei der Boston Consulting Group (BCG), sagte, Unternehmen seien besorgt, dass Mitarbeiter versehentlich vertrauliche Informationen preisgeben könnten. Wenn die von den Benutzern eingegebenen Daten zum Trainieren dieses KI-Tools verwendet werden, haben sie die Kontrolle über die Daten an jemand anderen verloren.
Gemäß der Datenschutzrichtlinie von OpenAI kann das Unternehmen alle persönlichen Informationen und Daten von Servicebenutzern sammeln, um KI-Modelle zu verbessern. Sie können diese Informationen verwenden, um ihre Dienste zu verbessern oder zu analysieren, Untersuchungen durchzuführen, mit Benutzern zu kommunizieren und neue Programme und Dienste zu entwickeln.
In der Datenschutzrichtlinie heißt es, dass OpenAI personenbezogene Daten an Dritte weitergeben kann, ohne die Benutzer darüber zu informieren, sofern dies nicht gesetzlich vorgeschrieben ist. OpenAI verfügt zwar auch über ein eigenes Dokument mit Servicebedingungen, das Unternehmen überträgt jedoch einen Großteil der Verantwortung auf die Benutzer, bei der Interaktion mit KI-Tools geeignete Maßnahmen zu ergreifen.
Der Eigentümer von ChatGPT hat einen Blogbeitrag über seinen Ansatz zur KI-Sicherheit veröffentlicht. Das Unternehmen betont, dass es die Daten nicht zum Verkauf von Diensten, für Werbung oder zum Erstellen von Benutzerprofilen verwendet. OpenAI nutzt die Daten, um Modelle nützlicher zu machen. Beispielsweise werden Benutzerkonversationen verwendet, um ChatGPT zu trainieren.
Die Datenschutzrichtlinie von ChatGPT gilt als ziemlich vage.
Die Datenschutzrichtlinie von Google, dem Unternehmen, das das Bard AI-Tool entwickelt hat, enthält zusätzliche Bestimmungen für KI-Benutzer. Das Unternehmen wählt einen kleinen Teil des Gesprächs aus und verwendet automatisierte Tools, um personenbezogene Daten zu entfernen. Dieser Ansatz verbessert Bard und schützt die Privatsphäre der Benutzer.
Beispielgespräche werden von Trainern überprüft und bis zu 3 Jahre lang getrennt vom Google-Konto des Benutzers gespeichert. Google weist die Benutzer außerdem darauf hin, in Unterhaltungen auf Bard AI keine persönlichen Informationen über sich selbst oder andere preiszugeben. Der Tech-Riese betonte, dass er diese Gespräche nicht für Werbezwecke nutzen werde und in Zukunft Änderungen ankündigen werde.
Mit Bard AI können Benutzer festlegen, dass Konversationen nicht in ihrem Google-Konto gespeichert werden. Darüber hinaus können sie Konversationen über einen Link überprüfen oder löschen. Darüber hinaus verfügt das Unternehmen über Sicherheitsvorkehrungen, die verhindern sollen, dass Bard in seinen Antworten persönliche Informationen angibt.
Steve Mills argumentiert, dass Benutzer und Entwickler die in neuen Technologien verborgenen Sicherheitsrisiken manchmal erst entdecken, wenn es zu spät ist. Beispielsweise kann die automatische Vervollständigung versehentlich die Sozialversicherungsnummer eines Benutzers preisgeben.
Benutzer sollten in diese Tools nichts eingeben, was sie nicht mit anderen teilen möchten, sagte Herr Mills.
[Anzeige_2]
Quellenlink
Kommentar (0)