In einem Blogbeitrag vom 30. August erklärte das britische Cyber Security Centre (NCSC), dass Experten die potenziellen Cybersicherheitsprobleme im Zusammenhang mit Algorithmen, die „menschenähnliche“ Interaktionen ermöglichen – sogenannte Large Language Models (LLMs) –, noch immer nicht vollständig verstehen.
Das NCSC warnt, dass dies Risiken bergen könne, insbesondere wenn solche Modelle in die Geschäftsprozesse eines Unternehmens integriert würden. Darüber hinaus haben Wissenschaftler und Forscher in letzter Zeit immer wieder neue Wege gefunden, KI zu „überlisten“, indem sie ihr irreführende Befehle geben oder eingebaute Schutzbarrieren durchbrechen.
Generative KI-Tools werden als Chatbots eingesetzt, die nicht nur Internetsuchen, sondern auch Kundendienst- und Verkaufsgespräche ersetzen sollen. |
Beispielsweise könnte ein KI-Chatbot in einer Bank dazu verleitet werden, nicht autorisierte Transaktionen durchzuführen, wenn Hacker die richtigen „Anweisungen“ eingeben.
In Bezug auf aktuelle Betaversionen von KI warnt das NCSC daher: „Organisationen, die Dienste rund um LLMs aufbauen, müssen genauso vorsichtig sein, als würden sie ein neues Produkt in der Anfangsphase eines Betatests verwenden.“
Eine aktuelle Umfrage von Reuters/Ipsos ergab, dass viele Unternehmensmitarbeiter Tools wie ChatGPT verwenden, um grundlegende Aufgaben wie das Verfassen von E-Mails, das Zusammenfassen von Dokumenten oder das Sammeln von Forschungsdaten auszuführen.
Davon gaben nur etwa 10 Prozent der Mitarbeiter an, dass ihre Vorgesetzten den Einsatz externer KI-Tools ausdrücklich verboten hätten, und 25 Prozent wussten nicht, ob das Unternehmen den Einsatz dieser Technologie erlaubte.
Der Wettlauf um die Integration künstlicher Intelligenz in die Geschäftsabläufe werde „katastrophale Konsequenzen“ haben, wenn die Unternehmensleiter nicht die notwendigen Kontrollen durchführten, sagte Oseloka Obiora, Technologiechefin des Sicherheitsunternehmens RiverSafe. „Anstatt dem KI-Trend hinterherzulaufen, sollten Führungskräfte sorgfältig nachdenken und eine Bewertung der Vorteile sowie der Risiken und Sicherheitsmaßnahmen durchführen, die zum Schutz des Unternehmens erforderlich sind.“
Fake News und Hacker
Behörden auf der ganzen Welt versuchen außerdem, die Verbreitung von LLMs wie ChatGPT von OpenAI zu regulieren. Bedenken hinsichtlich der Sicherheit neuer Technologien stehen im Fokus der Politik, da in den USA und Kanada in jüngster Zeit zahlreiche Fälle aufgedeckt wurden, in denen Hacker zunehmend künstliche KI für illegale Aktionen missbrauchen.
Ein Hacker sagte sogar, er habe einen LLM gefunden, der mit bösartigen Dokumenten „trainiert“ worden sei, und habe versucht, ihn zu bitten, einen Geldtransfer-Betrug aufzubauen. Und die KI reagierte, indem sie eine E-Mail generierte, in der sie den Empfänger aufforderte, eine dringende Rechnung zu bezahlen.
Im Juli 2023 stellte das Canadian Cyber Security Centre einen Anstieg des Einsatzes von KI bei „E-Mail-Betrug, Malware, Desinformation und Falschdarstellung“ fest. Der Direktor des Zentrums, Sami Khoury, behauptet, dass Cyberkriminelle diese neue Technologie aktiv ausnutzen.
Dieser Leiter fügte außerdem hinzu, dass sich der Einsatz von KI zur Erstellung von Schadsoftware zwar noch in den Kinderschuhen befindet, sich KI-Modelle jedoch zu schnell entwickeln, was leicht zu einem Punkt führen kann, an dem ihre bösartigen Risiken nicht mehr kontrolliert werden können.
Zuvor hatte die Europäische Polizeiorganisation Europol im März 2023 einen Bericht veröffentlicht, in dem es hieß, ChatGPT könne „sich auf sehr realistische Weise als Organisationen und Einzelpersonen ausgeben, selbst wenn nur einfaches Englisch verwendet wird.“ Version Im selben Monat behauptete das britische National Cyber Security Centre, dass „LLM zur Unterstützung von Cyberangriffen verwendet werden könnte“.
[Anzeige_2]
Quelle
Kommentar (0)