Microsoft hat ein internationales Cyberkriminellen-Netzwerk identifiziert, dem es gelungen ist, die Schutzmechanismen generativer KI-Dienste zu umgehen und schädliche Inhalte zu erstellen, darunter sensible Fotos von Prominenten und andere pornografische Inhalte.

Hacker sammelten Serviceanmeldeinformationen aus öffentlichen Quellen und nutzten sie, um auf generative KI-Dienste zuzugreifen, darunter Azure OpenAI von Microsoft.

Anschließend modifizieren sie die Fähigkeiten der KI-Produkte und verkaufen den Zugriff darauf an andere kriminelle Banden, wobei sie ihnen Anweisungen zur Erstellung bösartiger Inhalte geben.

Hacker d3sign/Moment RF
Microsoft hat öffentlich enthüllt, dass vier Hacker Tools zum „Umgehen“ des KI-Dienstes verkauften. Foto: d3sign/Moment RF

Laut Microsoft handelt es sich dabei um: Arian Yadegarnia (alias Fiz) aus dem Iran, Alan Krysiak (Drago) aus Großbritannien, Ricky Yuen (cg-dot) aus Hongkong (China) und Phat Phung Tan (Asakuri) aus Vietnam.

Alle vier werden beschuldigt, dem Cybercrime-Netzwerk Storm-2139 anzugehören. Zwei weitere Personen stammen aus den USA, aber Microsoft hat ihre Identität nicht preisgegeben, um die Sicherheit der Ermittlungen zu gewährleisten.

Storm-2139 ist in drei Hauptgruppen unterteilt: Entwickler, Anbieter und Endbenutzer, sagte Microsoft. Entwickler erstellen illegale Tools, um generative KI-Dienste zu missbrauchen; Der Lieferant wird es dann ändern und dem Endbenutzer zu unterschiedlichen Preisen und mit unterschiedlichen Leistungen anbieten; Schließlich verwenden Benutzer das Tool, um schädliche Inhalte zu erstellen, bei denen es oft um Pornostars und Bilder geht.

Die Informationen wurden von Microsoft veröffentlicht, da die Besorgnis über den Missbrauch generativer künstlicher Intelligenz zur Erstellung gefälschter Bilder von Prominenten und normalen Menschen sowie von Kinderpornografie zunimmt.

Unternehmen wie Microsoft und OpenAI verbieten diese Praktiken und ergreifen technische Maßnahmen, um sie zu verhindern, doch Hackergruppen wie die oben genannte finden immer noch Wege, „die Regeln zu umgehen“.

Steven Masada, stellvertretender General Counsel der Digital Crimes Unit (DCU) von Microsoft, ist sich der schwerwiegenden und dauerhaften Auswirkungen bewusst, die beleidigende Bilder auf die Opfer haben.

Das Unternehmen setzt sich für den Schutz der Benutzer ein, indem es KI-Sicherheitsmaßnahmen in die Plattform einbettet und den Dienst vor illegalen und schädlichen Inhalten schützt.

Im Dezember 2024 reichte die DCU im Eastern District of Virginia (USA) Klage gegen 10 nicht identifizierte Personen ein, die an Aktivitäten beteiligt waren, die gegen US-amerikanisches Recht und die Richtlinien von Microsoft verstießen.

Das Gericht erließ eine einstweilige Verfügung und eine einstweilige Unterlassungsverfügung, die es Microsoft gestattete, eine für kriminelle Aktivitäten genutzte Website zu beschlagnahmen und so die Handlungsfähigkeit des Konzerns zu unterbrechen.

Bemerkenswerterweise schickten nach dieser Aktion einige Mitglieder, die im Verdacht standen, zu Storm-2139 zu gehören, E-Mails an Microsoft-Berater und beschuldigten sich gegenseitig.

„Diese Reaktion unterstreicht die Auswirkungen der rechtlichen Schritte von Microsoft und zeigt, wie Maßnahmen die Netzwerke von Cyberkriminellen wirksam stören können, indem sie die Infrastruktur beschlagnahmen und eine starke abschreckende Wirkung auf die Mitglieder erzielen“, schrieb Microsoft am 27. Februar in einem Blogbeitrag.

(Laut Microsoft, Bloomberg)