Das multimodale Modell mit der Bezeichnung OmniHuman-1 kann laut dem Entwicklungsteam von ByteDance immersive Videos von sprechenden, singenden und sich bewegenden Charakteren in einer Qualität erstellen, die „den aktuellen Methoden der Videogenerierung überlegen“ sei.

KI-Technologie, die Bilder, Videos und Töne erzeugt, die echten Menschen ähneln, wird auch als „Deepfake“ bezeichnet – eine Technologie, die zunehmend sowohl für Betrug als auch für Unterhaltung eingesetzt wird.

ByteDance ist eines der angesagtesten KI-Unternehmen in China. Die Doubao-App des Unternehmens ist unter den Nutzern auf dem Festland am beliebtesten.

Obwohl OmniHuman-1 noch nicht der Öffentlichkeit zugänglich gemacht wurde, gingen Beispielvideos schnell viral.

Eine herausragende Demo ist ein 23-sekündiges Video, in dem Albert Einstein eine Rede hält. TechCrunch beschreibt die Produkte der App als „schockierend großartig“ und „die bislang realistischsten Deepfake-Videos“.

OmniHuman-1 benötige lediglich ein einziges Bild als Referenzdaten sowie Audiodaten wie Sprache oder Gesang, um ein Video beliebiger Länge zu erstellen, sagte der Entwickler.

Die Bildrate des Ausgabevideos sowie die „Körperproportionen“ der darin dargestellten Figur können angepasst werden.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
ByteDance ist eines der bekanntesten KI-Unternehmen in China. Foto: TechCrunch

Darüber hinaus ist das KI-Modell, das anhand von 19.000 Stunden Videoinhalten aus nicht-öffentlichen Quellen trainiert wurde, auch in der Lage, vorhandene Videos zu bearbeiten und sogar menschliche Hand- und Fußgesten auf überzeugende Weise zu verändern.

ByteDance räumte jedoch auch ein, dass OmniHuman-1 nicht perfekt sei, da es mit bestimmten Posen immer noch Schwierigkeiten habe und dass „Referenzbilder von geringer Qualität“ nicht die besten Videos hervorbrächten.

Das neue KI-Modell von ByteDance zeigt Chinas Fortschritte trotz Washingtons Bemühungen, den Export von Technologie zu begrenzen.

Anliegen

Letztes Jahr gingen politische Deepfakes viral. In Moldawien simulierten Deepfake-Videos eine Rücktrittsrede der Präsidentin des Landes, Maia Sandu.

Und in Südafrika ging vor den Wahlen ein Deepfake des Rappers Eminem viral, der eine südafrikanische Oppositionspartei unterstützt.

Auch für die Begehung von Finanzkriminalität werden Deepfakes immer häufiger eingesetzt. Verbraucher werden durch Deepfakes von Prominenten getäuscht, die Investitionen empfehlen und falsche Anlagemöglichkeiten anbieten, während Unternehmen Millionen von Dollar durch Nachahmer verloren haben, die sich als leitende Angestellte ausgeben.

Laut Deloitte trugen KI-generierte Inhalte im Jahr 2023 zu Betrugsverlusten von über 12 Milliarden US-Dollar bei und könnten in den USA bis 2027 40 Milliarden US-Dollar erreichen.

Im vergangenen Februar unterzeichneten Hunderte Menschen aus der KI-Community einen Brief, in dem sie eine strenge Regulierung von Deepfakes forderten. Da Deepfakes in den USA auf Bundesebene nicht strafbar sind, haben mehr als zehn Bundesstaaten Gesetze gegen KI-Fälschungen erlassen.

Allerdings ist es nicht einfach, Deepfakes zu erkennen. Obwohl einige soziale Netzwerke und Suchmaschinen Maßnahmen ergriffen haben, um ihre Verbreitung einzuschränken, wächst die Menge an Deepfake-Inhalten im Internet immer noch mit besorgniserregender Geschwindigkeit.

In einer Umfrage des Identitätsüberprüfungsunternehmens Jumio vom Mai 2024 gaben 60 % der Befragten an, im vergangenen Jahr auf einen Deepfake gestoßen zu sein; 72 % der Befragten gaben an, sie hätten Angst, täglich auf Deepfakes hereinzufallen, während eine Mehrheit die Verabschiedung von Gesetzen befürwortete, um der Verbreitung KI-generierter gefälschter Videos Einhalt zu gebieten.

Google gibt grünes Licht für den Einsatz von KI zur Entwicklung von Waffen und Überwachungstechnologie Google hat sein „Versprechen“ aufgegeben, keine KI-Tools für den Einsatz in Waffen und Überwachungstechnologie zu entwickeln und einzusetzen.