Die Gesetzgeber werden in den kommenden Wochen weiterhin über detaillierte Regelungen diskutieren, um den Prozess Anfang nächsten Jahres abzuschließen. Es ist geplant, dass die Regelung ab 2026 gilt.
Bis dahin werden Unternehmen ermutigt, dem freiwilligen KI-Pakt beizutreten, um die wichtigsten Verpflichtungen der Vorschriften zu erfüllen.
Nachfolgend sind die wichtigsten Inhalte des von der EU vereinbarten Abkommens aufgeführt.
Hochrisikosystem
Sogenannte KI-Systeme mit hohem Risiko – also solche, bei denen davon ausgegangen wird, dass sie erhebliche Schäden für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie, Wahlen und Rechtsstaatlichkeit verursachen – müssen eine Reihe von Anforderungen erfüllen, beispielsweise Folgenabschätzungen hinsichtlich der Grundrechte und der Verpflichtungen zum Marktzugang der EU durchlaufen.
Für Systeme mit geringem Risiko würden unterdessen weniger strenge Transparenzpflichten gelten, etwa die Kennzeichnung von KI-generierten Inhalten, damit die Benutzer deren Verwendung in Erwägung ziehen können.
KI in der Strafverfolgung
Strafverfolgungsbehörden dürfen biometrische Echtzeit-Fernidentifizierungssysteme nur im öffentlichen Raum einsetzen, um Opfer von Entführungen, Menschenhandel und sexueller Ausbeutung zu identifizieren und um konkrete und unmittelbare terroristische Bedrohungen abzuwehren.
Den Behörden wird es außerdem gestattet sein, KI-Technologie einzusetzen, um Verdächtige des Terrorismus, des Menschenhandels, der sexuellen Ausbeutung, des Mordes, der Entführung, der Vergewaltigung, des bewaffneten Raubüberfalls, der Mitgliedschaft in einer kriminellen Vereinigung und der Umweltkriminalität aufzuspüren.
Allgemeine und plattformbasierte KI-Systeme (GPAI)
GPAI und die zugrunde liegenden Modelle unterliegen Transparenzanforderungen, wie beispielsweise der Erstellung technischer Dokumentationen, der Einhaltung des EU-Urheberrechts und der Veröffentlichung detaillierter Zusammenfassungen der zum Trainieren der Algorithmen verwendeten Inhalte.
Plattformmodelle, die in die Kategorie „potenziell systemische Risiken erzeugend“ und „GPAI mit hoher Auswirkung“ fallen, müssen eine allgemeine Modellbewertung durchführen, Risiken prüfen und mindern, Reverse-Engineering-Tests durchführen, die Europäische Kommission über schwerwiegende Vorfälle informieren, die Cybersicherheit gewährleisten und über den Energieverbrauch Bericht erstatten.
Bis zur Veröffentlichung harmonisierter EU-Normen besteht für GPAIs das systemische Risiko, dass sie sich bei der Einhaltung von Vorschriften auf Verhaltenskodizes verlassen.
KI-Systeme sind verboten
Zu den verbotenen Verhaltensweisen und Inhalten gehören: Biometrische Klassifizierungssysteme, die sensible Merkmale wie Politik, Religion, philosophische Überzeugungen, sexuelle Orientierung und Rasse verwenden;
Nicht zielgerichtetes Scannen von Gesichtsbildern aus dem Internet oder von Videoüberwachungsaufnahmen, um eine Gesichtserkennungsdatenbank zu erstellen;
Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen;
Social Scoring basiert auf sozialem Verhalten oder persönlichen Eigenschaften;
KI-Systeme manipulieren menschliches Verhalten, um ihren freien Willen zu untergraben.
KI wird eingesetzt, um menschliche Schwächen aufgrund von Alter, Behinderung oder wirtschaftlichen oder sozialen Umständen auszunutzen.
Sanktionen
Je nach Verstoß und Größe des betroffenen Unternehmens beginnen die Geldbußen bei 7,5 Millionen Euro (8 Millionen US-Dollar) oder 1,5 Prozent des weltweiten Jahresumsatzes und steigen auf 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes.
(Laut Reuters)
EU erzielt historische Einigung zur Regulierung künstlicher Intelligenz
EU erzielt Einigung zum Smart Device Protection Act
EU geht hart gegen Tech-Giganten vor und droht mit der Zerschlagung von Unternehmen, die gegen die Vorschriften verstoßen
[Anzeige_2]
Quelle
Kommentar (0)