Los legisladores continuarán discutiendo regulaciones detalladas en las próximas semanas con miras a finalizar el proceso a principios del próximo año, con el plan de aplicarlo a partir de 2026.
Hasta entonces, se anima a las empresas a adherirse al Pacto de IA voluntario para cumplir con las obligaciones clave de las reglas.
A continuación se detallan los principales contenidos del acuerdo alcanzado por la UE.
Sistema de alto riesgo
Los llamados sistemas de IA de alto riesgo (aquellos que se considera que pueden causar daños significativos a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia, las elecciones y el Estado de derecho) tendrán que cumplir una serie de requisitos, como someterse a evaluaciones de impacto sobre los derechos fundamentales y las obligaciones de acceso al mercado de la UE.
Mientras tanto, los sistemas de bajo riesgo estarían sujetos a obligaciones de transparencia más leves, como etiquetar el contenido generado por IA para que los usuarios puedan considerar su uso.
La IA en la aplicación de la ley
Los organismos encargados de hacer cumplir la ley sólo pueden utilizar sistemas de identificación biométrica remota en tiempo real en espacios públicos, para identificar a víctimas de secuestro, trata de personas, explotación sexual y para prevenir amenazas terroristas específicas e inminentes.
Las autoridades también podrán utilizar tecnología de inteligencia artificial para rastrear a sospechosos de terrorismo, trata de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal y delitos ambientales.
Sistemas de IA general y de plataforma (GPAI)
GPAI y los modelos subyacentes estarán sujetos a requisitos de transparencia, como la producción de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para entrenar los algoritmos.
Los modelos de plataforma que entran en la categoría de potencial creación de riesgo sistémico y GPAI de alto impacto deberán realizar una evaluación general del modelo, revisar y mitigar los riesgos, realizar pruebas de ingeniería inversa, notificar a la Comisión Europea sobre incidentes graves, garantizar la ciberseguridad e informar sobre el consumo de energía.
Hasta que se publiquen las normas armonizadas de la UE, las GPAI corren el riesgo sistemático de depender de códigos de prácticas para cumplir con las regulaciones.
Los sistemas de IA están prohibidos
Las conductas y contenidos prohibidos incluyen: sistemas de clasificación biométrica que utilizan características sensibles como política, religión, creencias filosóficas, orientación sexual y raza;
Escaneo no dirigido de imágenes faciales de Internet o de grabaciones de CCTV para crear una base de datos de reconocimiento facial;
Reconocimiento de emociones en el lugar de trabajo y en entornos educativos;
La puntuación social se basa en el comportamiento social o características personales;
Los sistemas de IA manipulan el comportamiento humano para subvertir su libre albedrío;
La IA se utiliza para explotar las debilidades humanas debido a su edad, discapacidad o circunstancias económicas o sociales.
Sanciones
Dependiendo de la infracción y del tamaño de la empresa implicada, las multas comenzarán en 7,5 millones de euros (8 millones de dólares) o el 1,5% de la facturación global anual, y aumentarán hasta 35 millones de euros o el 7% de la facturación global.
(Según Reuters)
La UE alcanza un acuerdo histórico para regular la inteligencia artificial
La UE llega a un acuerdo sobre la Ley de Protección de Dispositivos Inteligentes
La UE se muestra dura con los gigantes tecnológicos y amenaza con desmantelar las empresas que incumplan las normas
[anuncio_2]
Fuente
Kommentar (0)