Vietnam.vn - Nền tảng quảng bá Việt Nam

Cómo utilizar la IA correctamente

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/05/2023

[anuncio_1]

SGGP

En un esfuerzo por endurecer la regulación de la IA, los principales legisladores de la Unión Europea (UE) acordaron varias enmiendas a un proyecto de regulación de inteligencia artificial (IA) para frenar la IA generativa, como ChatGPT.

Panasonic Connect Corporation ha ayudado a los empleados en Japón a utilizar sistemas de IA para mejorar la productividad. Foto: Nikkei Asia
Panasonic Connect Corporation ha ayudado a los empleados en Japón a utilizar sistemas de IA para mejorar la productividad. Foto: Nikkei Asia

Esperando la primera ley completa

La votación decisiva sobre el proyecto de ley de regulación de la IA el 11 de mayo marcó un nuevo paso en el proceso de aprobación de la legislación que regularía formalmente herramientas de IA como ChatGPT. Las comisiones de Protección del Consumidor y de Libertades Civiles del Parlamento Europeo (PE) han adoptado un proyecto de texto que afirma la necesidad de controlar el uso de la IA en la UE, promoviendo al mismo tiempo la innovación en este ámbito, pero respetando los derechos fundamentales, según los cuales la IA debe servir a las personas, a la sociedad y al medio ambiente.

Tras dos años de debates, se espera que la AI Act se convierta en la primera ley completa de la UE que regule esta tecnología, ya que ha añadido disposiciones que prohíben el uso de tecnología de reconocimiento facial en lugares públicos (lo que se prevé que cause conflictos entre países de la UE) y herramientas que utilizan algoritmos para predecir comportamientos delictivos, aplicaciones de IA artificial como ChatGPT de OpenAI, controles biométricos... En consecuencia, estas aplicaciones deben enviar notificaciones para recordar a los usuarios que los productos de estas herramientas los crean máquinas, no humanos.

El documento también incluye una sección que requiere criterios adicionales para identificar áreas de alto riesgo para aplicaciones de IA, limitando así el alcance del diseño de herramientas. Las herramientas de IA se clasificarán según el nivel de riesgo que cada una pueda representar. Los gobiernos y las empresas que utilicen estas herramientas estarán sujetos a diferentes obligaciones según el nivel de riesgo.

El próximo mes, el borrador del texto se presentará al pleno del PE para su aprobación antes de ser enviado a los Estados miembros de la UE para su revisión y finalización. Si bien la lista propuesta por la Comisión Europea (CE) ya incluye casos de uso de IA en la gestión de infraestructura crítica, educación, recursos humanos, orden público e inmigración, los eurodiputados también quieren agregar umbrales regulatorios que delineen las amenazas a la seguridad, la salud y los derechos fundamentales.

Japón tomará la iniciativa

Muchos países también están buscando soluciones al problema de evitar que las industrias nacionales se queden atrás y de abordar las preocupaciones de los ciudadanos en materia de privacidad.

En Asia, el primer Consejo de Estrategia de Inteligencia Artificial del gobierno japonés se convocó con el objetivo de establecer un marco para guiar el desarrollo de la IA. Al hablar ante el consejo, el primer ministro Fumio Kishida dijo: “La IA tiene el potencial de cambiar nuestra sociedad económica de manera positiva, pero también existen riesgos. “Es importante abordar ambas cuestiones adecuadamente”.

El uso de la tecnología de IA contribuirá a mejorar la competitividad industrial y a resolver problemas sociales, pero la IA debe usarse adecuadamente y deben minimizarse los riesgos para los usuarios. Hasta ahora, sin embargo, las discusiones han sido principalmente técnicas. Los expertos japoneses instaron a que en el futuro los debates se realicen desde una perspectiva más amplia, con la participación de ámbitos como los negocios y el derecho. Nikkei Asia dijo que uno de los desafíos que enfrenta Japón es cómo mejorar el nivel de desarrollo de IA doméstica mientras se enfoca en regular el uso de IA general, en el que la seguridad, la privacidad y los derechos de autor son cuestiones importantes.

La IA está empezando a alterar la vida cotidiana a medida que surgen imágenes y vídeos falsos y textos generados por robots, lo que plantea preocupaciones que van desde la seguridad nacional hasta la desinformación. Los ministros de tecnología y medios digitales del Grupo de los Siete (G7) acordaron recopilar directrices sobre el desarrollo y el uso de IA general para finales de este año. Con Japón como presidente del G7 en 2023, el Primer Ministro Kishida dijo que Japón tomará la iniciativa en la formulación de reglas internacionales para aprovechar al máximo las perspectivas y responder a los riesgos de la IA artificial.

Al igual que Japón, la Casa Blanca anunció la semana pasada que invertiría 140 millones de dólares para establecer siete centros de investigación de IA y publicar directrices sobre el uso de esta tecnología avanzada con el objetivo de crear reglas que minimicen los riesgos pero no obstaculicen el desarrollo de innovaciones en aplicaciones de IA. Al hablar ante el Consejo de Asesores sobre Ciencia y Tecnología, el presidente de Estados Unidos, Joe Biden, enfatizó que la IA puede ayudar a lidiar con algunos desafíos muy difíciles, como las enfermedades y el cambio climático, pero también debemos abordar los riesgos potenciales para la sociedad, la economía y la seguridad nacional. Las empresas de tecnología tienen la responsabilidad de garantizar que sus productos sean seguros antes de llegar al mercado.


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Sigue escribiendo el viaje de la juncia
Color de loto de Hue
Phu Quoc: unas vacaciones que despiertan los sentidos
¿Por qué el próximo éxito de taquilla vietnamita 'Blancanieves' está recibiendo una fuerte reacción del público?

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto