La declaración, emitida después de una reunión el martes, subrayó la determinación de China de lograr liderazgo global en tecnologías avanzadas y las preocupaciones sobre los posibles daños políticos y sociales de esas tecnologías.
El presidente chino, Xi Jinping. Foto: NBC
Anteriormente, científicos y líderes tecnológicos de Estados Unidos, incluidos altos ejecutivos de Microsoft y Google, también han emitido advertencias sobre los riesgos que representa la inteligencia artificial para la humanidad.
En la reunión en Beijing se discutió la necesidad de “realizar esfuerzos dedicados para salvaguardar la seguridad política y mejorar la gestión de la seguridad de los datos de Internet y la inteligencia artificial”, dijo Xinhua.
El presidente Xi Jinping ha pedido “estar siempre muy conscientes de las situaciones complejas y desafiantes que enfrenta la seguridad nacional… China necesita un nuevo modelo de desarrollo con una nueva estructura de seguridad”.
“La última reunión del Partido enfatizó la necesidad de evaluar los riesgos potenciales, tomar medidas preventivas, proteger los intereses de las personas y la seguridad nacional, y garantizar la seguridad, confiabilidad y control de la IA”, informó el Beijing Youth Daily el martes.
La preocupación de que los sistemas de inteligencia artificial se vuelvan más inteligentes que los humanos y se salgan de control está creciendo, especialmente con modelos de lenguaje de gran tamaño como ChatGPT.
Sam Altman, director ejecutivo de OpenAI, creador de ChatGPT, y Geoffrey Hinton, un científico informático conocido como el padre de la inteligencia artificial, se encuentran entre los cientos de figuras destacadas que firmaron la declaración publicada el martes en el sitio web del Centro para la Seguridad de la IA.
“Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, afirma la declaración.
Más de 1.000 investigadores y científicos, incluido Elon Musk, firmaron una carta a principios de este año pidiendo una pausa de seis meses en el desarrollo de la IA.
La carta decía que la IA plantea “riesgos profundos para la sociedad y la humanidad” y algunas partes interesadas han propuesto un tratado universal impuesto por la ONU para regular la tecnología.
China ha estado advirtiendo sobre la necesidad de regular la IA desde 2018, pero aún así ha financiado una expansión masiva en ese campo como parte de un esfuerzo pionero global.
Los riesgos de la IA se ven principalmente en su capacidad para controlar robots, armas autónomas, instrumentos financieros y computadoras que gestionan redes eléctricas, centros de atención médica, redes de transporte y otras infraestructuras críticas.
Hoang Ton (según AP)
[anuncio_2]
Fuente
Kommentar (0)