El documento “Frontier AI Framework” identifica dos tipos de sistemas de IA que Meta considera que no deben publicarse: “alto riesgo” y “riesgo severo”. Esto demuestra que la empresa matriz Facebook es más cautelosa con la tecnología de IA.

Anteriormente, el director ejecutivo Mark Zuckerberg se comprometió a hacer que la inteligencia artificial general (AGI) fuera algo común.

Búsqueda profunda TechCrunch
Meta identifica dos tipos de sistemas de IA que podrían no lanzarse porque son demasiado riesgosos. Foto: TechCrunch

Según la definición de Meta, tanto los sistemas de “alto riesgo” como los de “riesgo severo” pueden soportar ataques cibernéticos, biológicos y químicos, pero la diferencia es que los sistemas de “riesgo severo” conducen a “consecuencias catastróficas absolutas”.

Meta sugiere una serie de escenarios, como infiltrarse automáticamente en un entorno corporativo bien protegido o propagar un arma biológica de alto impacto.

Éstos son los escenarios “más urgentes” que la firma cree que podrían surgir con el lanzamiento de un potente sistema de IA.

La clasificación del sistema no se basa en ninguna prueba empírica, sino en aportaciones de expertos internos y externos.

Si se determina que un sistema es de “alto riesgo”, Meta restringirá el acceso al sistema internamente y no lo lanzará hasta que se implementen medidas de mitigación para reducir el riesgo a un nivel moderado.

Por otro lado, si un sistema se identifica como de “riesgo crítico”, Meta aplicará protecciones no especificadas para evitar que el sistema se vea comprometido y detendrá el desarrollo hasta que se vuelva menos peligroso.

Según TechCrunch, el Frontier AI Framework parece estar destinado a mitigar las críticas dirigidas al enfoque abierto de Meta para el desarrollo de sistemas.

Meta a menudo hace público el código fuente de su tecnología de IA, en lugar de cerrarlo como OpenAI. Para las empresas, el enfoque abierto tiene ventajas y desventajas. El modelo de inteligencia artificial Llama de la compañía se ha descargado cientos de millones de veces, pero también se dice que Llama ha sido explotado para desarrollar un chatbot hostil a Estados Unidos.

Al anunciar Frontier AI Framework, Meta puede estar apuntando a DeepSeek, la startup de inteligencia artificial china más famosa de la actualidad. DeepSeek también sigue una estrategia de inteligencia artificial de código abierto, pero no tiene muchas protecciones y se modifica fácilmente para generar resultados maliciosos.

Según Meta, al sopesar los pros y los contras a la hora de tomar decisiones sobre cómo desarrollar y aplicar una IA avanzada, la tecnología puede servir a la sociedad de una manera que mantenga los beneficios y un nivel de riesgo apropiado.

(Según TechCrunch)