Según fuentes de Tech.co , mientras se desarrollaba la polémica sobre el despido del CEO Sam Altman y su posterior regreso a OpenAI, uno de los rumores era sobre una carta enviada por los investigadores de la compañía a la junta directiva, expresando preocupaciones sobre el modelo de superinteligencia de IA que se está desarrollando y que potencialmente podría representar una amenaza para la humanidad.
(Ilustración)
Proyecto Q*
Se dice que el modelo, conocido internamente como Proyecto Q* (pronunciado Q-star), representa un gran avance en la búsqueda de OpenAI de la inteligencia artificial general (AGI), una rama altamente autónoma de la superinteligencia capaz de aprendizaje acumulativo y superar a los humanos en la mayoría de las tareas.
Q* podría marcar un gran avance en inteligencia artificial al mejorar radicalmente las capacidades de razonamiento de la IA y acercar a OpenAI a un gran avance en el desarrollo de la IAG, según personas familiarizadas con el asunto.
A diferencia de los modelos de IA actuales, que se centran en la capacidad de generar respuestas basadas en información previamente aprendida, la AGI es un sistema autónomo que puede aplicar la “razón” a las decisiones, lo que le otorga capacidades de resolución de problemas a nivel humano.
Aunque la IA general aún no se ha realizado plenamente, muchos expertos creen que la tecnología también tendrá la capacidad de aprender de forma acumulativa, otro rasgo que otorga a los humanos la capacidad de mejorar sus habilidades.
Algunas fuentes afirman que Q* -el proyecto de OpenAI- ha podido demostrar las propiedades mencionadas anteriormente al resolver problemas. No sólo eso, gracias al enorme poder computacional del modelo, Q* pudo superar a los estudiantes de primaria, demostrando habilidades de razonamiento y capacidades cognitivas significativamente más allá de las capacidades de la tecnología de IA actual.
No está claro cuánto tiempo ha estado Q* en desarrollo y cuáles podrían ser sus aplicaciones, pero OpenAI informó a los empleados y miembros de la junta sobre el proyecto antes de que estallara el escándalo de personal.
Preocupaciones éticas
Si bien el director ejecutivo de OpenAI, Sam Altman, confía en que la tecnología IGI impulsará la innovación, algunos investigadores se han apresurado a señalar los peligros potenciales del proyecto.
En una carta a la junta, los investigadores advirtieron sobre los peligros potenciales de este poderoso algoritmo para la humanidad. Las preocupaciones éticas específicas sobre la IA descritas en la carta no fueron reveladas, pero las advertencias fueron suficientes para justificar la decisión de la junta de despedir a Altman.
Mientras tanto, la razón inicial dada para despedir a Altman fue porque el CEO “se comunicaba mal”. No mucho después, encontró un nuevo puesto en Microsoft. La medida provocó que 700 de los 770 empleados de OpenAI amenazaran con hacer lo mismo si el director ejecutivo no era reinstalado.
Con la empresa en peligro de colapso, la junta directiva de OpenAI se vio obligada a restituir a Altman en el puesto principal, lo que también condujo a una importante revisión del equipo ejecutivo de la empresa y puso de relieve profundas divisiones dentro de su liderazgo.
Ahora que Altman ha regresado al cargo y es probable que el Proyecto Q* vuelva a recibir luz verde, surgen nuevas preguntas.
¿Qué tan realista es el Proyecto Q*?
Si bien los días tumultuosos en OpenAI han puesto el concepto de AGI en el centro de atención, esta no es la primera vez que Altman menciona la tecnología.
En septiembre, el empresario de Silicon Valley se encontró en problemas después de comparar a AGI con “un ser humano promedio que podrías contratar como compañero de trabajo”. Continuó confirmando comentarios que hizo el año pasado sobre cómo esta IA podría “hacer todo lo que usted puede hacer con un colega remoto”, incluido aprender a ser un buen médico y programador.
Si bien comparar la IAG con la inteligencia de un “humano promedio” no es nada nuevo, el uso de la frase por parte de Altman fue considerado “aborrecible” por el especialista en ética de IA y profesor de la Universidad de Cambridge Henry Shevlin, a medida que aumentan las preocupaciones sobre el impacto de la IA en la seguridad laboral.
Los posibles avances en IAG también están haciendo sonar las alarmas para otros investigadores: la tecnología se está desarrollando más rápido de lo que los humanos pueden comprender plenamente su impacto.
OpenAI cree que los resultados positivos de la IAG hacen que valga la pena intentar este arriesgado "campo minado". Sin embargo, a medida que la compañía continúa avanzando en esta dirección, a muchos les preocupa que Altman esté priorizando el éxito comercial por encima de los intereses de los usuarios y la sociedad.
Phuong Anh (Fuente: Tech.co, The Guardian)
Fuente
Kommentar (0)