Los dos modelos ChatGPT recién lanzados tienen una mayor frecuencia de fabricación de información que la generación anterior. Foto: Luciérnagas . |
Tan solo dos días después de anunciar GPT-4.1, OpenAI lanzó oficialmente no uno sino dos nuevos modelos, llamados o3 y o4-mini. Ambos modelos demuestran capacidades de inferencia superiores con muchas mejoras poderosas.
Sin embargo, según TechCrunch , este nuevo dúo de modelos aún adolece de "alucinaciones" o información autoproclamada. Incluso “alucinan” más que algunos de los modelos más antiguos de OpenAI.
Según IBM, las alucinaciones ocurren cuando un modelo de lenguaje grande (LLM), generalmente un chatbot o una herramienta de visión artificial, recibe patrones de datos que no existen o que son irreconocibles para los humanos, lo que genera resultados sin sentido o engañosos.
En otras palabras, los usuarios a menudo piden a la IA que genere resultados precisos, basados en los datos de entrenamiento. Sin embargo, en algunos casos los resultados de la IA no se basan en datos precisos, lo que crea respuestas "ilusorias".
En su último informe, OpenAI descubrió que o3 "alucinaba" al responder el 33% de las preguntas en PersonQA, el punto de referencia interno de la empresa para medir la precisión del conocimiento que un modelo tiene de los humanos.
A modo de comparación, esto es el doble de la tasa de “alucinación” de los modelos de razonamiento anteriores de OpenAI, o1 y o3-mini, que eran del 16% y 14,8%, respectivamente. Mientras tanto, el modelo O4-mini obtuvo resultados aún peores en PersonQA, experimentando "alucinaciones" durante hasta el 48% de la duración de la prueba.
Lo más preocupante es que el "padre de ChatGPT" no sabe realmente por qué sucede esto. En concreto, en el informe técnico sobre o3 y o4-mini, OpenAI escribe que "se necesita más investigación para entender por qué la 'ilusión' empeora" a medida que se escalan los modelos de razonamiento.
El o3 y el o4-mini tienen un mejor desempeño en algunas áreas, incluidas las tareas relacionadas con la programación y las matemáticas. Sin embargo, debido a la necesidad de "hacer más afirmaciones que generalizar", ambos modelos sufren el problema de producir resultados que incluyen "afirmaciones más precisas, pero también afirmaciones más inexactas".
Fuente: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html
Kommentar (0)