Vietnam.vn - Nền tảng quảng bá Việt Nam

Advertencia sobre las alucinaciones de ChatGPT

Estudios recientes han demostrado que GPT o3 y o4-mini, los modelos más potentes del portafolio de OpenAI, están fabricando incluso más información falsa que sus predecesores.

Zing NewsZing News20/04/2025

Los dos modelos ChatGPT recién lanzados tienen una mayor frecuencia de fabricación de información que la generación anterior. Foto: Luciérnagas .

Tan solo dos días después de anunciar GPT-4.1, OpenAI lanzó oficialmente no uno sino dos nuevos modelos, llamados o3 y o4-mini. Ambos modelos demuestran capacidades de inferencia superiores con muchas mejoras poderosas.

Sin embargo, según TechCrunch , este nuevo dúo de modelos aún adolece de "alucinaciones" o información autoproclamada. Incluso “alucinan” más que algunos de los modelos más antiguos de OpenAI.

Según IBM, las alucinaciones ocurren cuando un modelo de lenguaje grande (LLM), generalmente un chatbot o una herramienta de visión artificial, recibe patrones de datos que no existen o que son irreconocibles para los humanos, lo que genera resultados sin sentido o engañosos.

En otras palabras, los usuarios a menudo piden a la IA que genere resultados precisos, basados ​​en los datos de entrenamiento. Sin embargo, en algunos casos los resultados de la IA no se basan en datos precisos, lo que crea respuestas "ilusorias".

En su último informe, OpenAI descubrió que o3 "alucinaba" al responder el 33% de las preguntas en PersonQA, el punto de referencia interno de la empresa para medir la precisión del conocimiento que un modelo tiene de los humanos.

A modo de comparación, esto es el doble de la tasa de “alucinación” de los modelos de razonamiento anteriores de OpenAI, o1 y o3-mini, que eran del 16% y 14,8%, respectivamente. Mientras tanto, el modelo O4-mini obtuvo resultados aún peores en PersonQA, experimentando "alucinaciones" durante hasta el 48% de la duración de la prueba.

Lo más preocupante es que el "padre de ChatGPT" no sabe realmente por qué sucede esto. En concreto, en el informe técnico sobre o3 y o4-mini, OpenAI escribe que "se necesita más investigación para entender por qué la 'ilusión' empeora" a medida que se escalan los modelos de razonamiento.

El o3 y el o4-mini tienen un mejor desempeño en algunas áreas, incluidas las tareas relacionadas con la programación y las matemáticas. Sin embargo, debido a la necesidad de "hacer más afirmaciones que generalizar", ambos modelos sufren el problema de producir resultados que incluyen "afirmaciones más precisas, pero también afirmaciones más inexactas".

Fuente: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Kommentar (0)

No data
No data

Misma categoría

Muchas playas de Phan Thiet están cubiertas de cometas, impresionando a los turistas.
Desfile militar ruso: ángulos "absolutamente cinematográficos" que dejaron atónitos a los espectadores
Vea el espectacular desempeño de los aviones de combate rusos en el 80.º aniversario del Día de la Victoria.
Cuc Phuong en temporada de mariposas: cuando el viejo bosque se transforma en un país de hadas

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto