Un equipo de investigación de inteligencia artificial (IA) de la Universidad Politécnica de Valencia, España, ha descubierto que, a medida que los modelos lingüísticos grandes se vuelven más grandes y sofisticados, tienden a ser menos propensos a admitir ante los usuarios que no saben la respuesta. [anuncio_1]
Cuanto más inteligente sea la IA, menos probable será que admita ante los usuarios que no sabe la respuesta. (Imagen de ilustración AI) |
En una investigación publicada en la revista Nature , el equipo probó las últimas versiones de tres de los chatbots de IA más populares en cuanto a capacidad de respuesta, precisión y la capacidad de los usuarios para detectar respuestas incorrectas.
Para probar la precisión de los tres LLM más populares, BLOOM, LLaMA y GPT, el equipo planteó miles de preguntas y comparó las respuestas recibidas con las respuestas de versiones anteriores a las mismas preguntas. También varían en cuanto a temas, incluyendo matemáticas, ciencias, rompecabezas de palabras y geografía, así como la capacidad de crear texto o realizar acciones como ordenar listas.
Los resultados del estudio revelaron algunas tendencias notables. La precisión general de los chatbots mejora con cada nueva versión, pero aún disminuye cuando se enfrentan a preguntas más difíciles. Sorprendentemente, a medida que los LLM se vuelven más grandes y más sofisticados, tienden a ser menos abiertos sobre su capacidad para responder correctamente.
En versiones anteriores, la mayoría de los LLM eran sinceros con los usuarios cuando no podían encontrar una respuesta o necesitaban más información. Por el contrario, las versiones más nuevas tienden a adivinar más, lo que resulta en más respuestas en general, incluidas tanto correctas como incorrectas. Más preocupante aún es que el estudio encontró que todos los LLM todavía ocasionalmente daban respuestas incorrectas incluso a preguntas fáciles, lo que sugiere que su confiabilidad sigue siendo un problema que necesita mejoras.
Estos hallazgos resaltan una paradoja en la evolución de la IA: si bien los modelos se están volviendo más poderosos, también pueden volverse menos transparentes respecto de sus limitaciones.
Esto plantea nuevos desafíos en el uso y la confianza de los sistemas de IA, lo que requiere que los usuarios sean más cautelosos y que los desarrolladores se centren en mejorar no solo la precisión sino también la “autoconciencia” de los modelos.
[anuncio_2]
Fuente: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
Kommentar (0)