El profesor Andrew Ng es uno de los fundadores de Google Brain. Foto: Coursera . |
En una publicación en X, el Sr. Ng llama a este método “ indicación perezosa ” , es decir, introducir información en la IA con poco contexto o sin instrucciones específicas. “Solo deberíamos agregar detalles al mensaje cuando sea absolutamente necesario”, afirmó el cofundador de Coursera y DeepLearning.
El ejemplo típico que da Ng son los programadores al depurar. A menudo copian y pegan mensajes de error completos, a veces de varias páginas, en modelos de IA sin indicar explícitamente la solicitud.
“La mayoría de los modelos de lenguaje grandes (LLM) son lo suficientemente inteligentes como para entender lo que necesitas que analicen y sugerir soluciones, incluso si no lo dices explícitamente”, escribe.
Según Ng, este es un paso adelante que muestra que LLM está yendo gradualmente más allá de la capacidad de responder a comandos simples, comenzando a comprender las intenciones y el razonamiento del usuario para brindar soluciones apropiadas, una tendencia que las empresas que desarrollan modelos de IA están siguiendo.
Sin embargo, la “instrucción perezosa” no siempre es efectiva. Ng señala que esta técnica solo debe usarse cuando los usuarios pueden realizar pruebas rápidamente, como a través de la interfaz web o la aplicación de la IA, y el modelo es lo suficientemente capaz de inferir la intención a partir de poca información.
“Si la IA necesita mucho contexto para responder con detalle o no puede reconocer posibles errores, una simple indicación no servirá de nada”, enfatizó Ng.
En teoría, la "instrucción perezosa" ahorra tiempo y esfuerzo, especialmente para las personas que no están acostumbradas a escribir comandos detallados. Sin embargo, no es un "atajo" para todos.
Los usuarios comunes, que no están acostumbrados a pensar de una manera definida por máquinas, pueden tener problemas cuando la instrucción es demasiado vaga, lo que conduce a resultados inesperados. A menos que la IA esté familiarizada con un contexto específico (como un chat anterior), o el usuario tenga experiencia en iterar y ajustar rápidamente la solicitud, es poco probable que este método sea efectivo.
Mientras tanto, para los programadores o las personas que trabajan mucho con IA, acortar el mensaje a veces ayuda a que el modelo no sea "ruidoso" debido a demasiadas instrucciones redundantes. Entonces, Ng enfatiza que esta es una técnica avanzada, adecuada para aquellos que ya entienden la capacidad de respuesta del modelo.
Fuente: https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
Kommentar (0)