Le professeur Andrew Ng est l’un des fondateurs de Google Brain. Photo : Coursera . |
Dans un article sur X, M. Ng appelle cette méthode « invite paresseuse » – c’est-à-dire alimenter l’IA en informations avec peu de contexte ou sans instructions spécifiques. « Nous ne devrions ajouter des détails à l'invite que lorsque cela est absolument nécessaire », a déclaré le cofondateur de Coursera et de DeepLearning.
L'exemple typique donné par Ng est celui des programmeurs lors du débogage. Ils copient et collent souvent des messages d’erreur entiers – parfois de plusieurs pages – dans des modèles d’IA sans indiquer explicitement la demande.
« La plupart des grands modèles de langage (LLM) sont suffisamment intelligents pour comprendre ce que vous devez analyser et suggérer des correctifs, même si vous ne le dites pas explicitement », écrit-il.
Selon Ng, il s'agit d'un pas en avant qui montre que LLM va progressivement au-delà de la capacité à répondre à des commandes simples, commençant à comprendre les intentions et le raisonnement de l'utilisateur pour fournir des solutions appropriées - une tendance que poursuivent les entreprises développant des modèles d'IA.
Cependant, les « incitations paresseuses » ne sont pas toujours efficaces. Ng note que cette technique ne doit être utilisée que lorsque les utilisateurs peuvent tester rapidement, par exemple via l'interface Web ou l'application de l'IA, et que le modèle est suffisamment capable de déduire l'intention à partir de peu d'informations.
« Si l’IA a besoin de beaucoup de contexte pour répondre en détail, ou ne peut pas reconnaître les erreurs potentielles, alors une simple invite ne sera d’aucune aide », a souligné Ng.
En théorie, « l'invite paresseuse » permet d'économiser du temps et des efforts, en particulier pour les personnes qui ne sont pas habituées à écrire des commandes détaillées. Cependant, ce n’est pas un « raccourci » pour tout le monde.
Les utilisateurs ordinaires, qui ne sont pas habitués à penser de manière définie par une machine, peuvent rencontrer des difficultés lorsque l’invite est trop vague, ce qui conduit à des résultats inattendus. À moins que l’IA ne soit familière avec un contexte spécifique (comme une conversation précédente) ou que l’utilisateur ait l’expérience d’itérer et d’ajuster rapidement la demande, il est peu probable que cette méthode soit efficace.
En attendant, pour les programmeurs ou les personnes qui travaillent beaucoup avec l'IA, raccourcir l'invite aide parfois le modèle à ne pas être « bruyant » à cause de trop d'instructions redondantes. Ainsi, Ng souligne qu’il s’agit d’une technique avancée, adaptée à ceux qui comprennent déjà la réactivité du modèle.
Source : https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
Comment (0)