Professor Andrew Ng ist einer der Gründer von Google Brain. Foto: Coursera . |
In einem Beitrag auf X nennt Herr Ng diese Methode „ Lazy Prompting “ , also das Einspeisen von Informationen in die KI mit wenig Kontext oder ohne spezifische Anweisungen. „Wir sollten der Eingabeaufforderung nur dann Details hinzufügen, wenn es unbedingt notwendig ist“, sagte der Mitbegründer von Coursera und DeepLearning.
Das typische Beispiel, das Ng anführt, sind Programmierer beim Debuggen. Sie kopieren und fügen häufig ganze Fehlermeldungen – manchmal mehrere Seiten lang – in KI-Modelle ein, ohne die Anfrage explizit zu formulieren.
„Die meisten großen Sprachmodelle (LLMs) sind intelligent genug, um zu verstehen, was Sie von ihnen analysieren lassen möchten, und um Korrekturen vorzuschlagen, auch wenn Sie das nicht ausdrücklich sagen“, schreibt er.
Laut Ng ist dies ein Fortschritt, der zeigt, dass LLM allmählich über die Fähigkeit hinausgeht, auf einfache Befehle zu reagieren, und beginnt, die Absichten und Überlegungen des Benutzers zu verstehen, um entsprechende Lösungen bereitzustellen – ein Trend, dem Unternehmen, die KI-Modelle entwickeln, folgen.
Allerdings ist „faules Auffordern“ nicht immer effektiv. Ng weist darauf hin, dass diese Technik nur verwendet werden sollte, wenn Benutzer schnell testen können, etwa über die Weboberfläche oder App der KI, und das Modell in der Lage ist, aus wenigen Informationen auf die Absicht zu schließen.
„Wenn KI viel Kontext benötigt, um detailliert zu reagieren, oder potenzielle Fehler nicht erkennen kann, hilft eine einfache Eingabeaufforderung nicht weiter“, betonte Ng.
Theoretisch spart „Lazy Prompting“ Zeit und Mühe, insbesondere für Personen, die es nicht gewohnt sind, detaillierte Befehle zu schreiben. Allerdings ist es nicht für jeden eine „Abkürzung“.
Normale Benutzer, die es nicht gewohnt sind, maschinendefiniert zu denken, haben möglicherweise Probleme, wenn die Eingabeaufforderung zu vage ist und zu unerwarteten Ergebnissen führt. Sofern die KI nicht mit einem bestimmten Kontext vertraut ist (z. B. einem vorherigen Chat) oder der Benutzer keine Erfahrung mit der Iteration und schnellen Anpassung der Anfrage hat, ist diese Methode wahrscheinlich nicht effektiv.
Für Programmierer oder Personen, die viel mit KI arbeiten, ist es manchmal hilfreich, die Eingabeaufforderung zu verkürzen, damit das Modell nicht aufgrund zu vieler redundanter Anweisungen „verrauscht“ wird. Daher betont Ng, dass es sich hierbei um eine fortgeschrittene Technik handelt, die für diejenigen geeignet ist, die die Reaktionsfähigkeit des Modells bereits verstehen.
Quelle: https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
Kommentar (0)