Vietnam.vn - Nền tảng quảng bá Việt Nam

Kann KI wirklich denken?

Unternehmen wie OpenAI und DeepSeek entwickeln logische Chatbots, die bei manchen Rechenaufgaben bessere Leistungen erbringen können.

Zing NewsZing News06/04/2025

Der Chatbot von OpenAI wird durch neue Technologien ständig verbessert. Foto: New York Times .

Im September 2024 veröffentlichte OpenAI eine Version von ChatGPT, die das o1-Modell integriert, das über Aufgaben aus den Bereichen Mathematik, Naturwissenschaften und Computerprogrammierung nachdenken kann.

Anders als die vorherige Version von ChatGPT wird sich die neue Technologie Zeit nehmen, um über Lösungen für komplexe Probleme nachzudenken, bevor sie eine Antwort gibt.

Nach OpenAI führten auch viele Konkurrenten wie Google, Anthropic und DeepSeek ähnliche Argumentationsmodelle ein. Obwohl nicht perfekt, handelt es sich dennoch um eine Chatbot-Upgrade-Technologie, der viele Entwickler vertrauen.

Wie KI argumentiert

Grundsätzlich bedeutet Reasoning, dass der Chatbot mehr Zeit damit verbringen kann, das vom Benutzer gestellte Problem zu lösen.

„Beim Schlussfolgern arbeitet das System weiter, nachdem es eine Frage erhalten hat“, sagte Dan Klein, Professor für Informatik an der University of California in Berkeley, der New York Times .

Das Denksystem kann ein Problem in einzelne Schritte zerlegen oder es durch Versuch und Irrtum lösen.

Bei seiner Einführung konnte ChatGPT Fragen sofort beantworten, indem es Informationen extrahierte und synthetisierte. In der Zwischenzeit benötigt das Denksystem einige Sekunden (oder sogar Minuten) mehr, um das Problem zu lösen und zu reagieren.

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 1

Beispiel für den Denkprozess des O1-Modells im Kundendienst-Chatbot. Foto: OpenAI .

In einigen Fällen ändert das Denksystem seine Herangehensweise an das Problem und verbessert die Lösung kontinuierlich. Darüber hinaus kann das Modell mehrere Lösungen testen, bevor eine optimale Wahl getroffen wird, oder die Genauigkeit vorheriger Antworten überprüfen.

Im Allgemeinen berücksichtigt das Argumentationssystem alle möglichen Antwortmöglichkeiten auf die Frage. Das ist vergleichbar mit Grundschülern, die viele Möglichkeiten auf Papier schreiben, bevor sie sich für die am besten geeignete Lösung eines Matheproblems entscheiden.

Laut der New York Times ist KI heute in der Lage, über jedes Thema nachzudenken. Am effektivsten ist die Aufgabe jedoch bei Fragen aus den Bereichen Mathematik, Naturwissenschaften und Computerprogrammierung.

Wie wird das theoretische System trainiert?

Bei einem normalen Chatbot können Benutzer immer noch nach einer Erklärung eines Vorgangs fragen oder die Richtigkeit einer Antwort überprüfen. Tatsächlich enthalten viele ChatGPT-Trainingsdatensätze bereits ein Problemlösungsverfahren.

Das Schlussfolgerungssystem ist noch fortschrittlicher, wenn es eine Operation ausführen kann, ohne dass der Benutzer danach fragt. Dieser Prozess ist komplexer und umfangreicher. Unternehmen verwenden den Begriff „Argumentation“, da das System ähnlich wie das menschliche Denken funktioniert.

Viele Unternehmen wie OpenAI gehen davon aus, dass Schlussfolgerungssysteme heute die beste Lösung zur Verbesserung von Chatbots darstellen. Jahrelang glaubte man, dass Chatbots besser funktionieren, wenn sie mit möglichst vielen Informationen aus dem Internet trainiert werden.

Bis 2024 werden KI-Systeme nahezu den gesamten im Internet verfügbaren Text verarbeitet haben. Das bedeutet, dass Unternehmen neue Lösungen finden müssen, um Chatbots, einschließlich Argumentationssysteme, zu verbessern.

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 2

Das Startup DeepSeek sorgte einst mit einem Schlussfolgerungsmodell, das weniger kostete als OpenAI, für „Fieber“. Foto: Bloomberg .

Seit letztem Jahr konzentrieren sich Unternehmen wie OpenAI auf Techniken des bestärkenden Lernens. Dieser Prozess dauert typischerweise mehrere Monate, in denen die KI das Verhalten durch Versuch und Irrtum erlernt.

Beispielsweise kann das System durch das Lösen Tausender von Problemen die optimale Methode erlernen, um die richtige Antwort zu geben. Darauf aufbauend bauten die Forscher einen komplexen Feedback-Mechanismus auf, der dem System hilft, richtige und falsche Lösungen zu erkennen.

„Es ist wie das Trainieren eines Hundes. Wenn es gut klappt, gibt man ihm ein Leckerli. Wenn es nicht klappt, sagt man: ‚Der Hund ist böse‘“, sagte Jerry Tworek, Forscher bei OpenAI.

Ist KI die Zukunft?

Laut der New York Times eignen sich Techniken des bestärkenden Lernens gut für die Anforderungen in Mathematik, Naturwissenschaften und Computerprogrammierung. Dies ist ein Bereich, in dem es eine klare richtige oder falsche Antwort gibt.

Im Gegensatz dazu ist bestärkendes Lernen im kreativen Schreiben, in der Philosophie oder in der Ethik nicht effektiv, also in Bereichen, in denen es schwierig ist, zwischen Gut und Böse zu unterscheiden. Dennoch behaupten die Forscher, dass die Technik die Leistung von KI noch verbessern kann, sogar bei Fragen, die über die Mathematik hinausgehen.

„Systeme werden die Wege lernen, die zu positiven und negativen Ergebnissen führen“, sagte Jared Kaplan, Chief Science Officer bei Anthropic.

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 3

Website von Anthropic, dem Startup, dem das KI-Modell Claude gehört. Foto: Bloomberg .

Es ist wichtig zu beachten, dass es sich bei bestärkendem Lernen und Schlussfolgerungssystemen um zwei unterschiedliche Konzepte handelt. Genauer gesagt ist bestärkendes Lernen eine Methode zum Aufbau eines theoretischen Systems. Dies ist die letzte Trainingsphase für den Chatbot, um schlussfolgern zu können.

Da es sich noch um ein relativ neues Verfahren handelt, können Wissenschaftler noch nicht mit Sicherheit sagen, ob schlussfolgernde Chatbots oder bestärkendes Lernen der KI dabei helfen können, wie Menschen zu denken. Es ist erwähnenswert, dass viele aktuelle KI-Trainingstrends zunächst sehr schnell wachsen und sich dann verlangsamen.

Darüber hinaus können auch logische Chatbots Fehler machen. Basierend auf der Wahrscheinlichkeit wählt das System den Prozess aus, der den erlernten Daten am nächsten kommt, unabhängig davon, ob diese aus dem Internet stammen oder durch bestärkendes Lernen gewonnen wurden. Daher kann es immer noch vorkommen, dass der Chatbot die falsche oder unvernünftige Lösung wählt.

Quelle: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html


Kommentar (0)

No data
No data

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt