Ein Forschungsteam für künstliche Intelligenz (KI) an der Polytechnischen Universität Valencia (Spanien) hat herausgefunden, dass große Sprachmodelle, je größer und ausgefeilter sie werden, immer seltener dazu neigen, den Benutzern gegenüber zuzugeben, dass sie die Antwort nicht wissen. [Anzeige_1]
Je intelligenter die KI wird, desto unwahrscheinlicher ist es, dass sie den Benutzern gegenüber zugibt, dass sie die Antwort nicht weiß. (Illustrationsbild AI) |
In einer im Fachmagazin Nature veröffentlichten Studie testete das Team die neuesten Versionen von drei der beliebtesten KI-Chatbots auf Reaktionsfähigkeit, Genauigkeit und die Fähigkeit der Benutzer, falsche Antworten zu erkennen.
Um die Genauigkeit der drei beliebtesten LLMs BLOOM, LLaMA und GPT zu testen, stellte das Team Tausende von Fragen und verglich die erhaltenen Antworten mit Antworten aus früheren Versionen auf dieselben Fragen. Sie behandeln auch unterschiedliche Themen, darunter Mathematik, Naturwissenschaften, Worträtsel und Geographie, und bieten außerdem die Möglichkeit, Texte zu erstellen oder Aktionen wie das Sortieren von Listen auszuführen.
Die Studienergebnisse zeigten einige bemerkenswerte Trends. Die Gesamtgenauigkeit von Chatbots verbessert sich mit jeder neuen Version, sinkt jedoch immer noch bei schwierigeren Fragen. Überraschenderweise gehen LL.M.-Studierende mit zunehmendem Umfang und höherer Komplexität immer weniger offen mit ihrer Fähigkeit um, die Fragen richtig zu beantworten.
In früheren Versionen waren die meisten LLMs den Benutzern gegenüber offen, wenn sie eine Antwort nicht finden konnten oder weitere Informationen benötigten. Im Gegensatz dazu wird bei neueren Versionen mehr geraten, was insgesamt zu mehr Antworten führt, sowohl richtigen als auch falschen. Noch beunruhigender ist das Ergebnis der Studie, dass alle LLMs selbst auf einfache Fragen gelegentlich noch falsche Antworten gaben. Das deutet darauf hin, dass ihre Zuverlässigkeit weiterhin verbesserungswürdig ist.
Diese Erkenntnisse verdeutlichen ein Paradoxon in der Entwicklung der KI: Die Modelle werden zwar immer leistungsfähiger, ihre Grenzen werden jedoch möglicherweise auch weniger transparent.
Dies bringt neue Herausforderungen für die Nutzung und das Vertrauen in KI-Systeme mit sich. Die Benutzer müssen vorsichtiger sein und die Entwickler müssen sich darauf konzentrieren, nicht nur die Genauigkeit, sondern auch das „Selbstbewusstsein“ der Modelle zu verbessern.
[Anzeige_2]
Quelle: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
Kommentar (0)