(Dan Tri) – Die Datenmenge, die zum Trainieren künstlicher Intelligenz verwendet wird, ist fast erschöpft, sodass Forscher dazu gezwungen sind, KI zu nutzen, um sich gegenseitig zu trainieren. Dies könnte der Durchbruch sein, der der KI hilft, die menschliche Intelligenz zu übertreffen.
Elon Musk schlägt neue Wege zur Entwicklung künstlicher Intelligenz vor, die gefährlich sein könnten
Der Tech-Milliardär Elon Musk, Gründer des Künstliche-Intelligenz-Unternehmens xAI, hat gerade schockierende Informationen über den Prozess des Trainings und der Ausbildung von Modellen künstlicher Intelligenz (KI) veröffentlicht.
„Wir haben mittlerweile das menschliche Wissen bei der Ausbildung und Schulung von KI erschöpft. Das ist im Grunde schon seit letztem Jahr passiert“, antwortete Elon Musk in einem am 9. Januar live im sozialen Netzwerk X übertragenen Interview.
KI-Modelle wie GPT-4, Gemini, Grok oder Llama ... werden auf der Grundlage großer Datenmengen trainiert, die aus dem Internet, aus wissenschaftlichen Zeitschriften, veröffentlichten Studien, Benutzerdaten in sozialen Netzwerken usw. gesammelt wurden.
Elon Musk schlägt vor, KI-Daten zum Trainieren von KI zu verwenden, was jedoch viele potenzielle Risiken birgt (Abbildung: Getty).
Allerdings schreiten die Entwicklungen bei KI-Modellen so schnell voran, dass die Menge der verfügbaren Daten nicht mehr ausreicht, um diese KI-Modelle zu trainieren und ihre Intelligenz zu verbessern.
Um dieses Problem zu überwinden, hat Elon Musk eine Lösung vorgeschlagen, die darin besteht, zum Trainieren von KI-Modellen auf die Nutzung von von der KI selbst generierten Daten umzusteigen. Mit anderen Worten: KI kann sich selbst und andere trainieren, ohne auf vom Menschen bereitgestellte Daten angewiesen zu sein.
„Die einzige Möglichkeit, dieses Problem zu beheben, besteht darin, die von den KI-Modellen selbst generierten synthetischen Daten zu ergänzen und diese Daten zu verwenden, um die KI selbst zu trainieren“, teilte Elon Musk mit.
Selbstlernende KI-Systeme auf der Grundlage synthetischer Daten, die von der KI selbst generiert werden, werden dazu beitragen, Entwicklungskosten zu sparen und die Abhängigkeit von menschlichen Daten zu verringern. Dies hat bei vielen die Sorge ausgelöst, dass die KI sich selbst trainieren könnte, um die menschliche Intelligenz zu übertreffen und sich so der Kontrolle der Menschheit zu entziehen.
Experten für künstliche Intelligenz weisen jedoch darauf hin, dass die Verwendung synthetischer Daten, die von der KI selbst generiert werden, zum Trainieren von KI-Modellen zum Zusammenbruch dieser Modelle führen kann, wenn den generierten Daten Kreativität fehlt, sie verzerrt sind und nicht mit den neuesten Daten aktualisiert werden.
„Wenn Sie synthetische Daten zum Trainieren von KI-Modellen verwenden, verschlechtert sich deren Leistung allmählich und die Ausgabedaten sind wenig inspirierend und verzerrt“, sagte Andrew Duncan, KI-Direktor am Alan Turing Institute in Großbritannien.
Hochwertige Daten werden als unschätzbar wertvolle „Ressourcenmine“ betrachtet, um die KI-Entwicklungsunternehmen konkurrieren. Allerdings sind nicht alle Wissenschaftler bereit, ihre Forschungsergebnisse für das Training von KI-Modellen zur Verfügung zu stellen.
Google ist es gelungen, eine KI zu entwickeln, die genau wie Menschen denkt und handelt
Stellen Sie sich vor, Sie hätten die Möglichkeit, die Persönlichkeit, Einstellungen und den Stil einer Person zu bestimmen und dann eine KI-Kopie dieser Person zu erstellen.
Dies ist keine Science-Fiction, sondern das eigentliche Ziel einer bahnbrechenden Studie von Forschern der Stanford University und von Google.
In nur zwei Stunden Interview kann Google eine KI erstellen, die genau wie Sie denkt und handelt (Foto: ZipRecruiter).
Die Forscher erstellten eine KI-Replik von mehr als 1.000 Teilnehmern und verwendeten dazu Informationen aus Interviews, die nur zwei Stunden dauerten. Diese KIs können menschliches Verhalten nachahmen.
Das Anwendungspotential dieser Erfindung ist riesig. Politiker und Unternehmen könnten diese KI-Simulation nutzen, um die Reaktion der Öffentlichkeit auf neue Richtlinien oder Produkte vorherzusagen, anstatt sich ausschließlich auf Fokusgruppen oder wiederholte Umfragen zu verlassen.
Forscher sind davon überzeugt, dass die Technologie dabei helfen könnte, soziale Strukturen zu erforschen, Interventionen zu erproben und differenzierte Theorien des menschlichen Verhaltens zu entwickeln.
Allerdings sind damit auch einige Risiken verbunden, etwa ethische Bedenken hinsichtlich des Missbrauchs von KI-Klonen. Böse Akteure könnten diese KI ausnutzen, um die öffentliche Meinung zu manipulieren, sich als Einzelpersonen auszugeben oder auf der Grundlage gefälschter aggregierter Daten öffentliche Bestrebungen vorzutäuschen.
Diese Bedenken gehen auch mit der seit langem bestehenden Besorgnis vieler einher, dass die Verbreitung ähnlicher KI-Modelle negative Auswirkungen auf die Zukunft der Menschheit haben könnte.
[Anzeige_2]
Quelle: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
Kommentar (0)