Das „Superintelligenz“-Modell hinter dem OpenAI-Skandal

VTC NewsVTC News01/12/2023

[Anzeige_1]

Quellen von Tech.co zufolge gab es während der Kontroverse um die Entlassung von CEO Sam Altman und dessen anschließende Rückkehr zu OpenAI Gerüchte über einen Brief der Forscher des Unternehmens an den Vorstand, in dem diese ihre Bedenken über das in der Entwicklung befindliche Modell einer KI-Superintelligenz zum Ausdruck brachten, das möglicherweise eine Bedrohung für die Menschheit darstellen könnte.

(Illustration)

(Illustration)

Projekt Q*

Das Modell, das intern als Projekt Q* (ausgesprochen „Q-star“) bekannt ist, soll einen großen Durchbruch bei OpenAIs Streben nach künstlicher allgemeiner Intelligenz (AGI) darstellen – einem hochautonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und den Menschen bei den meisten Aufgaben übertrifft.

Q* könnte einen großen Sprung nach vorne in der künstlichen Intelligenz bedeuten, indem es die Denkfähigkeiten der KI radikal verbessert und OpenAI einem großen Durchbruch in der Entwicklung künstlicher Intelligenz näher bringt, sagen mit der Angelegenheit vertraute Personen.

Im Gegensatz zu aktuellen KI-Modellen, die sich auf die Fähigkeit konzentrieren, Antworten auf der Grundlage zuvor erlernter Informationen zu generieren, handelt es sich bei AGI um ein autonomes System, das Entscheidungen „vernünftig“ treffen kann und so über Problemlösungsfähigkeiten auf menschlichem Niveau verfügt.

Obwohl die künstliche Intelligenz (AGI) noch nicht vollständig ausgereift ist, glauben viele Experten, dass die Technologie auch über die Fähigkeit zum kumulativen Lernen verfügen wird, eine weitere Eigenschaft, die es dem Menschen ermöglicht, seine Fähigkeiten zu verbessern.

Einige Quellen behaupten, dass das Projekt Q* – OpenAI die oben genannten Eigenschaften bei der Lösung von Problemen beweisen konnte. Darüber hinaus war Q* dank der enormen Rechenleistung des Modells in der Lage, Grundschüler zu übertreffen und zeigte Denkfähigkeiten und kognitive Fähigkeiten, die deutlich über die Fähigkeiten der aktuellen KI-Technologie hinausgehen.

Es ist unklar, wie lange sich Q* bereits in der Entwicklung befindet und welche Anwendungsmöglichkeiten es bietet, aber OpenAI hat Mitarbeiter und Vorstandsmitglieder über das Projekt informiert, bevor der Personalskandal bekannt wurde.

Ethische Bedenken

Während Sam Altman, CEO von OpenAI, davon überzeugt ist, dass die AGI-Technologie Innovationen vorantreiben wird, weisen einige Forscher schnell auf die potenziellen Gefahren des Projekts hin.

In einem Brief an das Gremium warnten die Forscher vor den potenziellen Gefahren dieses mächtigen Algorithmus für die Menschheit. Die im Brief dargelegten spezifischen ethischen Bedenken hinsichtlich der KI wurden nicht offengelegt, aber die Warnungen reichten aus, um die Entscheidung des Vorstands zu rechtfertigen, Altman zu entlassen.

Als Grund für Altmans Entlassung wurde zunächst „schlechte Kommunikation“ des CEO genannt. Nicht lange danach fand er eine neue Stelle bei Microsoft. Dieser Schritt veranlasste 700 der 770 Mitarbeiter von OpenAI dazu, mit demselben Schritt zu drohen, falls der CEO nicht wieder eingestellt würde.

Da dem Unternehmen der Zusammenbruch drohte, sah sich der Aufsichtsrat von OpenAI gezwungen, Altman wieder an die Spitze zu setzen. Dies führte auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens und offenbarte tiefe Spaltungen innerhalb der Führung.

Jetzt, da Altman wieder im Amt ist und Projekt Q* wahrscheinlich wieder grünes Licht bekommt, wirft dies neue Fragen auf.

Wie realistisch ist Projekt Q*?

Während die turbulenten Tage bei OpenAI das Konzept der AGI ins Rampenlicht gerückt haben, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.

Im September geriet der Unternehmer aus dem Silicon Valley in Schwierigkeiten, nachdem er AGI mit „einem durchschnittlichen Menschen, den man als Kollegen einstellen würde“ verglichen hatte. Er bestätigte weiterhin seine Bemerkungen aus dem letzten Jahr, wonach diese KI „alles tun könne, was man mit einem entfernten Kollegen tun könne“, darunter das Erlernen, wie man ein guter Arzt und Programmierer wird.

Obwohl der Vergleich künstlicher Intelligenz mit der Intelligenz eines „durchschnittlichen Menschen“ nichts Neues ist, wurde Altmans Verwendung dieser Formulierung vom KI-Ethiker und Cambridge-Professor Henry Shevlin als „abscheulich“ empfunden, da die Besorgnis über die Auswirkungen künstlicher Intelligenz auf die Arbeitsplatzsicherheit zunimmt.

Mögliche Durchbrüche in der künstlichen Intelligenz sind auch für andere Forscher Anlass zur Sorge: Die Technologie entwickelt sich schneller, als der Mensch ihre Auswirkungen vollständig begreifen kann.

OpenAI ist davon überzeugt, dass die positiven Ergebnisse der AGI es wert sind, das riskante „Minenfeld“ auszuprobieren. Während das Unternehmen diesen Weg jedoch weiter verfolgt, befürchten viele, dass Altman den kommerziellen Erfolg über die Interessen der Nutzer und der Gesellschaft stellt.

Phuong Anh (Quelle: Tech.co, The Guardian)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Indonesien feuerte sieben Kanonenschüsse ab, um Generalsekretär To Lam und seine Frau willkommen zu heißen.
Bewundern Sie die hochmoderne Ausrüstung und gepanzerten Fahrzeuge, die das Ministerium für öffentliche Sicherheit auf den Straßen von Hanoi ausstellt
„Tunnel: Sonne im Dunkeln“: Der erste Revolutionsfilm ohne staatliche Förderung
Tausende Menschen warten am Eröffnungstag in Ho-Chi-Minh-Stadt darauf, die U-Bahn-Linie 1 zu besteigen.

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Ministerium - Zweigstelle

Lokal

Produkt