Zu dieser Einschätzung geht ein internes Memo des Suchmaschinenriesen zurück, das kürzlich veröffentlicht wurde. In diesem Dokument äußerten Führungskräfte von Google außerdem ihre tiefe Besorgnis über die Möglichkeit, das laufende KI-Rennen zu verlieren.
Ein Google-Vertreter bestätigte später die Echtheit des Dokuments und sagte, es handele sich lediglich um die Meinung eines Firmeninsiders. Er räumte jedoch ein, dass das Unternehmen „nicht in der Lage sei, dieses Rennen zu gewinnen, und OpenAI auch nicht“.
Der Suchmaschinenriese weist darauf hin, dass die Open-Source-Community die führenden KI-Unternehmen schlägt und dass ihre Produkte zwar qualitativ leicht im Vorteil seien, „die Lücke sich jedoch unglaublich schnell schließt“.
Kapitalgröße ist nicht der Kernfaktor
KI sorgt seit Ende 2022 mit der Einführung von ChatGPT, einem auf LLM (Large Language Models) basierenden Chatbot, der von OpenAI – einem eng mit Microsoft verbundenen Startup – entwickelt wurde, für Aufsehen in der Öffentlichkeit. Der Erfolg dieses Produkts hat Google und viele andere Technologieunternehmen dazu veranlasst, in das LLM-Rennen einzusteigen.
LLM-Modelle werden anhand von Billionen aus dem Internet gesammelten Wörtern trainiert, um menschenähnliche Texte oder Dialoge zu generieren. Dieser Prozess dauert Monate und kostet Dutzende Millionen Dollar. Dies führt zu der Befürchtung, dass die KI von „reichen, mächtigen“ Technologieunternehmen dominiert wird.
Ein internes Memo von Google legt jedoch nahe, dass diese Annahme falsch ist. Forscher in der Open-Source-Community nutzen kostenlose Online-Ressourcen und erzielen Ergebnisse, die mit den größten proprietären Modellen von heute vergleichbar sind.
Dementsprechend können LLMs durch eine Technik namens Low-Level-Adaption oder LoRa „fein abgestimmt“ werden, wodurch ein vorhandenes LLM viel schneller und kostengünstiger für eine bestimmte Aufgabe optimiert werden kann, als wenn ein LLM von Grund auf neu trainiert werden müsste.
Im März beispielsweise wurde LLaMa, ein von der Facebook-Muttergesellschaft Meta entwickeltes Modell, online geleakt. Obwohl es klein und mit nur 7 Milliarden Parametern (im Vergleich zu 540 Milliarden Parametern in Googles größtem LLM) ziemlich „primitiv“ war, wurde LLaMa schnell verfeinert, um bei einigen Aufgaben Ergebnisse zu erzielen, die mit der Originalversion von ChatGPT vergleichbar sind.
Dies könnte gravierende Auswirkungen auf die Zukunft der KI-Entwicklung haben, da „die Hürden für Training und Tests von der Notwendigkeit eines großen Forschungszentrums auf die Notwendigkeit von nur einer Person, einem Abend und einem High-End-Laptop steigen.“
Der Kampf zwischen dem Riesen Goliath und dem Hirten David
Heute kann ein LLM für nur 100 US-Dollar in wenigen Stunden optimiert werden. Mit ihrem flexiblen, vernetzten und kostengünstigen Modell „hat Open-Source-KI erhebliche Vorteile“, die große Unternehmen wie Google nicht nachahmen können. Das Papier kommt daher zu dem Schluss, dass Google bzw. OpenAI gegenüber diesen Open-Source-Konkurrenten angreifbar sind.
„Ich glaube nicht, dass ich für viele Aufgaben etwas so Leistungsstarkes wie ChatGPT-4 brauche“, sagte Simon Willison, Programmierer und Technologieanalyst, gegenüber NBC. Die Frage ist nun, wie klein Modelle sein können, ohne dass sie noch nützlich sind. Und das ist etwas, was die Open-Source-Community sehr schnell erforscht.
Dies steht im völligen Einklang mit der Meinung vieler Experten, dass die stärkste Seite auch die schwächste Seite ist, wenn man sie richtig ausnutzt und beobachtet, wie in der Geschichte vom Riesen Goliath, der vom kleinen Hirtenjungen David nur mit einer Schleuder besiegt wurde.
Angesichts der Geschichte der KI-Entwicklung dürfte jedoch nicht jeder mit diesem Argument einverstanden sein. Tatsächlich gibt es immer noch kostenpflichtige proprietäre Software wie Adobe Photoshop oder Microsoft Windows, und der KI-Bereich wird wahrscheinlich denselben Entwicklungspfad einschlagen.
(Laut Economist, YahooFinance)
[Anzeige_2]
Quelle
Kommentar (0)