Große Namen auf dem Gebiet der künstlichen Intelligenz (KI) würdigen die Leistungen des chinesischen Startups DeepSeek, meinen jedoch, dass der Erfolg des Unternehmens nicht übertrieben werden sollte.
Von OpenAI-CEO Sam Altman bis zum Google-Wissenschaftler Andrew Ng schätzen die brillantesten KI-Köpfe der Welt den Open-Source-Ansatz von DeepSeek, nachdem das chinesische Startup zwei hochmoderne KI-Modelle auf den Markt gebracht hat.
Das in Hangzhou ansässige Unternehmen überraschte die globale KI-Branche mit seinem Open-Source-Argumentationsmodell R1.
Das am 20. Januar veröffentlichte Modell zeigt eine vergleichbare Leistung wie Closed-Source-Modelle von OpenAI – dem Entwickler von ChatGPT – die Trainingskosten sollen jedoch viel niedriger sein.
DeepSeek V3 – das grundlegende große Sprachmodell – wurde vor einigen Wochen veröffentlicht und die Schulung kostete laut DeepSeek lediglich 5,5 Millionen US-Dollar.
Die Ankündigung des Unternehmens warf die Frage auf, ob Technologieunternehmen zu viel Geld für Grafikchips (GPUs) für das KI-Training ausgaben, was zu einem Ausverkauf der entsprechenden Technologiewerte führte.
Letzte Woche argumentierte Altman in einem „Ask Me Anything“ auf Reddit, dass OpenAI falsch liege und einen anderen Ansatz für Open Source finden müsse.
Das Unternehmen verfolgte stets einen verschlossenen Ansatz und hielt Details wie spezifische Trainingsmethoden und die Energiekosten seiner Modelle geheim.
„Allerdings teilt nicht jeder bei OpenAI diese Ansicht“ und „im Moment hat es nicht unsere höchste Priorität“, räumte der CEO von OpenAI ein.
Andrew Ng, Gründer von Google Brain und ehemaliger Chefwissenschaftler bei Baidu, sagte, Produkte von DeepSeek und ähnlichen Unternehmen zeigten, dass China im Bereich der künstlichen Intelligenz schnell zu den USA aufschließe.
„Als ChatGPT im November 2022 auf den Markt kam, waren die USA im Bereich der generativen KI China deutlich voraus … aber tatsächlich hat sich dieser Abstand in den letzten zwei Jahren rapide verringert“, schrieb er auf X. „Mit Modellen aus China wie Qwen, Kimi, InternVL und DeepSeek schließt China eindeutig die Lücke, und in Bereichen wie der Videogenerierung gab es Zeiten, in denen China scheinbar die Nase vorn hatte.“
Das Qwen-Modell wurde von Alibaba entwickelt, während Kimi und InternVL Produkte des Startups Moonshot AI und des Shanghai AI Lab sind.
Sollten die USA Open Source weiterhin blockieren, werde China diesen Teil der Lieferkette dominieren und viele Unternehmen würden letztlich Modelle übernehmen, die eher chinesische als amerikanische Werte widerspiegeln, so Ng.
Zahlreiche US-Unternehmen möchten das Modell von DeepSeek auf ihre Produkte anwenden. Beispielsweise können Benutzer des NIM-Dienstes von Nvidia seit letzter Woche auf das R1-Modell zugreifen und Microsoft unterstützt R1 auch auf seiner Azure-Cloud-Plattform und auf GitHub. Amazon ermöglicht Kunden, über AWS Anwendungen mit R1 zu erstellen.
Einige Experten sagen jedoch auch, dass der Erfolg von DeepSeek nicht überbewertet werden sollte. Yann LeCun, leitender KI-Wissenschaftler bei Meta, hält die Vorstellung, dass „China die USA im Bereich KI überholen wird“, aufgrund von DeepSeek für falsch.
Vielmehr „übertreffen Open-Source-Modelle proprietäre Modelle“, schrieb er auf Threads.
DeepSeek – ein Startup, das im Mai 2023 aus dem Hedgefonds High-Flyer des Gründers Liang Wenfeng hervorging – sieht sich hinsichtlich seiner tatsächlichen Kosten und Trainingsmethoden für KI-Modelle immer noch mit Skepsis konfrontiert.
Zheng Xiaoqing, Informatikprofessor an der Universität Fudan, wies darauf hin, dass in den Kosten für die Schulung von DeepSeek V3 keine Kosten für Tests und Forschung enthalten seien, heißt es im technischen Bericht des Startups.
Der Erfolg von DeepSeek beruhe auf „technischer Optimierung“, sagte er, so dass es keine großen Auswirkungen auf die Chipbeschaffung oder -lieferung habe.
(Laut SCMP)
[Anzeige_2]
Quelle: https://vietnamnet.vn/nhung-ten-tuoi-ai-hang-dau-the-gioi-tranh-luan-ve-deepseek-2368357.html
Kommentar (0)