Vietnam.vn - Nền tảng quảng bá Việt Nam

Jack Mas Unternehmen erregt erneut Aufmerksamkeit

Das Unternehmen eines chinesischen Milliardärs steigt in den Wettlauf um kostengünstige KI ein und entwickelt Techniken, die die Kosten deutlich senken, aber dennoch viele Herausforderungen mit sich bringen.

Zing NewsZing News24/03/2025

Jack Mas Ant Group betritt den chinesischen Markt für kostengünstige KI. Foto: Bloomberg .

Laut Bloomberg entwickelt Ant Group, ein vom Milliardär Jack Ma unterstütztes Unternehmen, eine Technik, mit der die Trainingskosten für seine KI-Technologie durch den Einsatz von Halbleiterchips aus China um 20 % gesenkt werden könnten.

Das Unternehmen verwendet Chips von Alibaba und Huawei und wendet zum Trainieren seiner KI die im DeepSeek R1 verwendete maschinelle Lernmethode „Mixture of Experts“ an.

Trotz der Kostensenkungen sind die Ergebnisse der Ant Group mit denen von KI-Unternehmen vergleichbar, die die leistungsstärksten Chips von heute verwenden, beispielsweise den H800 von Nvidia.

Das Unternehmen verwendet für seine neuesten KI-Modelle hauptsächlich Alternativen von AMD und chinesischen Chips und steigt schrittweise auf diese um.

Mit Hochleistungssoftware gab die Ant Group bis zu 6,35 Millionen Yuan ( 880.000 USD ) aus, um 1.000 Milliarden Token zu trainieren. Doch mit der Optimierungsmethode sank die Zahl auf 5,1 Millionen Yuan. Token sind Informationseinheiten, die ein Modell aufnimmt, um etwas über die Welt zu lernen und nützliche Antworten zu liefern.

Dies markiert Ants Einstieg in den immer schneller werdenden KI-Wettlauf zwischen China und den USA, da DeepSeek gezeigt hat, dass Modelle für viel weniger trainiert werden können als die Milliarden von Dollar, die OpenAI oder Google ausgeben.

Der H800 von Nvidia ist zwar nicht der fortschrittlichste Chip, aber dennoch ein leistungsstarker Prozessor und darf von den USA nicht nach China exportiert werden. Daher suchen chinesische Unternehmen verzweifelt nach Alternativen, um im Rennen die Nase vorn zu behalten.

Die Ant Group hatte zuvor eine Studie veröffentlicht, in der sie behauptete, dass ihre Modelle bei bestimmten Bewertungskriterien manchmal besser abschnitten als die von Meta Platforms. Wenn das stimmt, würden diese Modelle einen Quantensprung für die chinesische KI mit deutlich reduzierten Entwicklungskosten bedeuten.

Dieser Erfolg ist DeepSeek mit seiner MoE-Methode des maschinellen Lernens zu verdanken, die zur Leistungssteigerung und Senkung der Rechenkosten beiträgt. Insbesondere hilft diese Methode KI-Modellen dabei, das Problem aufzuschlüsseln und nur einen kleinen Teil der Daten aktivieren zu müssen, der zur Bewältigung der Aufgaben ausreicht.

Für das Training von MoE-Modellen sind jedoch weiterhin Hochleistungschips wie die von Nvidia bereitgestellten Grafikprozessoren (GPUs) erforderlich. Aus dem Titel des Forschungspapiers von Ant, „Entwicklung von MoE-Modellen ohne High-End-GPUs“, lässt sich erkennen, dass das Unternehmen versucht, die oben genannte Barriere zu durchbrechen.

Dies widerspricht der Strategie von Nvidia. Der CEO des Unternehmens, Jensen Huang, argumentiert, dass die Nachfrage nach Computern auch dann weiter steigen wird, wenn effizientere Modelle wie DeepSeek R1 auf den Markt kommen.

Er ist davon überzeugt, dass die Unternehmen zur weiteren Umsatzsteigerung leistungsfähigere Chips benötigen und nicht billigere, um Kosten zu senken. Daher bleibt Nvidia seiner Strategie treu, GPUs mit mehr Rechenkernen, Transistoren und höheren Speicherkapazitäten zu entwickeln.

In der Zwischenzeit plant Ant, die jüngsten Durchbrüche bei den von ihm entwickelten großen Sprachmodellen, darunter Ling-Plus und Ling-Lite, zu nutzen, um KI-Lösungen für Branchen wie das Gesundheitswesen und die Finanzwelt bereitzustellen.

Das Unternehmen erwarb 2025 die chinesische Online-Plattform Haodf.com, um seine Dienste für künstliche Intelligenz im Gesundheitssektor auszubauen, und besitzt außerdem die KI-Lebensassistenten-App Zhixiaobao und den KI-Finanzberatungsdienst Maxiaocai.

In dem Artikel sagte Ant, dass Ling-Lite bei einem wichtigen Maß für das Englischverständnis besser abgeschnitten habe als eines der Llama-Modelle von Meta.

Sowohl Ling-Lite als auch Ling-Plus schnitten bei chinesischen Sprachtests besser ab als die entsprechenden Modelle von DeepSeek.

Ling-Modelle wurden auch öffentlich zugänglich gemacht. Ling-Lite verfügt über 16,8 Milliarden Parameter, Ling-Plus über 290 Milliarden, was im Bereich der Sprachmodellierung als recht groß gilt, verglichen mit 1.800 Milliarden bei ChatGPT GPT-4.5 und 671 bei DeepSeek R1.

Allerdings ist Ant während des Trainings auf einige Stabilitätsprobleme gestoßen. Das Unternehmen erklärte, dass selbst kleine Änderungen an der Hardware oder Struktur des Modells zu einem plötzlichen Anstieg der Fehlerrate des Modells führen können.

Quelle: https://znews.vn/cong-ty-cua-jack-ma-lai-gay-chu-y-post1540514.html


Kommentar (0)

No data
No data

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt