Das Startup Qingcheng.AI und ein Entwicklungsteam unter der Leitung des Informatikprofessors Di Guidong an der Tsinghua-Universität (China) gaben kürzlich bekannt, dass sie das Chitu AI-Framework entwickelt haben, das laut der South China Morning Post vom 16. März die Abhängigkeit von Nvidia-Chips für die Inferenz von KI-Modellen verringern kann.
Nvidia-Logo auf einer Technologieausstellung in Spanien am 5. März.
Das KI-Framework ist eine Inferenzmaschine für große Sprachmodelle (LLMs) und bietet Bibliotheken und Tools, die Entwicklern dabei helfen, Modelle effizient zu entwerfen, zu trainieren und zu testen. Chitu ist ein Open-Source-Tool, das beliebte Modelle wie Metas Llama oder DeepSeek-R1 unterstützt, ein in China entwickeltes KI-Modell, das in den letzten Monaten weltweit für Aufsehen gesorgt hat, da es angeblich über Fähigkeiten verfügt, die mit westlichen Modellen vergleichbar sind, jedoch zu viel geringeren Kosten.
In Tests steigerte Chitu, ausgestattet mit Nvidias A800-GPU, die Inferenzgeschwindigkeit der leistungsstärksten Version von DeepSeek-R1 um 315 Prozent und reduzierte gleichzeitig die GPU-Nutzung um 50 Prozent im Vergleich zu ausländischen Open-Source-Frameworks, heißt es in der Ankündigung des Unternehmens. Dies bedeutet, dass das Modell viel schneller Ergebnisse liefern kann, was Zeit und Rechenressourcen spart.
Der Schritt von Qingcheng.AI ist Teil der Bemühungen chinesischer KI-Unternehmen, ihre Abhängigkeit von Nvidias neuer Generation leistungsstarker GPUs zu verringern, die Exportbeschränkungen unterliegen. Die US-Regierung hat Nvidia den Verkauf seiner Chips der Hopper-Serie H100 und H800 an Kunden in China verboten. Andererseits ermöglicht die Öffnung des Chitu-Quellcodes laut AIBase.com Entwicklern und Forschern in China, das Tool frei zu verwenden, zu modifizieren und zu optimieren, und fördert so die Entwicklung und Verbesserung inländischer KI-Technologien.
China strebt nach Autarkie
Während Qingcheng.AI mit führenden inländischen GPU-Herstellern wie Moore Threads, Enflame und Iluvatar CoreX zusammenarbeitet, streben auch andere Technologieunternehmen in China danach, ihre Abhängigkeit von ausländischer Technologie zu verringern, basierend auf den Erfahrungen aus dem Erfolg von DeepSeek. Im Februar gab der Anbieter einer Computerinfrastrukturplattform Infinigence AI bekannt, dass er an der Förderung der Zusammenarbeit zwischen sieben führenden chinesischen KI-Chipherstellern arbeite, darunter Biren Technology, Hygon Information Technology, Moore Threads, MetaX, Enflame, Iluvatar CoreX und Huaweis Ascend.
China Daily zitierte am 7. März Herrn Liu Qingfeng, Mitglied des chinesischen Nationalen Volkskongresses und Vorsitzender des KI-Unternehmens iFlytek, mit den Worten, das Land müsse dringend LLM-Modelle auf Basis inländischer Chips erforschen und entwickeln, um ein starkes KI-Ökosystem aufzubauen und so eine nachhaltige und qualitativ hochwertige Entwicklung sicherzustellen. Seiner Ansicht nach wäre die Nichtentwicklung eines KI-Industrie-Ökosystems auf Basis heimischer Chips so, als würde man einen Turm auf dem Fundament eines anderen bauen. Abgesehen vom Spark-Modell von iFlytek würden alle öffentlich herunterladbaren LLMs derzeit auf Nvidia-Chips trainiert, was Chinas mangelnde Chip-Entwicklung widerspiegele, sagte er.
Derzeit liefern sich viele große chinesische Technologieunternehmen wie Alibaba, Tencent, Baidu, ByteDance, iFlytek oder Huawei sowie Tausende anderer Startups ein Wettrennen bei der Entwicklung von KI-Modellen. Zuletzt kündigte Baidu am vergangenen Wochenende zwei Modelle an, Ernie 4.5 und X1, um mit Modellen von DeepSeek oder OpenAI zu konkurrieren.
[Anzeige_2]
Quelle: https://thanhnien.vn/cong-ty-trung-quoc-tim-cach-giam-phu-thuoc-nvidia-185250317205207263.htm
Kommentar (0)