ジャック・マー氏のアント・グループが中国の低コストAI市場に参入。写真:ブルームバーグ。 |
ブルームバーグによると、億万長者のジャック・マー氏が支援するアント・グループは、中国産の半導体チップを使用して、AI技術のトレーニングコストを20%削減できる技術を開発している。
同社はアリババとファーウェイから購入したチップを使用し、DeepSeek R1に見られるMixture of Experts機械学習手法を適用してAIをトレーニングしている。
コスト削減にもかかわらず、アント・グループの成果は、NvidiaのH800など、現在最も強力なチップを使用しているAI企業の成果に匹敵する。
同社は最新の AI モデルに主に AMD や中国製チップの代替品を使用しており、徐々に切り替えている。
アントグループは高性能ソフトウェアを使用して、1兆個のトークンをトレーニングするために最大635万元( 88万ドル)を費やしました。しかし、最適化手法により、その数は510万元に減少しました。トークンは、モデルが世界について学習し、有用な応答を提供するために取り込む情報の単位です。
DeepSeekは、OpenAIやGoogleが費やした数十億ドルよりもはるかに少ない費用でモデルのトレーニングが可能であることを示したため、これはAntが中国と米国の間でますます加速しているAI競争に参入したことを意味する。
Nvidia の H800 は、最先端のチップではないものの、それでも強力なプロセッサであり、米国では中国への輸出が禁止されています。そのため、中国企業は競争で先行し続けるための代替手段を急いで探している。
アント・グループは以前、自社のモデルが特定の評価基準でメタ・プラットフォームのモデルを上回ることがあると主張する調査を発表した。もしこれが事実であれば、これらのモデルは開発コストを大幅に削減し、中国の AI にとって飛躍的な進歩となるだろう。
この成果は、パフォーマンスの向上と計算コストの削減に役立つ MoE 機械学習手法を採用した DeepSeek のおかげです。具体的には、この方法は AI モデルが問題を分解し、タスクを処理するのに十分なデータのごく一部だけをアクティブ化するのに役立ちます。
ただし、MoE モデルのトレーニングには、Nvidia が提供するグラフィックス プロセッシング ユニット (GPU) などの高性能チップが依然として必要です。 Antの研究論文のタイトル「ハイエンドGPUなしでMoEモデルを開発する」から、同社が上記の障壁を打ち破ろうとしていることがわかります。
これはNvidiaの戦略に反する。同社のCEOであるジェンスン・フアン氏は、DeepSeek R1のようなより効率的なモデルが登場しても、コンピューティングの需要は増加し続けると主張している。
同氏は、企業はコスト削減のための安価なチップではなく、収益の継続的な増加のために、より強力なチップを必要とするだろうと考えている。そのため、Nvidia は、より多くの処理コア、トランジスタ、およびより高いメモリ容量を備えた GPU を開発するという戦略を堅持しています。
一方、アントは、Ling-PlusやLing-Liteなど、同社が開発した大規模言語モデルの最近の進歩を活用して、ヘルスケアや金融などの業界にAIソリューションを提供することを計画している。
同社は、ヘルスケア分野での人工知能サービスを強化するため、2025年に中国のオンラインプラットフォームHaodf.comを買収したほか、AIライフアシスタントアプリのZhixiaobaoとAI金融コンサルティングサービスのMaxiaocaiも所有している。
論文の中で、アント氏は、Ling-Liteが英語理解の重要な評価基準においてMetaのLlamaモデルの1つよりも優れた成績を収めたと述べた。
Ling-Lite と Ling-Plus はどちらも、中国語のテストにおいて DeepSeek の同等のモデルよりも優れた成績を収めました。
Ling モデルも公開されています。 Ling-Lite には 168 億のパラメータがあり、Ling-Plus には 2,900 億のパラメータがあり、これは言語モデリングの分野ではかなり大きいと考えられています。一方、ChatGPT GPT-4.5 の 1,8000 億、DeepSeek R1 の 671 億と比較すると大きいです。
しかし、Ant はトレーニング中にいくつかの安定性の課題に遭遇しました。同社によれば、モデルのハードウェアや構造に小さな変更が加えられただけでも、モデルのエラー率が急激に上昇する可能性があるという。
出典: https://znews.vn/cong-ty-cua-jack-ma-lai-gay-chu-y-post1540514.html
コメント (0)