Vietnam.vn - Nền tảng quảng bá Việt Nam

L'entreprise de Jack Ma attire à nouveau l'attention

L'entreprise du milliardaire chinois rejoint la course à l'IA à bas prix avec des techniques de développement qui réduisent considérablement les coûts mais font toujours face à de nombreux défis.

Zing NewsZing News24/03/2025

Ant Group de Jack Ma entre sur le marché chinois de l'IA à bas prix. Photo : Bloomberg .

Ant Group, une société soutenue par le milliardaire Jack Ma, développe une technique qui pourrait réduire de 20 % les coûts de formation de sa technologie d'IA en utilisant des puces semi-conductrices provenant de Chine, selon Bloomberg .

L'entreprise utilise des puces achetées auprès d'Alibaba et de Huawei, ainsi que la méthode d'apprentissage automatique Mixture of Experts, vue dans DeepSeek R1, pour former son IA.

Malgré les réductions de coûts, les résultats d'Ant Group sont comparables à ceux des entreprises d'IA utilisant les puces les plus puissantes d'aujourd'hui, comme le H800 de Nvidia.

L'entreprise utilise principalement et passe progressivement à des alternatives aux puces AMD et chinoises pour ses derniers modèles d'IA.

Grâce à un logiciel haute performance, Ant Group a dépensé jusqu'à 6,35 millions de yuans ( 880 000 USD ) pour former 1 000 milliards de jetons. Mais avec la méthode d’optimisation, le chiffre est tombé à 5,1 millions de yuans. Les jetons sont des unités d’information qu’un modèle utilise pour en savoir plus sur le monde et fournir des réponses utiles.

Cela marque l'entrée d'Ant dans la course de plus en plus rapide à l'IA entre la Chine et les États-Unis, puisque DeepSeek a montré que les modèles peuvent être formés pour bien moins que les milliards de dollars dépensés par OpenAI ou Google.

Le H800 de Nvidia, bien qu'il ne soit pas la puce la plus avancée, reste un processeur puissant et son exportation vers la Chine est interdite par les États-Unis. Les entreprises chinoises s’efforcent donc de trouver des alternatives pour rester en tête de la course.

Ant Group a précédemment publié une étude affirmant que ses modèles surpassaient parfois ceux de Meta Platforms sur certaines mesures d'évaluation. Si cela s’avère vrai, ces modèles marqueraient un bond en avant pour l’IA chinoise, avec des coûts de développement considérablement réduits.

Cette réussite est due à DeepSeek et à sa méthode d’apprentissage automatique MoE, qui permet d’augmenter les performances et de réduire les coûts de calcul. Plus précisément, cette méthode aide les modèles d’IA à décomposer le problème et à n’avoir besoin d’activer qu’une petite partie des données suffisante pour gérer les tâches.

Cependant, la formation des modèles MoE nécessite toujours des puces hautes performances comme les unités de traitement graphique (GPU) fournies par Nvidia. D'après le titre du document de recherche d'Ant, « Développer des modèles MoE sans GPU haut de gamme », on peut voir que l'entreprise tente de briser la barrière ci-dessus.

Cela va à l’encontre de la stratégie de Nvidia. Le PDG de la société, Jensen Huang, affirme que la demande informatique continuera d'augmenter même si des modèles plus efficaces comme DeepSeek R1 émergent.

Il estime que les entreprises auront besoin de puces plus puissantes pour continuer à augmenter leurs revenus, plutôt que de puces moins chères pour réduire les coûts. Nvidia s'en tient donc à sa stratégie de développement de GPU dotés de plus de cœurs de traitement, de transistors et de capacités de mémoire plus élevées.

Parallèlement, Ant prévoit de tirer parti des récentes avancées dans les grands modèles linguistiques qu'elle a développés, notamment Ling-Plus et Ling-Lite, pour fournir des solutions d'IA à des secteurs tels que la santé et la finance.

La société a acquis la plateforme en ligne chinoise Haodf.com en 2025 pour renforcer ses services d'intelligence artificielle dans le secteur de la santé, et possède également l'application d'assistant de vie IA Zhixiaobao et le service de conseil financier IA Maxiaocai.

Dans l'article, Ant a déclaré que Ling-Lite a surpassé l'un des modèles Llama de Meta sur une mesure clé de la compréhension de l'anglais.

Ling-Lite et Ling-Plus ont tous deux surpassé les modèles équivalents de DeepSeek lors des tests de langue chinoise.

Les modèles Ling ont également été rendus publics. Ling-Lite possède 16,8 milliards de paramètres, Ling-Plus en possède 290 milliards, ce qui est considéré comme assez important dans le domaine de la modélisation du langage, comparé aux 1 800 milliards de ChatGPT GPT-4.5 et aux 671 de DeepSeek R1.

Cependant, Ant a rencontré quelques problèmes de stabilité pendant l’entraînement. La société a déclaré que même de petits changements dans le matériel ou la structure du modèle peuvent entraîner une augmentation soudaine du taux d'erreur du modèle.

Source : https://znews.vn/cong-ty-cua-jack-ma-lai-gay-chu-y-post1540514.html


Comment (0)

No data
No data

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit