Vietnam.vn - Nền tảng quảng bá Việt Nam

Le nouvel « atout » de DeepSeek révélé

DeepSeek vient de publier la dernière version améliorée de son grand modèle de langage, nom de code V3-0324, avec des améliorations significatives des capacités de raisonnement et de programmation.

Zing NewsZing News26/03/2025

La nouvelle IA de DeepSeek continue de faire sensation dans le monde de la technologie avec ses performances exceptionnelles. Photo : SCMP .

DeepSeek présente officiellement DeepSeek V3-0324, la dernière version de la série V3 de modèles de langage large (LLM).

Comme les versions précédentes, ce modèle est publié en open source gratuitement via la plateforme Hugging Face, avec des améliorations significatives par rapport aux versions précédentes, notamment dans les domaines du raisonnement et de la programmation.

Plus précisément, selon OpenRouter, DeepSeek V3-0324 est construit à l'aide de Mixture of Experts (MoE), une méthode d'apprentissage automatique très populaire dans certains modèles d'IA chinois et comportant 685 milliards de paramètres.

Selon les premières critiques, le modèle montre des performances impressionnantes dans une variété de tâches. Pendant ce temps, un article sur Reddit montre que DeepSeek V3-0324 a rattrapé le modèle Sonnet 3.7 de Google dans un test de génération de code de programmation.

Des sources indiquent également que DeepSeek V3-0324 est capable de générer de longs extraits de code sans aucune erreur. AI Analytics Vidhya a testé ce modèle et enregistré sa capacité à générer 700 lignes de code en douceur.

Sur X, l'application DeepSeek V3-0324 a également fait sensation. Pour le prouver, Deepanshu Sharma a publié une vidéo montrant comment ce modèle d'IA peut générer en douceur un site Web complet avec plus de 800 lignes de code.

DeepSeek est devenue la société d'IA chinoise la plus notable en décembre 2024 lorsqu'elle a lancé DeepSeek-V3. Ce modèle atteint des performances comparables à celles de GPT-4o mais n’utilise qu’une fraction des ressources de calcul.

Peu de temps après, DeepSeek a continué à publier le modèle de raisonnement DeepSeek-R1. Selon TechCrunch , R1 surpasse l'o1 d'OpenAI sur des benchmarks comme AIME, MATH-500 et SWE-bench Verified.

Dans le même temps, le chiffre de 5,6 millions de dollars nécessaire à la formation de l’étape finale du modèle de DeepSeek est également choquant, comparé aux centaines de millions de dollars que les grandes entreprises américaines doivent dépenser pour former leurs modèles.

Source : https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Comment (0)

No data
No data

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit