Les tests de programmation et mathématiques montrent que S1 (le nom du modèle) fonctionne à égalité avec les modèles d'IA de raisonnement de pointe tels que o1 d'OpenAI et R1 de DeepSeek.

Notamment, S1 est un modèle open source, disponible sur le référentiel GitHub et accessible à tous.

L'équipe de développement a expliqué qu'elle était partie d'un modèle de base disponible, puis l'avait affiné par « distillation » — le processus d'extraction de la capacité de « raisonnement » d'un autre modèle d'IA en s'entraînant sur ses réponses.

Plus précisément, S1 est issu du modèle expérimental Flash Thinking Gemini 2.0 de Google. Le processus de distillation est similaire à celui utilisé par les scientifiques de l’Université de Berkeley pour créer un modèle qui coûte environ 450 $.

GettyImages 1168836247 1.jpg.jpeg
DeepSeek ouvre la course au développement d'une IA bon marché. Photo : TechCrunch

Les chercheurs à l’origine de s1 ont trouvé le moyen le plus simple d’obtenir de solides performances de raisonnement et de « monter en puissance pendant les tests », c’est-à-dire de permettre au modèle d’IA de réfléchir davantage avant de répondre à une question.

Il s’agit de l’une des avancées d’o1 d’OpenAI, que DeepSeek et d’autres laboratoires d’IA ont tenté de reproduire grâce à diverses techniques.

L’article S1 montre que les modèles de raisonnement peuvent être distillés avec un ensemble de données assez petit grâce à un processus appelé réglage fin supervisé (SFT), dans lequel un modèle d’IA reçoit explicitement pour instruction d’imiter certains comportements dans l’ensemble de données.

Le SFT est généralement moins cher que l’approche d’apprentissage par renforcement à grande échelle utilisée par DeepSeek pour former le modèle R1.

Google fournit un accès gratuit à Gemini 2.0 Flash Thinking Experimental, bien qu'avec une limite de fréquence quotidienne, via la plateforme Google AI Studio.

Cependant, les conditions de Google interdisent la rétro-ingénierie de ses modèles pour développer des services concurrents des produits d'IA de l'entreprise.

Le S1 est basé sur un petit modèle d'IA disponible auprès du laboratoire d'IA Qwen, propriété d'Alibaba, qui peut être téléchargé gratuitement. Pour former S1, les chercheurs ont créé un ensemble de données de 1 000 questions soigneusement sélectionnées, ainsi que des réponses et le processus de « réflexion » derrière chaque réponse à partir de l'expérience Gemini 2.0 Flash Thinking Experimental de Google.

Ce processus de formation a pris moins de 30 minutes avec 16 GPU Nvidia H100, tout en produisant de bons résultats sur plusieurs tests d'IA. Niklas Muennighoff, un chercheur de Stanford, a déclaré que le coût de location de la puissance de calcul nécessaire n'était que d'environ 20 dollars.

Les chercheurs ont utilisé une astuce pour amener S1 à vérifier son travail et à prolonger son « temps de réflexion », par exemple en demandant au modèle d’attendre en ajoutant le mot « attendre » à son processus de raisonnement, ce qui a aidé le modèle à trouver une réponse plus précise.

D’ici 2025, Meta, Google et Microsoft prévoient d’investir des centaines de milliards de dollars dans l’infrastructure de l’IA, dont une partie sera utilisée pour former des modèles d’IA de nouvelle génération. Ce niveau d’investissement pourrait encore être nécessaire pour stimuler l’innovation dans l’IA.

La distillation s’est avérée être un bon moyen de reproduire les capacités des modèles d’IA à faible coût, mais elle ne crée pas de nouveaux modèles d’IA supérieurs à ceux qui existent aujourd’hui.

(Selon TechCrunch)

Google a officiellement publié Gemini 2.0 pour concurrencer l'IA chinoise Google vient de publier officiellement le chatbot de nouvelle génération, Gemini 2.0 avec de nombreuses versions et mises à jour.