Apple, Microsoft, Meta et Google ont tous récemment publié de nouveaux modèles d’IA avec moins de « paramètres » mais toujours des capacités puissantes. Cette mesure est une initiative des groupes technologiques visant à encourager les entreprises confrontées à des contraintes financières à continuer d’utiliser l’IA.
Illustration : FT
En général, plus le nombre de paramètres est élevé, meilleures sont les performances du logiciel d’IA et plus ses tâches sont complexes et nuancées. Le dernier modèle GPT-4o d'OpenAI et le Gemini 1.5 Pro de Google, tous deux annoncés cette semaine, devraient avoir plus de 1 000 milliards de paramètres. Pendant ce temps, Meta entraîne une version de 400 milliards de paramètres de son modèle open source Llama.
Les préoccupations concernant les données et la responsabilité en matière de droits d'auteur ont également conduit les grandes entreprises technologiques comme Meta et Google à publier de petits modèles de langage avec seulement quelques milliards de paramètres qui sont moins chers, économes en énergie, personnalisables, nécessitent moins d'énergie pour s'entraîner et fonctionner, et peuvent également empêcher le stockage de données sensibles.
« En obtenant cette haute qualité à moindre coût, vous obtenez en réalité davantage d’applications auxquelles les clients peuvent accéder », a déclaré Eric Boyd, vice-président d’entreprise d’Azure AI Platform de Microsoft, qui vend des modèles d’IA aux entreprises.
Google, Meta, Microsoft et la startup française Mistral ont également publié de petits modèles de langage, mais démontrent toujours des progrès et peuvent mieux se concentrer sur des tâches spécifiques.
Nick Clegg, président des affaires mondiales de Meta, a déclaré que le nouveau modèle de 8 milliards de paramètres de Llama 3 est comparable à GPT-4. Microsoft affirme que son petit modèle Phi-3, avec 7 milliards de paramètres, surpasse GPT-3.5, la version précédente du modèle d'OpenAI.
Les micropuces peuvent également traiter des tâches localement sur l'appareil plutôt que d'envoyer des informations vers le cloud, ce qui pourrait intéresser les clients soucieux de leur confidentialité qui souhaitent s'assurer que les informations restent au sein du réseau.
Charlotte Marshall, directrice du cabinet d'avocats Addleshaw Goddard, a déclaré que « l'un des défis auxquels bon nombre de nos clients ont été confrontés » lors de l'adoption de produits d'IA générative est le respect des exigences légales en matière de traitement et de transmission des données. Les modèles plus petits offrent « des opportunités aux entreprises de surmonter » les problèmes de réglementation et de coûts, a-t-elle déclaré.
Les modèles plus petits permettent également aux fonctionnalités d’IA de fonctionner sur des appareils tels que les téléphones mobiles. Le modèle « Gemini Nano » de Google est intégré aux derniers téléphones Pixel et au dernier smartphone S24 de Samsung.
Apple a également révélé qu'il développait également des modèles d'IA pour fonctionner sur son iPhone le plus vendu. Le mois dernier, le géant de la Silicon Valley a publié OpenELM, un petit framework conçu pour effectuer des tâches textuelles.
Selon Boyd de Microsoft, les modèles plus petits donneront lieu à « des applications intéressantes, jusqu'aux téléphones et aux ordinateurs portables ».
Le directeur d'OpenAI, Sam Altman, a déclaré en novembre que l'entreprise accordait également des licences pour des modèles d'IA de différentes tailles à des clients et « servait des objectifs distincts ». « Il y a certaines choses que les petits modèles font très bien », a-t-il déclaré. J'en suis très heureux".
Toutefois, Altman a ajouté qu'OpenAI se concentrera toujours sur la création de modèles d'IA plus grands et évolutifs, y compris la capacité de raisonner, de planifier et d'exécuter des tâches et, en fin de compte, d'atteindre une intelligence de niveau humain.
Hoang Hai (selon le FT)
Source : https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Comment (0)