Le document « Frontier AI Framework » identifie deux types de systèmes d’IA que Meta considère comme ne devant pas être publiés : « à haut risque » et « à risque grave ». Cela montre que la société mère Facebook est plus prudente à l’égard de la technologie de l’IA.

Auparavant, le PDG Mark Zuckerberg s’était engagé à rendre l’intelligence artificielle générale (AGI) courante.

Recherche approfondie TechCrunch
Meta identifie deux types de systèmes d’IA qui ne peuvent pas être commercialisés car ils sont trop risqués. Photo : TechCrunch

Selon la définition de Meta, les systèmes à « haut risque » et à « risque grave » peuvent tous deux soutenir des attaques cybernétiques, biologiques et chimiques, mais la différence est que les systèmes à « risque grave » entraînent des « conséquences catastrophiques non atténuées ».

Meta suggère un certain nombre de scénarios, comme l’infiltration automatique d’un environnement d’entreprise bien protégé ou la propagation d’une arme biologique à fort impact.

Voici les scénarios « les plus urgents » qui, selon l’entreprise, pourraient survenir avec la sortie d’un puissant système d’IA.

La classification du système ne repose sur aucun test empirique mais sur les contributions d’experts internes et externes.

Si un système est considéré comme « à haut risque », Meta restreindra l’accès au système en interne et ne le lancera pas tant que des mesures d’atténuation ne seront pas en place pour réduire le risque à un niveau modéré.

En revanche, si un système est identifié comme « à risque critique », Meta appliquera des protections non spécifiées pour empêcher que le système ne soit compromis et arrêtera le développement jusqu’à ce qu’il devienne moins dangereux.

Selon TechCrunch, le Frontier AI Framework semble avoir pour but d'apaiser les critiques visant l'approche ouverte de Meta en matière de développement de systèmes.

Meta rend souvent le code source de sa technologie d'IA public, au lieu de le fermer comme OpenAI. Pour les entreprises, l’approche ouverte présente à la fois des avantages et des inconvénients. Le modèle d'IA Llama de l'entreprise a été téléchargé des centaines de millions de fois, mais Llama aurait également été exploité pour développer un chatbot hostile aux États-Unis.

En annonçant Frontier AI Framework, Meta pourrait cibler DeepSeek, la startup chinoise d’IA la plus célèbre aujourd’hui. DeepSeek poursuit également une stratégie d’IA open source, mais ne dispose pas de nombreuses garanties et est facilement modifié pour générer des résultats malveillants.

Selon Meta, lorsqu’on pèse le pour et le contre lors de la prise de décisions sur la manière de développer et d’appliquer l’IA avancée, la technologie peut servir la société d’une manière qui maintient à la fois les avantages et un niveau de risque approprié.

(Selon TechCrunch)