SGGP
Après que l'Europe a commencé à rédiger et à lancer rapidement la première loi au monde sur l'intelligence artificielle (IA), les quatre principaux « géants » américains de l'exploration de données sur Internet viennent de lancer un groupe appelé Frontier Model Forum.
L’objectif principal du Frontier Model Forum est de faire progresser l’IA de manière responsable. Photo : THINWITHNICHE |
Les parties se réunissent
Le groupe, qui comprend Anthropic, Google, Microsoft et OpenAI — propriétaire de ChatGPT — a déclaré que les principaux objectifs du Frontier Model Forum sont d'aider à réduire les risques posés par les plateformes d'IA et à développer des normes industrielles. Le Frontier Model Forum créera un nouveau forum avec des objectifs clés tels que : Promouvoir la recherche sur l'IA sûre pour soutenir le développement, atténuer les risques et normaliser les évaluations et les niveaux de sécurité ; identifier les meilleures pratiques pour développer et déployer des modèles, aidant le public à comprendre la nature, les capacités, les limites et les impacts de la technologie ; Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques et la sécurité.
Les géants de la technologie ont tendance à résister au renforcement des contrôles. Cependant, cette fois-ci, la vision générale de l’industrie technologique a beaucoup changé face aux grandes inquiétudes concernant les risques que l’IA peut entraîner. Les entreprises participant à l’initiative Frontier Model Forum s’engagent à partager les meilleures pratiques entre elles et à partager ouvertement des informations avec les gouvernements et la société civile.
Plus précisément, le Frontier Model Forum se concentrera sur les plateformes d’apprentissage automatique à grande échelle, mais naissantes, qui amènent l’IA à de nouveaux niveaux de sophistication – et potentiellement de risque. En outre, le Frontier Model Forum soutiendra également le développement d’applications qui répondent aux grands défis sociétaux tels que : l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.
Place à une destruction potentielle
L'annonce du Frontier Model Forum par des entreprises américaines intervient quelques jours après que des sénateurs américains ont mis en garde le 25 juillet contre le risque d'utilisation de l'IA pour des attaques biologiques lors d'une audition devant un sous-comité de la commission judiciaire du Sénat américain. Récemment, 7 grandes entreprises technologiques, dont OpenAI, Alphabet et Meta, se sont volontairement engagées auprès de la Maison Blanche à développer un système permettant d'identifier tout le contenu, du texte, des images, de l'audio à la vidéo, créé par l'IA, afin de fournir aux utilisateurs une transparence des informations, pour garantir que cette technologie est plus sûre.
Dario Amodei, PDG d'AI Anthropic, a noté que même si l'IA n'est pas encore capable d'aider à créer des armes biologiques, il s'agit d'un risque à « moyen terme » et cela représente une menace sérieuse pour la sécurité nationale des États-Unis dans les deux ou trois prochaines années. La raison est que les sujets menant des attaques à grande échelle avec des armes biologiques ne se limitent plus à ceux qui ont des connaissances spécialisées en la matière.
Le monde est confronté à une explosion de contenu créé avec la technologie de l’IA générative. Des États-Unis à l’Europe en passant par l’Asie, les contrôles se renforcent progressivement. À partir de septembre, le Sénat américain organisera une série de neuf ateliers supplémentaires pour permettre à ses membres d'en apprendre davantage sur la manière dont l'IA pourrait affecter l'emploi, la sécurité nationale et la propriété intellectuelle, selon CNN. Avant les États-Unis, si un accord est trouvé, l'Union européenne disposera l'année prochaine de la première loi au monde sur la gestion de l'IA, qui devrait entrer en vigueur à partir de 2026.
Les avantages que l’IA apporte à la société sont indéniables, mais les avertissements concernant les risques potentiels de cette nouvelle technologie se multiplient. En juin, le secrétaire général de l’ONU, Antonio Guterres, a soutenu une proposition de plusieurs dirigeants d’IA visant à créer un organisme international de surveillance de l’IA, similaire à l’Agence internationale de l’énergie atomique (AIEA).
De retour au Frontier Model Forum, le président de Microsoft, Brad Smith, a affirmé que l'initiative est une étape importante pour que les entreprises technologiques se réunissent pour promouvoir l'utilisation responsable de l'IA, apportant des avantages à toute l'humanité. De même, Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, a affirmé que la technologie avancée de l’IA a le potentiel d’apporter de profonds avantages à la société, et cela nécessite une surveillance et une gouvernance.
Source
Comment (0)