Meta a rendu sa décision publique dans de nouvelles mises à jour, publiées sur son centre d'aide dans la soirée du 6 novembre.
Photo : Reuters
« Alors que nous continuons à tester de nouveaux outils de création d'annonces génératives d'IA dans Ads Manager, les annonceurs qui mènent des campagnes sur le logement, l'emploi, le crédit ou les questions sociales, les élections ou la politique, ainsi que celles liées aux soins de santé, aux produits pharmaceutiques ou aux services financiers ne pourront actuellement pas utiliser ces fonctionnalités », a déclaré la société dans une note jointe à plusieurs pages expliquant le fonctionnement des outils.
« Nous pensons que cette approche nous permettra de mieux comprendre les risques potentiels et de mettre en place des mesures de protection appropriées pour l’utilisation de l’IA générative dans les publicités liées à des sujets potentiellement sensibles dans les secteurs réglementés », a déclaré Meta.
La mise à jour de la politique intervient un mois après que Meta a annoncé qu'elle commençait à élargir l'accès des annonceurs aux outils publicitaires basés sur l'IA pour créer des arrière-plans, des ajustements d'image et des variantes d'annonces qui répondent à de simples invites de texte.
Ces outils seront dans un premier temps accessibles à un petit groupe d’annonceurs à partir du printemps. À l'époque, Meta avait déclaré qu'elle était en passe de déployer son application auprès de tous les annonceurs du monde entier l'année prochaine.
Meta et d'autres entreprises technologiques se sont précipitées pour lancer des produits publicitaires IA innovants et des assistants virtuels ces derniers mois en réponse au mouvement mondial de l'IA.
Jusqu’à présent, les entreprises n’ont pas révélé grand-chose sur les mesures de protection de sécurité qu’elles prévoient d’imposer à ces systèmes, ce qui fait de la décision de Meta sur la publicité politique l’une des décisions politiques les plus importantes en matière d’IA dans ce domaine à ce jour.
Hoang Ton (selon Reuters)
Source
Comment (0)