Vietnam.vn - Nền tảng quảng bá Việt Nam

Risques de sécurité lors de l'utilisation de ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


La plus grande banque américaine, JPMorgan Chase, Amazon et la société technologique Accenture ont toutes interdit à leurs employés d'utiliser ChatGPT pour des raisons de sécurité des données.

Selon CNN, les inquiétudes de ces entreprises sont tout à fait justifiées. Le 20 mars, le chatbot d'OpenAI s'est écrasé et a exposé les données des utilisateurs. Bien que le bug ait été rapidement corrigé, la société a révélé que le problème affectait 1,2 % des utilisateurs de ChatGPT Plus. Les informations divulguées comprennent les noms complets, les adresses e-mail, les adresses de facturation, les quatre derniers chiffres des numéros de carte de crédit et les dates d'expiration des cartes.

Le 31 mars, l'autorité italienne de protection des données (Garante) a émis une interdiction temporaire sur ChatGPT, invoquant des problèmes de confidentialité après qu'OpenAI a révélé la vulnérabilité.

Mark McCreary, coprésident de la sécurité des données et de la confidentialité au sein du cabinet d'avocats Fox Rothschild LLP, a déclaré à CNN que les préoccupations en matière de sécurité entourant ChatGPT n'étaient pas exagérées. Il a comparé le chatbot IA à « une boîte noire ».

ChatGPT a été lancé par OpenAI en novembre 2022 et a rapidement attiré l'attention grâce à sa capacité à rédiger des essais, à composer des histoires ou des paroles en donnant des commandes (prompt). Les géants de la technologie comme Google et Microsoft ont également déployé des outils d’IA qui fonctionnent de manière similaire, alimentés par de grands modèles linguistiques formés sur de vastes quantités de données en ligne.

chatgpt.jpg

Après l'Italie, l'Allemagne envisage également d'interdire ChatGPT

Lorsque les utilisateurs saisissent des informations dans ces outils, ils ne savent pas comment elles seront utilisées par la suite, a ajouté M. McCreay. Cela est inquiétant pour les entreprises, car de plus en plus d’employés utilisent des outils pour les aider à rédiger des e-mails professionnels ou à prendre des notes pour des réunions, ce qui entraîne un risque accru de divulgation de secrets commerciaux.

Steve Mills, directeur de l'éthique de l'IA au Boston Consulting Group (BCG), a déclaré que les entreprises craignent que leurs employés divulguent accidentellement des informations sensibles. Si les données saisies par les gens sont utilisées pour former cet outil d’IA, ils ont alors perdu le contrôle des données au profit de quelqu’un d’autre.

Conformément à la politique de confidentialité d'OpenAI, la société peut collecter toutes les informations et données personnelles des utilisateurs du service pour améliorer les modèles d'IA. Ils peuvent utiliser ces informations pour améliorer ou analyser leurs services, mener des recherches, communiquer avec les utilisateurs et développer de nouveaux programmes et services.

La politique de confidentialité stipule qu'OpenAI peut fournir des informations personnelles à des tiers sans en informer les utilisateurs, sauf si la loi l'exige. OpenAI dispose également de son propre document de conditions d'utilisation, mais l'entreprise confie une grande partie de la responsabilité aux utilisateurs de prendre les mesures appropriées lors de leurs interactions avec les outils d'IA.

Le propriétaire de ChatGPT a publié un article de blog sur son approche de la sécurité de l'IA. L'entreprise souligne qu'elle n'utilise pas les données pour vendre des services, faire de la publicité ou créer des profils d'utilisateurs. OpenAI utilise les données pour rendre les modèles plus utiles. Par exemple, les conversations des utilisateurs seront utilisées pour former ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

La politique de confidentialité de ChatGPT est considérée comme assez vague.

La politique de confidentialité de Google, la société qui a développé l'outil Bard AI, contient des dispositions supplémentaires pour les utilisateurs d'IA. L'entreprise sélectionnera une petite partie de la conversation et utilisera des outils automatisés pour supprimer les informations personnelles identifiables. Cette approche améliore Bard et protège la confidentialité des utilisateurs.

Les exemples de conversations seront examinés par les formateurs et conservés jusqu'à 3 ans, séparément du compte Google de l'utilisateur. Google rappelle également aux utilisateurs de ne pas inclure d'informations personnelles sur eux-mêmes ou sur d'autres personnes dans les conversations sur Bard AI. Le géant de la technologie a souligné qu'il n'utiliserait pas ces conversations à des fins publicitaires et qu'il annoncerait des changements à l'avenir.

Bard AI permet aux utilisateurs de choisir de ne pas enregistrer les conversations sur leur compte Google, ainsi que de consulter ou de supprimer les conversations via un lien. De plus, l’entreprise a mis en place des mesures de protection conçues pour empêcher Bard d’inclure des informations personnelles dans les réponses.

Steve Mills estime que parfois, les utilisateurs et les développeurs ne découvrent les risques de sécurité cachés dans les nouvelles technologies que lorsqu'il est trop tard. Par exemple, la saisie semi-automatique peut révéler accidentellement le numéro de sécurité sociale d’un utilisateur.

Les utilisateurs ne devraient rien mettre dans ces outils qu’ils ne voudraient pas partager avec d’autres, a déclaré M. Mills.



Lien source

Comment (0)

No data
No data

Même sujet

Même catégorie

Restaurants de pho à Hanoï
Admirez les montagnes verdoyantes et les eaux bleues de Cao Bang
Gros plan du sentier pédestre transocéanique « apparaître et disparaître » à Binh Dinh
Ville. Hô-Chi-Minh-Ville est en train de devenir une « super-ville » moderne

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit