(Dan Tri) - Apple est très confiant dans la sécurité du système d'intelligence artificielle qu'il a développé, comme en témoigne le fait qu'Apple offre une récompense d'un million de dollars à quiconque parviendra à pirater le serveur de ce système.
Apple a intégré les fonctionnalités d'intelligence artificielle Apple Intelligence sur iPhone, iPad et Mac, permettant aux demandes des utilisateurs d'être traitées via le système de serveur Private Cloud Compute.
Cela contribue à augmenter la vitesse de traitement, mais présente également des risques de sécurité, car les données des utilisateurs peuvent être attaquées par des pirates informatiques.
Pour garantir la sécurité et la confidentialité, Apple s'engage à supprimer toutes les demandes des utilisateurs après traitement et à utiliser un cryptage de bout en bout pour protéger les données. L'entreprise ne peut pas suivre ces demandes malgré le contrôle du système serveur.
Apple a ouvert un programme de primes de sécurité, invitant la communauté à participer à la recherche de bugs de sécurité sur son système de serveur Private Cloud Compute.
La récompense la plus élevée peut atteindre 1 million de dollars pour une personne capable d'attaquer à distance et d'exécuter un code malveillant, et 250 000 dollars pour un piratage visant à voler les données des utilisateurs.
Au départ, Apple n’avait invité qu’une poignée d’experts en sécurité, mais désormais, l’opportunité est ouverte à tous. « Pour encourager davantage de recherches sur les serveurs PCC, nous étendons le programme de primes de sécurité d'Apple », a déclaré un représentant d'Apple.
Non seulement Apple, mais aussi les grandes entreprises technologiques comme Microsoft et Google offrent souvent de grosses récompenses aux experts en sécurité qui découvrent des erreurs graves. C’est plus rentable que lorsque les failles de sécurité sont d’abord exploitées par des pirates.
Source : https://dantri.com.vn/suc-manh-so/apple-treo-thuong-mot-trieu-usd-cho-ai-tan-cong-duoc-he-thong-ai-cua-hang-20241025150058693.htm
Comment (0)