Selon GizmoChina , dans le contexte où les géants de la technologie comme Google et Microsoft intensifient leurs investissements dans l'intelligence artificielle (IA) et introduisent continuellement de nouvelles fonctionnalités, Apple se « prépare » également pour ses « débuts » avec le lancement de la puce M4 de nouvelle génération avec des améliorations exceptionnelles en termes de performances et de capacités d'IA.
Le processeur Apple M4 prend en charge l'IA et double la mémoire par rapport à son prédécesseur
Selon les informations révélées par le journaliste de Bloomberg Mark Gurman, la puce du processeur M4 d'Apple est équipée de fonctionnalités d'IA avancées, promettant d'apporter des expériences complètement nouvelles aux utilisateurs. Cette gamme de puces comportera 3 variantes, dont M4, M4 Pro et M4 Max, répondant aux divers besoins des utilisateurs.
Le point fort de la puce M4 est sa capacité à prendre en charge jusqu'à 512 Go de mémoire unifiée, soit le double de la limite de 192 Go de la génération précédente. Cela améliore considérablement les performances multitâches et les capacités de traitement des données volumineuses.
En outre, Apple devrait également lancer deux nouvelles versions du MacBook Pro utilisant la puce de processeur M4, notamment le MacBook Pro de base et le MacBook Pro hautes performances. La version de base sera équipée de la puce M4 Donan, tandis que la version haute performance utilisera la puce M4 Brava ou M4 Hidra.
Les premiers Mac utilisant la puce M4 devraient être lancés en octobre ou novembre de cette année. Avec des améliorations exceptionnelles en termes de performances, d'IA et de mémoire, la puce M4 promet de créer une nouvelle avancée pour les appareils Apple, offrant aux utilisateurs des expériences de premier ordre.
Le lancement de la puce M4 marquera une étape importante dans la stratégie de développement d'Apple, affirmant la position de leader de l'entreprise dans le domaine de la haute technologie, en particulier son ambition d'entrer dans le domaine en vogue de l'IA.
Lien source
Comment (0)