Apple prévoit de lancer ses premières lunettes intelligentes d’ici la fin de 2026, ce qui est plus tôt que prévu, ciblant le marché croissant des appareils portables basés sur l’IA. Dans le même temps, la société a abandonné son projet pour créer une smartwatch avec une caméra intégrée. Le déplacement indique un changement stratégique alors qu’Apple se concentre sur les appareils de consommation alimentés par l’IA, s’éloignant des montres intelligentes basées sur la caméra qui ont été confrontées à des défis techniques et de confidentialité.
Bloomberg Les rapports selon lesquels les lunettes intelligentes comprendront des caméras intégrées, des microphones et des haut-parleurs. Ils prendront en charge les commandes vocales via Siri et effectueront des tâches telles que la gestion des appels téléphoniques, la lecture de la musique, la traduction des langues en temps réel et l’offre de navigation. Les ingénieurs d’Apple se préparent à commencer la production de prototypes à grande échelle avec des fournisseurs étrangers plus tard cette année.
Réponse d’Apple à la concurrence matérielle de l’IA
Le nouveau produit positionne Apple contre les lunettes intelligentes Ray-Ban de Meta et les futurs appareils à l’aide du système Android XR de Google. Étiquetés en interne N401, les lunettes font partie d’une poussée plus large du groupe Vision Products d’Apple. Bien que l’objectif ultime reste des spectacles avec des écrans intégrés, cette version est encore dans des années.
Apple a précédemment exploré le matériel intégré à l’IA sur ses gammes de produits. Les projets comprenaient des montres intelligentes et des AirPods avec des caméras, visant à capturer des données environnementales. Cependant, la société a récemment annulé son plan de publication d’une Apple Watch, équipée de la caméra d’ici 2027. Les AirPod avec des caméras sont toujours en cours de développement.
Nos rapports récents mettent en évidence les innovations clés liées aux prochaines lunettes intelligentes d’Apple, y compris une prise en charge potentielle pour les ajustements de mise au point basés sur les TAP et l’intégration avec des modèles d’IA comme FastVLM, ce qui pourrait améliorer la reconnaissance visuelle du monde réel, s’alignant avec la poussée plus large d’Apple dans les appareils portables alimentés par l’IA.
Pliables et appareils futurs
En plus des lunettes intelligentes, Apple se prépare à entrer dans le segment du téléphone pliable à la fin de 2026, s’alignant sur un marché que beaucoup de ses concurrents ont déjà adopté. La société développe également de nouvelles conceptions pour 2027 et explore les versions à moindre coût du casque Vision Pro, y compris un modèle qui empêche les Mac pour les applications de faible latence.
Comme indiqué par BloombergApple investit dans des puces personnalisées pour des lunettes intelligentes et prévoit de les produire en masse dès l’année prochaine. Les préoccupations internes de l’entreprise restent axées sur la rattrapage de l’IA, où des concurrents comme Meta et Google dirigent avec des plateformes plus avancées telles que Llama et Gemini. Apple s’appuie actuellement sur Google Lens et les modèles d’Openai pour le traitement visuel du monde réel via les iPhones, mais il vise à apporter cette capacité en interne pour ses futurs appareils.
Avec l’intensification de la concurrence et les attentes des utilisateurs, Apple est sous pression pour fournir une innovation significative. Ses lunettes intelligentes seront un test clé pour savoir si l’entreprise peut maintenir la pertinence dans la prochaine vague de technologies grand public.


