Apple a glissé une surprise majeure pour les développeurs spatiaux dans une session WWDC 25 cette semaine. Les applications MacOS Tahoe 26 seront bientôt en mesure de rayer entièrement stéréoscopique 3D Scènes directement vers un casque Apple Vision Pro, pas de construction VisionOS distincte requise.

9to5mac repéré le nouveau RemoteImmersiveSpace Type de scène pendant « What’s Noof in Swiftui » d’Apple  » session. La démo a montré un projet Swiftui Mac uniquement lançant un environnement immersif sur Vision Pro, entièrement motivé par le GPU de bureau.

Jusqu’à présent, le mode d’affichage virtuel du Mac a traité Vision Pro comme un moniteur 2D ultra-large. RemoteImmersiveSpace Va beaucoup plus loin, la tuyauterie d’un véritable rendu à double vue via un nouveau framework CompositorServices afin que le casque puisse présenter la profondeur, la parallaxe et l’audio spatiale comme si la scène fonctionnait nativement.

Les développeurs n’auront pas besoin de réécrire leurs interfaces à partir de zéro. Apple dit que tout, des effets de survol à l’entrée des gestes, est pris en charge hors de la boîte dans Swiftui, tandis que les utilisateurs puissants peuvent tomber en métal pour un contrôle à grain fin des shaders et de l’éclairage. La même session a également dévoilé des API de lame spatiale fraîches qui permettent aux applications de prendre des objets aux tables ou de permettre aux utilisateurs de ramasser une bouteille d’eau virtuelle avec des mouvements de main naturels.

Les applications pratiques couvrent tout, des procédures architecturales à la modélisation moléculaire, permettant à un Mac de gérer le rendu lourd tandis que Vision Pro se concentre sur le suivi et l’affichage. Cette division du travail pourrait réduire la barrière à l’entrée pour les studios qui ont déjà des pipelines MAC robustes mais ont hésité à construire une version VisionOS dédiée.

Le mouvement ajoute également du poids à Bloomberg Reporter La réclamation de Mark Gurman qu’Apple prototype un casque de vision filaire moins cher conçu pour se brancher sur un Mac au lieu d’exécuter tout sur son propre silicium. Si ce produit se matérialise, RemoteImmersiveSpace fournirait la colle logicielle qui en vaut la peine.

Où le bureau rencontre le casque

Pour l’instant, la fonctionnalité vit à l’intérieur de la version bêta de Xcode 26 et nécessite à la fois des bêtas MacOS Tahoe 26 et Visionos 26. Apple n’a pas dit quand il atteindra les versions publiques, mais les développeurs peuvent commencer à expérimenter aujourd’hui en activant le nouveau type de scène dans Swiftui et en liant le cadre de CompositorServices.

Apple a présenté Vision Pro comme «un ordinateur spatial». Laisser le contenu immersif des applications Mac ordinaires ferme finalement la boucle sur cette promesse, brouillant la ligne entre le bureau et le casque et faisant allusion à un avenir où votre Mac est le moteur et Vision Pro est juste la fenêtre sur le monde dont vous avez besoin.



Articles connexes