Apple laisse maintenant les développeurs externes utiliser les mêmes modèles d’IA alimentant sa nouvelle intelligence Apple. Annoncé par Craig Federighi au WWDC 2025, le tout nouveau cadre de modèles de fondation ouvre la porte aux applications pour intégrer les fonctionnalités à disposition de l’AI, sans s’appuyer sur les services cloud et sans frais d’API.
Jusqu’à présent, l’IA sur dispositif d’Apple était limitée à ses propres applications. Le courrier pourrait résumer les e-mails, les notes pourraient utiliser Genmoji et les messages pourraient automatiquement les sondages. Le nouveau cadre modifie tout cela. Les applications pour des tâches telles que les quiz, les visuels ou les outils de productivité peuvent exploiter directement des modèles de tailles variables, des modèles de base 3 B PARAM pour les tâches légères à des modèles plus complexes 150 B pour le raisonnement nuancé. Ceux-ci restent locaux sur l’iPhone et l’iPad, préservant la confidentialité et permettant une utilisation hors ligne.
Federighi a mis en évidence les exemples de cas d’utilisation pendant sa démo: les applications d’étude peuvent générer des quiz personnalisés; Les applications extérieures peuvent exécuter une recherche en langue naturelle entièrement hors ligne. La configuration est conçue pour être facile. Avec seulement quelques lignes de code Swift, les développeurs peuvent appeler la génération guidée, la classification, le résumé, etc.

Cette décision est la réponse d’Apple à la concurrence rapide dans l’IA à partir de plates-formes comme Openai, Google et même des LLM tierces, en particulier après les retards précédents dans la mise à niveau des fonctionnalités Siri et génératrices générales. Dans le même temps, MacOS 26, iOS 26, iPados 26 et d’autres plates-formes feront leurs débuts sur des fonctionnalités d’IA intégrées comme la traduction en direct, les raccourcis plus intelligents, les outils de création d’images et Genmoji élargi. Mais laisser des développeurs tiers accéder aux modèles eux-mêmes est le changement le plus notable, qui pourrait vraiment démocratiser les fonctionnalités intelligentes de l’écosystème Apple.
Les développeurs peuvent commencer à tester aujourd’hui dans le cadre du cycle bêta de la WWDC, avant une version bêta publique le mois prochain et la version complète de cet automne, parallèlement aux mises à jour annuelles du système d’exploitation. C’est une étape modeste, mais avec des implications significatives: les assistants intelligents, les outils de traduction et les aides à la productivité peuvent désormais devenir courants entre les applications plutôt que confinées aux services de base Apple.
Pourquoi cela compte
L’approche d’Apple se concentre sur l’IA de la confidentialité en première en gardant toute l’inférence locale de l’appareil. Cela signifie que les données de l’utilisateur ne quittent jamais le téléphone ou la tablette, en préservant la confidentialité et en activant les fonctionnalités hors ligne. Il n’y a pas non plus de barrière de coût, les développeurs peuvent intégrer ces fonctionnalités de l’IA sans payer les frais d’API. Cela facilite les petites équipes ou les développeurs indépendants de créer des fonctionnalités intelligentes dans leurs applications sans compter sur les infrastructures cloud.
Alors que les démos se sont concentrées sur les scénarios éducatifs et de productivité, les implications s’étendent bien plus larges. Avec les outils maintenant disponibles, nous verrons probablement une augmentation des assistants intelligents, des aides de traduction et des workflows automatisés sur des applications tierces, dont beaucoup pourraient rivaliser avec les propres fonctionnalités d’Apple et la portée des utilisateurs.


