Apple se prépare à lancer un nouveau système d’opt-in qui utilisera vos données sur les appareils pour améliorer Apple Intelligence, la plate-forme d’IA de l’entreprise.
Cette approche repose sur Confidentialité différentielleune méthode conçue pour collecter des données sans révéler les détails personnels. Bien qu’Apple dit que les données des utilisateurs ne quittent jamais votre appareil, le système l’analyse toujours pour affiner comment Apple Intelligence réagit aux invites communes.
La nouvelle fonctionnalité, définie pour ses débuts dans iOS 18.5, rassemblera des analyses des utilisateurs qui choisissent de participer. Il utilise des techniques qui ressemblent à un système de détection de détection CSAM (Child Sexual Abuse) de CSAM (Child Sexual Material) – une tentative antérieure d’analyse sur les appareils – mais cette fois, Apple souligne qu’aucun contenu utilisateur réel n’est téléchargé ou examiné.
Comment Apple collecte les données sans les prendre

La confidentialité différentielle fonctionne en injectant un bruit aléatoire dans les données collectées. Cela empêche Apple d’identifier les utilisateurs individuels tout en autorisant la reconnaissance des modèles à grande échelle.
Par exemple, Apple peut soumettre une invite populaire comme «Dinosaur dans un chapeau de cowboy» et vérifier à quelle fréquence les fragments similaires apparaissent dans vos données d’utilisation. Les résultats de ces vérifications sont anonymisés et fragmentés sur tous les appareils.
Apple dit que le système améliorera les fonctionnalités telles que Genmoji, les outils d’écriture et l’image d’image en identifiant les entrées fréquemment utilisées et les réponses de raffinage. La génération de texte longue, comme les résumés par e-mail, utilisera une méthode plus complexe.
Apple génère du contenu synthétique et les compare à des échantillons de données anonymisés pour trouver des modèles, sans accéder à vos e-mails.
Le processus n’implique pas de téléchargement ou de stockage de messages personnels. Au lieu de cela, votre appareil compare des échantillons générés localement avec des entrées synthétiques. Les résultats aident Apple à régler ses modèles tout en gardant le contenu brut privé. Selon Apple, toute correspondance se produit sur disque et aucun identifiant personnel n’est lié à l’analyse.
Reprendre des restes entre vos mains
Malgré les garanties de confidentialité, certains utilisateurs peuvent être mal à l’aise de partager toutes les données – même anonymisées – pour former l’IA. Apple le reconnaît en rendant le système strictement opt. Vous pouvez le désactiver dans Paramètres> Privacy et sécurité> Analytics & Améliorations en faisant bouger «Partagez l’iPhone et Watch Analytics».
Les techniques peuvent rappeler aux utilisateurs l’effort de détection de CSAM abandonné d’Apple, qui a utilisé un système différent pour scanner des photos pour un contenu nocif. Cette initiative a été confrontée à une forte réaction sur les inquiétudes qu’il pourrait être utilisé à mauvais escient par les gouvernements ou exploité par les attaquants.
En revanche, la formation Apple Intelligence se concentre sur les données invites anonymes et évite entièrement la numérisation du contenu.
Comme indiqué précédemment par BloombergApple vise à améliorer la précision du modèle d’IA en comparant les données synthétiques avec les modèles du monde réel local, le tout sans extraire des informations personnelles. La société a confirmé que le système sera inclus dans les versions bêta à venir d’iOS, d’iPados et de macOS.
Le groupe d’IA d’Apple a connu des changements de leadership et des retards de produits ces derniers mois, et cette évolution vers une formation sur les appareils reflète une poussée plus large pour rattraper des concurrents comme Openai et Google, sans compromettre la confidentialité.
La société prévoit d’annoncer davantage de mises à niveau de l’intelligence Apple en juin. Pour l’instant, Apple insiste sur le fait que vos données restent sur votre appareil, et le choix de le partager reste le vôtre.