La dernière approche d’Apple en matière d’intelligence artificielle a soulevé des questions sur la confidentialité, mais la société affirme que ses méthodes sont conçues pour assurer la sécurité des données des utilisateurs. Apple utilise désormais une analyse sur les appareils pour améliorer son système d’intelligence Apple, un processus qui compare les données synthétiques aux échantillons du monde réel à partir des appareils des utilisateurs. Selon Apple, ces informations ne quittent jamais l’appareil et ne sont pas directement utilisées pour former ses modèles d’IA de fondation.
La société s’appuie sur une technique de confidentialité appelée confidentialité différentielle, qui ajoute un bruit aléatoire aux données avant son analyse. Cela garantit que les informations individuelles des utilisateurs ne peuvent pas être retracées à une personne, même si Apple apprend les tendances générales pour améliorer ses outils d’IA. Pour les utilisateurs qui s’optèrent, seules des données anonymisées et agrégées sont utilisées, et Apple dit qu’il ne collecte ni ne stockait du contenu personnel tel que des e-mails ou des messages.
Lorsque un traitement plus complexe est nécessaire, Apple utilise un calcul du cloud privé, un système qui ne traite que les données nécessaires sur les serveurs sécurisés et le supprime une fois la demande terminée. Apple permet également aux experts indépendants d’examiner ses protections de confidentialité, et les utilisateurs peuvent contrôler leur participation via les paramètres de confidentialité.
Les experts en sécurité et les défenseurs de la confidentialité ont noté que le système d’Apple est différent de ceux des autres sociétés technologiques, qui collectent et stockent souvent de grandes quantités de données utilisateur pour la formation en IA. L’approche d’Apple est conçue pour offrir aux utilisateurs les avantages de l’IA sans renoncer au contrôle de leurs informations personnelles. La société affirme qu’elle n’utilise pas de données personnelles privées ou d’interactions utilisateur pour former ses modèles de fondation, et il applique des filtres pour supprimer toute information personnellement identifiable des sources de données publiques.
Plus ici.