L’intelligence artificielle (IA) a dominé la première journée de la WWDC 2024, et Apple a annoncé plusieurs mises à jour. Siri fera l’objet d’une refonte, qui inclut également l’intégration de ChatGPT. Apple Intelligence apparaîtra également dans plusieurs applications, notamment Notes, et vous recevrez des résumés de notifications AI. Cependant, bon nombre de ces fonctionnalités ne seront disponibles qu’en 2025.

Mais même si certaines personnes sont enthousiasmées par les changements à venir cet automne, tout le monde n’est pas impressionné. Certains utilisateurs se sont particulièrement prononcés sur le partenariat d’Apple avec OpenAI, et même si Apple a donné beaucoup de détails sur ses fonctionnalités de sécurité, certains auront peut-être encore besoin de temps pour être convaincus.

Voyons maintenant si les problèmes de sécurité liés à l’aventure d’Apple dans l’IA sont justifiés.

Qu’ont dit les gens à propos des annonces d’Apple en matière d’IA ?

Elon Musk, propriétaire de Tesla et SpaceX, a été le critique le plus virulent des annonces d’Apple à la WWDC 2024. Musk a posté sur X qu’il interdirait tous les produits Apple dans ses entreprises si Apple poursuivait l’intégration de ChatGPT, qualifiant cette décision de « violation de sécurité inacceptable ».

Musk est également allé plus loin quelques minutes plus tard, accusant Apple de n’avoir « aucune idée de ce qui se passe lorsqu’ils transmettent vos données à OpenAI ».

Musk avait déjà intenté une action en justice contre OpenAI au moment de la publication de ces messages, mais il l’a depuis abandonné – comme le rapporte CNN.

OpenAI a reçu des critiques de la part de plusieurs employés passés et actuels. Tel que publié par le New York Timescertains employés ont déclaré que l’entreprise avait une « culture de l’insouciance ».

Ces inquiétudes sont-elles justifiées ?

Il faut souligner que la plupart du grand public ne comprend pas comment les plateformes d’IA utilisent leurs données, et il s’agit toujours d’un nouveau monde dans lequel même les acteurs du secteur technologique tentent de s’orienter. Apple a donné beaucoup de détails sur ses intentions en matière de confidentialité pour répondre à ces inquiétudes.

S’exprimant sur le sujet, Craig Federighi – vice-président principal du génie logiciel chez Pomme – a déclaré les déclarations suivantes :

« Private Cloud Compute permet à Apple Intelligence de traiter les demandes complexes des utilisateurs avec une confidentialité révolutionnaire. »

« Nous avons étendu la sécurité de pointe de l’iPhone au cloud, avec ce que nous pensons être l’architecture de sécurité la plus avancée jamais déployée pour l’IA dans le cloud à grande échelle.

« Private Cloud Compute utilise vos données uniquement pour répondre à votre demande et ne les stocke jamais, s’assurant qu’elles ne soient jamais accessibles à quiconque, y compris Apple. Et nous avons conçu le système pour que des experts indépendants puissent vérifier ces protections.

Il convient également d’examiner les spécificités des annonces d’Apple en matière d’IA et des données utilisateur. Avant d’utiliser ChatGPT sur les appareils Apple, les utilisateurs devront confirmer qu’ils souhaitent accéder à la fonctionnalité. De plus, Apple a déclaré lors de la WWDC 2024 qu’OpenAI ne conserverait pas les demandes des utilisateurs sur ChatGPT. De ce point de vue, le tableau d’ensemble semble un peu moins préoccupant.

Il faudra peut-être un certain temps aux gens pour s’adapter à ces changements

Malgré les annonces d’Apple et d’OpenAI en matière de confidentialité, il sera difficile de convaincre tout le monde que leurs données seront en sécurité. En 2023, Un chercheur en cybersécurité en Pologne a déposé une plainte contre OpenAI. Le chercheur a créé une biographie de lui-même avec ChatGPT qui comportait plusieurs erreurs, mais sa Demande d’accès au sujet a été refusé.

La plainte contre OpenAI disait :

« D’après les faits de l’affaire, il apparaît qu’OpenAI ignore systématiquement les dispositions du RGPD concernant le traitement des données à des fins de modèles de formation au sein de ChatGPT, ce qui a notamment pour conséquence que M. Lukasz Olejnik n’a pas été correctement informé. informé du traitement de ses données personnelles.

OpenAI a également été poursuivi par plusieurs sociétés, dont le New York Times, pour violation présumée du droit d’auteur.

Les sceptiques généraux de l’IA n’aimeront probablement pas non plus la quantité croissante d’IA qui arrivera sur iOS, macOS et iPadOS cet automne. Même si je pense que bon nombre de ces inquiétudes sont exagérées, elles restent légitimes dans une certaine mesure. Il incombe à Apple et à ses partenaires de fournir un historique clair en matière de sécurité s’ils veulent convaincre tout le monde, et il faudra probablement également davantage d’éducation du public sur l’IA jusqu’à ce que tout le monde se rallie à cette idée.



Articles connexes