Apple est devenu le dernier géant de la technologie à s’engager à respecter les directives volontaires de sécurité en matière d’intelligence artificielle établies par l’administration Biden. Cette décision fait suite à des changements rapides dans la technologie de l’IA au cours des deux dernières années, suscitant des inquiétudes quant à son impact potentiel sur la société.
Aux côtés des leaders du secteur comme OpenAI, Amazon, Google, Meta et Microsoft, Apple s’est engagé à tester rigoureusement ses systèmes d’IA pour détecter les biais, les vulnérabilités de sécurité et les risques pour la sécurité nationale. Non seulement cela, mais l’entreprise va également partager publiquement les résultats de ces évaluations.
« Ces principes appellent les entreprises à partager de manière transparente les résultats de ces tests avec les gouvernements, la société civile et le monde universitaire – et à signaler toute vulnérabilité. »
La Maison Blanche a activement plaidé en faveur du développement responsable de l’IA, reconnaissant ses avantages et ses risques potentiels.
L’année dernière, le président Biden a signé un décret rendant obligatoire les tests de sécurité pour les systèmes d’IA achetés par le gouvernement fédéral.
Mais pour l’instant, les lignes directrices restent volontaires et, sans aucun doute, les critiques affirment qu’une réglementation plus stricte est nécessaire pour garantir la sécurité publique. Le Congrès a manifesté son intérêt pour une législation sur l’IA, mais n’a pas encore adopté de projets de loi importants.
Pendant ce temps, le paysage de l’IA évolue rapidement. Le partenariat d’Apple avec OpenAI, annoncé à la WWDC, pour intégrer ChatGPT dans son iPhone a fait parler de lui au cours du mois dernier. Ce développement n’a pas été sans controverse, certaines personnes affirmant qu’Apple partage peut-être des données avec OpenAI parce qu’ils n’ont pas payé un centime à OpenAI.
Alors que l’IA continue de façonner les industries et la vie quotidienne, l’équilibre entre innovation et sécurité reste un défi crucial.
Plus ici.