Le système de dictée iPhone d’Apple a rencontré un bogue où il transcrit temporairement le mot «raciste» comme «Trump» avant de se corriger. Ce problème a été signalé par de nombreux utilisateurs d’iPhone et confirmé par le New York Times.

Une porte-parole d’Apple a attribué le problème aux similitudes phonétiques entre les deux mots et a déclaré que la société travaillait sur un correctif. John Burkey, fondateur de Wonderrush.ai et ancien membre de l’équipe Siri d’Apple, affirme que le problème découle probablement du code logiciel plutôt que des données d’IA collectées.

Cet incident s’est produit au milieu d’événements récents, notamment l’introduction par Apple d’un nouveau système d’IA appelé Apple Intelligence, une promesse d’investissement de 500 milliards de dollars pour les opérations américaines et des réunions en cours entre le PDG d’Apple Tim Cook et le président Trump.

Le bogue a soulevé des questions sur les capacités de l’IA d’Apple et a déclenché une discussion, en particulier après qu’un post Tiktok soulignait que le problème est devenu viral.

Ce n’est pas la première fois que les systèmes d’IA d’Apple sont confrontés à des défis. Le mois dernier, Apple a désactivé une fonctionnalité de résumé des informations en raison d’inexactitudes. En 2018, Siri a affiché un contenu inapproprié en réponse à une question sur Donald Trump, qui était liée au vandalisme de Wikipedia.



Articles connexes