La division AI d’Apple est en flux. Une vague de sorties de haut niveau a soulevé des questions sur la façon dont l’entreprise équilibre l’innovation avec son accent de longue date sur la vie privée. Au centre de tout cela se trouve un choix fait par la pomme: pour garder ses modèles AI fermés plutôt que les open source. Cette décision, disent que les initiés, les ingénieurs frustrés et ont peut-être déclenché le récent talent Exode.

Les meilleurs chercheurs de l’IA de l’entreprise auraient poussé à publier certains de leurs modèles en tant que logiciels open source. L’objectif était double: gagner de la crédibilité dans la communauté de la recherche sur l’IA et inviter des experts extérieurs à aider à améliorer la technologie. Mais cette décision aurait également exposé un problème qu’Apple n’était pas prêt à expliquer publiquement. Ses modèles ne fonctionnent pas aussi bien lorsqu’ils sont optimisés pour fonctionner directement sur les iPhones au lieu de serveurs cloud.

Pourquoi l’ouverture de l’ouverture a été rejetée

Selon Les informationsCraig Federighi, vice-président principal de l’ingénierie logicielle d’Apple, Arrêtez la proposition. Dans un e-mail interne à Ruoming Pang, qui dirige l’équipe des modèles de fondation, Craig Federighi a repoussé l’idée open source. Il a dit que le marché avait déjà suffisamment de modèles ouverts. Il craignait également que les versions d’Apple révèlent à quel point des performances avaient été perdues lorsqu’elles étaient optimisées pour les téléphones au lieu de machines à haute puissance.

C’est le compromis qu’Apple fait avec sa stratégie «survice First», une partie fondamentale de son déploiement d’Apple Intelligence. En évitant le cloud, Apple protège la confidentialité des utilisateurs. Mais cette approche a de sérieuses limitations techniques. Certains des meilleurs chercheurs de l’entreprise partent maintenant à cause de cela.

Confusion, mécontentement et options externes

Un autre facteur qui stimule les troubles est la mauvaise communication interne. Selon le même rapport, les chercheurs travaillant sur Siri ont été aveugles par des retards dans le développement des fonctionnalités. Jusque-là, ils n’avaient reçu que des commentaires positifs. Le changement est venu sans avertissement.

Pendant ce temps, Apple serait en pourparlers avec Openai, Anthropic et Google pour utiliser leurs grands modèles de langue. Cela seul signale quelque chose de clair: Apple peut ne pas faire pleinement confiance à son travail en interne pour alimenter la prochaine version de Siri.

Les informations aussi rapports qu’Apple réévalue les packages de rémunération pour conserver les membres restants de son équipe de modèles de fondation.

Cette poussée et traction interne entre la vie privée et la performance, entre le contrôle et la collaboration, a créé des divisions profondes au sein de la direction de l’IA d’Apple. Ce qui se passe ensuite dépend non seulement de la technologie, mais si Apple peut conserver les personnes qui le construisent.



Articles connexes