À la WWDC 2025, le 9 juin, Apple a présenté plusieurs innovations, dont l’intégration de nouvelles IA dans Apple Intelligence.
Bien que moins médiatisées, des fonctions comme Live Translation, Visual Intelligence et une Siri améliorée par ChatGPT enrichissent le système. Apple ouvre également le Framework Foundation Models aux développeurs, leur permettant d’intégrer ces modèles avancés dans leurs applications.
La confidentialité comme atout
Lors de la WWDC 2025, la marque à la pomme a dévoilé une nouvelle génération de modèles de langage conçus pour Apple Intelligence. Cette architecture repose sur deux composantes.
Le premier est un modèle local de 3 milliards de paramètres, optimisé pour le silicium Apple. Le second s’agit d’un modèle serveur basé sur le système Parallel Track Mixture-of-Experts (PT-MoE), accessible via Private Cloud Compute.
Les nouvelles IA d’Apple prennent en charge 15 langues. Ces modèles exécutent des tâches comme la génération de texte ou d’images directement sur l’appareil, sans connexion Internet.
Contrairement à ChatGPT ou Gemini, entièrement cloud-dépendants, le géant de Cupertino privilégie un traitement local. Les données restent soit sur l’appareil, soit dans un environnement chiffré via le cloud sécurisé d’Apple, sans jamais être utilisées à des fins commerciales ou d’entraînement.
Nouvelles IA pratiques et ludiques pour Apple Intelligence
Apple apporte aussi une nouvelle série de fonctionnalités utiles et créatives à son IA phare. Live Translation traduit en temps réel les conversations dans Messages, FaceTime et les appels. Tandis que Visual Intelligence analyse le contenu affiché à l’écran pour fournir des informations contextuelles ou exécuter des actions pertinentes.
Côté créativité, Genmoji et Image Playground permettent de générer des émojis personnalisés et des images sur mesure. Intégrés à iOS 26, iPadOS 26 et macOS Tahoe, ces outils offrent une intégration plus fluide et native que des solutions comme Google Assistant.
Toutefois, en matière de polyvalence conversationnelle, Apple Intelligence reste en retrait par rapport à ChatGPT. Pour combler cet écart, Siri évolue en un véritable assistant contextuel intelligent.
Elle intègre désormais ChatGPT, lui permettant de répondre aux demandes complexes et de comprendre le contenu de l’écran et les requêtes par texte.
L’écosystème s’ouvre aux développeurs
Parmi les grandes nouveautés figure le Framework Foundation Models. Cette API gratuite permet aux développeurs d’exploiter le modèle local d’Apple Intelligence via Swift, sans dépendre d’une connexion Internet.
Cette initiative offre aux startups et développeurs une solution sécurisée, locale et intégrée à l’écosystème Apple. Une alternative plus économique que les API coûteuses d’OpenAI ou les solutions cloud de Google, souvent basées sur des serveurs externes.
D’autre part, des fonctions comme Workout Buddy sur watchOS ou des raccourcis intelligents renforcent l’ancrage d’Apple Intelligence dans le quotidien. Et ce n’est pas tout, la firme annonce également le support de huit nouvelles langues d’ici fin 2025.
- Partager l'article :