Apple a dévoilé ses nouveautés à la WWDC 2025 et sans crier au miracle, l’IA fait désormais partie de l’ADN de ses produits. Discrète et bien intégrée au quotidien des utilisateurs.
Apple sort enfin du silence et injecte de l’IA là où elle semble vraiment utile. Au menu, nous retrouvons la reconnaissance d’images, le coach vocal, la traduction en direct, les appels filtrés, la création d’images et les raccourcis boostés. L’IA devient un moteur invisible au service du quotidien, directement intégré dans iOS 26 et les écosystèmes Apple. Un choix mesuré, mais diablement efficace.
Apple fait de l’IA à sa manière et en douceur
Cette année, Apple a préféré éviter les grandes démonstrations d’IA. L’entreprise mise plutôt sur une intégration subtile, fluide, dans iOS 26 et ses services.
Pour commencer, votre iPhone ouvre enfin les yeux. Apple lance Visual Intelligence, un outil IA capable d’analyser en temps réel ce que vous voyez à l’écran. Une photo d’une plante ? Il vous dit laquelle. Un restaurant ? Il cherche les avis.
Qui plus est, l’IA peut maintenant réagir à ce que vous regardez dans vos apps (réseaux sociaux compris) en vous proposant une recherche enrichie via Google ou ChatGPT. Ce genre de super-Shazam visuel est activable depuis le Centre de Contrôle ou le bouton Action.
Ensuite, parlons de l’app Entraînement d’Apple qui accueille un nouveau coach IA vocal. Celui-ci vous motive pendant vos courses et commente vos stats en direct (fréquence cardiaque, allure, records…). Il résume également votre performance après l’effort.
Des lots d’outils utiles pour notre quotidien
ChatGPT s’ajoute à l’outil de génération d’images Image Playground. Ainsi, vous pouvez créer des visuels dans des styles variés (anime, aquarelle, peinture à l’huile…). Et vous pouvez même demander à ChatGPT de proposer d’autres variantes d’image, comme un brainstorming visuel.
Par ailleurs, Apple Intelligence s’invite dans Messages, FaceTime et les appels. Traduction en temps réel, sous-titres live, transcription audio pendant les appels… Je pense que c’est un petit pas vers le traducteur universel. Apple ajoute de plus un filtrage automatique des appels inconnus et une détection de musique d’attente pour vous prévenir quand un agent décroche enfin.
Et ce n’est pas tout ! Apple Intelligence peut suggérer automatiquement de créer un sondage dans Messages, selon le contexte. Par exemple, si vous hésitez entre deux bars dans un groupe ? Hop, un sondage apparaît.
L’application Raccourcis intègre aussi maintenant des modèles d’IA pour automatiser certaines tâches (résumés de texte, suggestions, etc.). Spotlight, de son côté, devient plus contextuel. Désormais, il peut suggérer des actions selon ce que vous êtes en train de faire.
Avec le nouveau framework Foundation Models, Apple ouvre la porte à l’IA hors ligne pour les apps tierces. C’est une belle opportunité pour les développeurs de renforcer leurs applications sans dépendre du cloud.
Je sais que tout comme moi, vous attendez des nouveautés sur Siri, mais non. Apple n’a présenté aucune démo ni aucune annonce forte sur ce sujet. Toutefois, l’entreprise promet des améliorations « l’année prochaine ». Personnellement, je pense que ce silence laisse un goût d’inachevé, surtout face aux avancées de la concurrence.
- Partager l'article :

