Meta annonce la sortie de Llama 4 en 2025. Cette nouvelle version promet une « Intelligence Machine Autonome » qui pourrait révolutionner notre quotidien.
Après le Llama 3.2, Meta prépare enfin le lancement du Llama 4 pour début 2025. Ce modèle promet une « Intelligence Machine Autonome » (AMI) capable de percevoir, de raisonner et de s’adapter. Face à des concurrents comme OpenAI avec GPT-4o ou 01.AI de Kai-Fu Lee, Meta ne cache pas son ambition : repousser les limites actuelles de l’intelligence artificielle.
Un pas vers l’IA autonome… enfin ?
Il était temps pour Meta d’élever Llama à un niveau supérieur. Avec Llama 4, l’idée est simple : créer une IA qui planifie, évalue et ajuste ses actions.
Manohar Paluri, vice-président IA chez Meta, a récemment confié que son équipe explore des moyens de rendre Llama plus adaptable en temps réel. Ainsi, le modèle pourra modifier ses choix en fonction des changements de contexte.
En comparaison avec les versions précédentes, Llama 4 ne se contente plus d’exécuter des tâches simples. Maintenant, il peut apprendre en continu, s’adapter et réajuster comme un humain.
Par exemple, lors de la planification d’un voyage, l’IA pourrait anticiper des retards ou proposer des itinéraires alternatifs. Personnellement, je trouve cette flexibilité remarquablement rare ! « L’essentiel est que le modèle sache quand il est sur la bonne voie », explique Paluri.
En parallèle, Meta a récemment introduit le Dualformer, une autre avancée inspirée de la cognition humaine. Ce modèle bascule entre une pensée rapide et intuitive et un raisonnement plus lent et délibéré.
Un apprentissage innovant pour former Llama 4
Pour rendre Llama 4 vraiment « intelligent », Meta utilise une approche novatrice. L’équipe combine l’apprentissage auto-supervisé (SSL) et le renforcement par retour d’information humain (RLHF).
Grâce au SSL, Llama se forme en analysant d’énormes volumes de données, ce qui lui permet de développer des connaissances générales sans intervention humaine. En parallèle, le RLHF affine ses réactions pour répondre aux attentes humaines, un peu comme un mentor qui guide son élève.
« L’apprentissage auto-supervisé aide les modèles à acquérir des connaissances générales », explique Paluri. « Cependant, l’apprentissage par renforcement est plus ciblé. Il donne au modèle des retours spécifiques, comme lui dire « bon travail » ou « réessaie » en fonction de ses actions ».
Cette combinaison permet donc de rendre Llama non seulement polyvalent mais aussi plus précis dans ses réponses.
Meta veut aussi que Llama génère des données synthétiques, un atout de taille pour les régions où les données sont rares. Prenons l’exemple de Llama 3.1 405B : ce modèle est conçu pour produire des contenus adaptés aux langues indiennes, une avancée majeure dans un pays où la diversité linguistique peut parfois être un obstacle.
Vivek Raghavan, chef de Sarvam AI, a révélé que Llama 3.1 a servi à développer Sarvam 2B, un modèle de 2 milliards de paramètres avec 4 000 milliards de jetons, dont 2 000 milliards en langues indiennes. « Nous avons utilisé 1 024 cartes NVIDIA H100 pour former le modèle en seulement 15 jours », a précisé Raghavan.
Un saut technologique dès 2025
Alors, Meta réussira-t-il son pari ? Mark Zuckerberg, PDG de Meta, y croit ! Lors d’une interview récente avec Rowan Cheung, influenceur dans le domaine de l’IA, Zuckerberg a révélé que la pré-formation de Llama 4 était déjà en cours, soutenue par une infrastructure de calcul et des clusters de données spécialement dédiés.
Ragavan Srinivasan, vice-président produit chez Meta, voit en Llama « nouvelle génération » un tournant décisif pour 2025.
Des fonctionnalités inédites sont au programme : une mémoire contextuelle avancée et une prise en charge intermodale permettant des collaborations étroites avec des tiers. « Les développeurs auront désormais accès à une IA qui évolue avec chaque nouvelle génération », a-t-il précisé.
Quand je repense à la cadence effrénée de Meta, je suis impressionné : Llama 3 en avril, 3.1 en juillet, puis Llama 3.2 en septembre… Meta a clairement accéléré le rythme.
Paluri souligne aussi l’importance de mises à jour régulières, expliquant que Meta veut des « améliorations prévisibles et significatives ». De plus, avec les versions quantifiées de Llama 3.2, la vitesse d’inférence a été quadruplée, tout en réduisant la taille des modèles et l’utilisation de mémoire.
Alors, êtes-vous prêts pour cette révolution ? Pensez-vous que Meta Llama 4 sera à la hauteur des promesses d’une « Intelligence Machine Autonome » ? Faites-nous part de votre opinion ci-dessous !
- Partager l'article :