apple ia

Apple dévoile sa propre IA pour créer de l’image et du texte : MM1

Apple vient de dévoiler sa propre IA multimodale, MM1, capable de comprendre et potentiellement de générer aussi bien du texte que des images. Un projet de recherche scientifique, qui pourrait toutefois devenir une nouvelle version de l’assistant Siri…

Nous vivons une époque surprenante. Longtemps réputée pour la fermeture totale de ses logiciels, Apple vient de créer une IA plus ouverte qu’OpenAI dont l’ouverture est censée être la caractéristique principale…

Les chercheurs de la Pomme viennent de partager leurs travaux sur un LLM (large modèle de langage) d’intelligence artificielle multimodale.

Les chercheurs Apple révèlent leur IA multimodale

À travers une étude publiée en ligne le 14 mars 2024 sur le portail arXiv, Apple met en lumière la façon dont elle a entraîné un modèle sur des données textuelles et des images.

Le document ne mentionne pas directement Apple, mais la plupart des chercheurs cités sont en lien avec la division Machine Learning de l’entreprise. Tout porte donc à croire que le projet émane de la firme de Cupertino.

Les modèles multimodaux de cette famille, baptisée MM1, contiennent jusqu’à 30 milliards de paramètres. Leur architecture regroupe différents composants : des encodeurs d’image, un connecteur de vision et de langage…

Ceci a permis de donner naissance à un modèle IA capable de comprendre à la fois les prompts textuels et ceux prenant la forme d’images.

Une approche de préentraînement novatrice et prometteuse

Comment l’expliquent les chercheurs, « nous démontrons que pour le préentraînement multimodal à grande échelle, l’utilisation d’un mix d’image-légende, de textes et d’images entrelacées, et de données textuelles est cruciale pour atteindre des résultats de pointe sur de multiples benchmarks ».

Ce modèle IA est actuellement encore en phase de pré-entraînement, et n’est donc pas encore suffisamment entraîné pour générer les résultats demandés.

C’est au cours de cette étape que l’algorithme et l’architecture IA sont utilisés pour concevoir le workflow du modèle et la façon dont il traite les données.

Les chercheurs d’Apple ont été capables d’ajouter la vision par ordinateur au modèle en utilisant des encodeurs d’image et un connecteur vision langage.

Lors des tests, ils ont réalisé que les résultats étaient supérieurs aux modèles existants au même stade de développement.

Leur approche semble donc plus concluante que les autres méthodes de pré-entraînement, ce qui pourrait permettre d’importants progrès dans le domaine de l’IA.

Vers un nouveau Siri supérieur à ChatGPT ?

Alors, peut-on s’attendre à ce que cette IA soit incorporée aux produits Apple dans un avenir proche ? Début février 2024, lors de l’annonce des résultats financiers, le CEO Tim Cook avait estimé que des fonctionnalités IA seraient présentées plus tard dans l’année…

Il est possible qu’Apple lance une nouvelle version de Siri comparable à ChatGPT, capable de comprendre n’importe quelle requête et de générer du texte ou des images.

Cependant, ce papier de recherche n’est pas suffisant pour déterminer les véritables projets de la Pomme dans le domaine de l’intelligence artificielle.

En parallèle, le bruit court qu’Apple serait en discussion avec Google pour intégrer l’IA Gemini à la prochaine version d’iOS pour iPhone et iPad…

Néanmoins, comme tous les géants de la tech, il est clair qu’Apple ne peut faire l’impasse sur l’IA et se doit d’investir massivement dans la recherche pour dominer cette nouvelle technologie révolutionnaire !

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *