Comme avec Google Home en 2016 ou Duplex en 2018, Google a présenté LaMDA lors de sa conférence annuelle des développeurs, I/O. Il s’agit d’une IA conçue pour avoir une conversation sur n’importe quel sujet.
Un outil intégré plus tard à la recherche sur Google
Lors de la conférence, Sundar Pichai, PDG de Google, a effectué une démonstration sur scène de LaMDA. Pour chaque requête, l’outil a répondu avec trois ou quatre phrases censées ressembler à une conversation naturelle entre deux personnes. Au fil du temps, LaMDA pourrait être intégré aux produits Google, notamment Assistant, Workspace et, plus important encore, la recherche.
Selon Google, les capacités de conversation naturelles de LaMDA ont le potentiel de rendre l’information et l’informatique radicalement plus accessibles et plus faciles à utiliser. La démonstration LaMDA offre une fenêtre sur la vision de Google pour la recherche. Cette vision est centrée sur l’IA qui peut inférer un sens à partir du langage humain, engager une conversation et répondre à des questions à multiples facettes comme un expert.
MUM, un autre outil d’IA présenté par Google
Google a présenté un autre outil d’IA baptisé Multitask Unified Model (MUM), qui peut prendre en compte les recherches avec texte et images. Les utilisateurs pourraient un jour prendre une photo d’une paire de chaussures et demander au moteur de recherche si celles-ci seraient adaptées à l’ascension du mont Fuji. MUM génère des résultats dans 75 langues, ce qui, selon Google, lui donne une compréhension plus complète du monde.
MUM est destiné à réduire le nombre de recherches nécessaires pour trouver une réponse pertinente. Par ailleurs, l’outil peut à la fois résumer et générer du texte. Mais s’appuyer davantage sur l’IA pour déchiffrer le texte comporte également des risques, car les ordinateurs ont encore du mal à comprendre le langage dans toute sa complexité.
GPT-3, l’une des IA de génération de texte les plus avancées
L’IA la plus avancée pour la génération de texte ou la réponse à des questions, connues sous le nom de grands modèles linguistiques, a montré une propension à amplifier les biais et à générer un texte imprévisible ou toxique. L’un de ces modèles, le GPT-3 d’OpenAI, a entre autres été utilisé pour créer des histoires interactives pour des personnages animés.
Dans le cadre d’un article et d’une démo publiés en ligne l’année dernière, des chercheurs du MIT, d’Intel et de Facebook ont découvert que les grands modèles linguistiques présentaient des préjugés basés sur des stéréotypes sur la race, le sexe, la religion et la profession.
Créer des modèles linguistiques toujours plus grands
L’introduction de BERT en 2018 a lancé une course parmi les géants de la technologie pour créer des modèles linguistiques toujours plus grands et progresser dans les classements de performances populaires comme GLUE sur des tâches telles que la compréhension du langage ou la réponse à des questions. Les ingénieurs évaluent souvent ces modèles par le nombre de paramètres, une mesure des connexions entre les neurones artificiels dans un système d’apprentissage en profondeur.
MUM est 1 000 fois plus puissant que BERT en tenant compte du nombre de paramètres. Si l’indexation a toujours été considérée comme l’épine dorsale de la recherche, les ingénieurs de Google envisagent de supprimer l’indexation en utilisant des modèles de langage de plus en plus grands qui peuvent comprendre plus de requêtes, comme le Knowledge Graph qui fournit des réponses à des questions factuelles.
- Partager l'article :