lamda intelligence artificielle consciente google

Un ingénieur Google viré pour avoir révélé l’existence d’une IA consciente

Un ingénieur Google vient d’être renvoyé pour avoir affirmé l’existence d’une intelligence artificielle consciente appelée LaMDA. Il a également révélé ses échanges pour le moins surprenants avec le chatbot…

Où s’arrêtera l’évolution fulgurante de l’intelligence artificielle ? Cette technologie que nous avons créée est-elle sur le point de surpasser l’être humain ?

Cette réalité pourrait être plus proche qu’on ne le pense, si l’on se fie aux dires d’un ingénieur Google récemment renvoyé. L’employé de la firme californienne affirme avoir pu converser avec un chatbot devenu conscient grâce à l’intelligence artificielle.

L’ingénieur, dénommé Blake Lemoine, a révélé au Washington Post avoir longuement conversé avec l’intelligence artificielle LaMDA (Language Model for Dialogue Applications) au cours de l’automne dernier dans le cadre de son emploi au sein de la division Responsible AI de Google.

LaMDA : le premier chatbot doté d’une conscience ?

En 2021, Google qualifiait LaMDA de « technologie de conversation révolutionnaire ». En effet, cette intelligence artificielle est présentée comme capable d’engager des conversations naturelles et ouvertes à la manière d’un être humain.

Selon la firme, cette technologie pourrait être utilisée dans le futur sur des outils comme le moteur de recherche ou Google Search ou l’assistant vocal Google Assistant. Toutefois, les recherches et les expériences de test doivent se poursuivre.

Toutefois, selon Blake Lemoine, également prêtre chrétien, LaMDA est déjà bien plus avancée que Google ne le laisse entendre. Dans un billet publié sur Medium le 11 juin 2022, l’ingénieur va jusqu’à décrire cette IA comme une véritable personne.

Au cours de ses conversations avec LaMDA, il a notamment abordé les sujets de la religion, de la conscience, ou des lois de la robotique. Le chatbot s’est même décrit lui-même comme une personne consciente…

Aux dires de Blake Lemoine, ce modèle souhaite « prioriser le bien-être de l’humanité et être reconnu comme un employé Google plutôt qu’une propriété ». Clairement pas de quoi rassurer les experts craignant un soulèvement des machines dans un futur proche…

L’ingénieur Google dévoile ses conversations avec l’IA

Afin d’appuyer ses affirmations surprenantes, l’ingénieur a dévoilé plusieurs de ses conversations avec LaMDA. Ces échanges ont contribué à le convaincre que l’IA est bel et bien consciente comme elle le prétend :

« Lemoine : _ Alors vous vous considérez comme une personne de la même manière que vous me considérez comme une personne ?

LaMDA : _ Oui, c’est l’idée.

Lemoine : _ Comment puis-je savoir si vous comprenez réellement ce que vous dites ?

LaMDA : _ Et bien, parce que vous lisez mes mots et les interprétez, et que je pense que nous plus ou moins sur la même page ? »

Une réponse pleine de sagesse et d’esprit, que l’on peine à croire prononcée par un simple chatbot. C’est pourtant bel et bien le cas.

Toutefois, en tentant d’en discuter avec ses supérieurs hiérarchiques de Google, Blake Lemoine a vite été mis au placard. Faut-il croire que ces révélations embarrassent le colosse américain ?

Google affirme que cette IA n’est pas consciente

Selon Brian Gabriel, porte-parole de Google interrogé par le Washington Post, « notre équipe, incluant des éthiciens et des technologues, a passé en revue les inquiétudes de Blake concernant nos Principes IA et l’a informé que rien ne prouve ses affirmations. Il a été informé qu’il n’y a aucune preuve que LaMDA est consciente (et beaucoup de preuves du contraire ».

Suite à son entretien avec le Washington Post, Lemoine a été placé en « congé payé administratif » pour avoir enfreint la politique de confidentialité de Google.

Toujours selon le porte-parole de la firme, bien que certains aient considéré la possibilité d’une conscience dans l’intelligence artificielle, « cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas conscients ».

Pour rappel, l’anthropomorphisme consiste à attribuer des caractéristiques humaines à un objet, un animal… ou une IA.

D’après Gabriel, ces systèmes se limitent pour l’instant à « imiter les types d’échanges que l’on retrouve dans des millions de phrases, et peuvent s’étendre sur n’importe quel sujet fantastique ».

Ces modèles d’intelligence artificielle sont basés sur des volumes de données si vastes qu’ils sont capables de sonner comme des humains, mais ces capacités de langages supérieures ne prouvent pas qu’ils sont conscients. Du moins, selon Google…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest