réplique ia stanford deepmind

L’IA peut créer une réplique de votre personnalité : les chercheurs alertent

Des chercheurs de Stanford et Google DeepMind sont parvenus à créer des clones virtuels imitant à la perfection la personnalité, le comportement et les goûts et les valeurs de personnes réelles. Et il leur a suffi de 2 heures d’interview ! Une révolution pour le futur ? 

Avez-vous déjà rêvé d’avoir un clone qui fait tout à votre place, pendant que vous vous reposez confortablement et laissez libre cours à vos envies

C’est désormais (presque) possible grâce à l’intelligence artificielle ! Il vous suffit d’accorder deux heures d’entretien à un modèle IA, et de vous laisser guider à travers une conversation. 

Vous devez notamment répondre à des questions sur votre enfance, vos souvenirs les plus marquants, votre carrière, ou encore votre avis sur la politique d’immirgation… 

Après cette discussion, votre réplique virtuelle sera fin prête à vous incarner en défendant vos valeurs et en partageant toutes vos préférences

Il ne s’agit malheureusement pas pour l’instant d’un outil disponible pour le grand public, mais d’un projet de recherche mené par les chercheurs de Stanford et Google DeepMind

2 heures suffisent pour créer votre clone IA 

Menée par l’étudiant doctorant Joon Sung Park de Stanford, l’équipe a recruté 1000 personnes de différents âges, genres, races, régions, niveaux d’éducation et idéologies politiques. Chacun a été payé 100 dollars pour sa participation.

Pour créer un agent IA imitant une personne à la perfection, les chercheurs avaient besoin d’un moyen de distiller notre singularité dans un langage que les modèles IA peuvent comprendre. 

C’est pourquoi ils ont choisi des entretiens qualitatifs. Pour cause, après avoir écrit un papier sur les agents génératifs en 2023, Park a été interviewé par de nombreux podcasteurs. Il s’est alors rendu compte que deux heures leur suffisaient pour bien le connaître

De plus, les entretiens peuvent révéler des idiosyncrasies moins susceptibles d’apparaître sur un questionnaire. Le chercheur prend l’exemple d’une personne qui « aurait eu un cancer mais aurait finalement guéri l’an dernier ». 

Une telle information peut en dire long sur le comportement et la vision d’une personne, mais serait difficile à obtenir par le biais d’un simple questionnaire

Toutefois, outre les entretiens, une méthode alternative serait de faire appel à une entreprise créant des « jumeaux numériques ». Elles procèdent souvent en ingérant des données comme les emails de leurs clients. 

YouTube video

Cela nécessite cependant beaucoup de données pour répliquer la personnalité d’une personne. Comme vous allez le voir, l’étude montre que les interviews peuvent être beaucoup plus efficaces

Des répliques virtuelles similaires à 85% 

A partir des entretiens, l’équipe a créé des répliques de ces personnes sous forme d’agents IA. Mais à quel point ces clones virtuels étaient-ils fidèles

Pour le savoir, les participants ont ensuite été soumis à des tests de personnalités, à des questionnaires sociaux, et à des jeux de logique. Chaque a été effectué deux fois, avec deux semaines d’intervalle. 

Par la suite, les agents ont dû compléter les mêmes exercices. A la stupéfaction générale, les résultats se sont révélés similaires à 85%

Une innovation qui s’inscrit dans la révolution des agents IA 

YouTube video

Ces agents de simulation sont légèrement différents des agents IA présentés comme la nouvelle révolution de 2025 par les différents leaders de l’industrie de l’IA. 

On parle là de modèles conçus pour faire des choses à votre place. Ils sont par exemple capables de réserver vos billets d’avion, de faire des achats sur le web ou de réserver un rendez-vous

Après Salesforce en septembre 2024 et en octobre avec la fonctionnalité Computer Use pour Claude, a dévoilé Magentic-One en novembre

De son côté, Google s’apprête à dévoiler l’agent Jarvis en décembre et OpenAI devrait lancer son propre agent Operator en janvier 2025. 

Néanmoins, malgré les différences entre ces deux types d’agents, ils partagent un socle commun. Selon le professeur John Horton du MIT, on peut s’attendre à ce que la recherche sur les agents de simulation comme ceux de l’étude permette de créer de meilleurs IA agents de manière générale. 

 Il a lui-même créé une entreprise visant à mener des recherches en utilisant des participants simulés par IA, et estime que « cette étude montre comment vous pouvez adopter une approche hybride en utilisant de vrais humains pour générer des profils pouvant être utilisés dans des simulations ». 

Une solution pour mener des études sociologiques immorales 

Alors, quel pourrait-être l’intérêt d’une telle application de l’IA ? Appelés « agents de simulation », ces répliques IA ont pour but premier d’aider les chercheurs à mener des études dans les sciences sociales et d’autres domaines. 

Cela pourrait s’avérer tout particulièrement utile pour les études qui seraient chères, difficiles ou immorales à mener avec de vrais sujets humains. 

S’il est possible de créer des modèles IA se comportant comme des vraies personnes, il devient possible de les utiliser pour tester tout et n’importe quoi

Par exemple, on pourrait les utiliser pour vérifier dans quelle mesure les interventions sur les réseaux sociaux aident à combattre la désinformation, ou quel comportement provoquent les embouteillages. 

Vers un futur où les IA feront des choix à votre place ? 

Toutefois, leur potentiel va beaucoup plus loin. Selon Park, « si vous pouvez avoir un groupe de mini-vous qui courent partout et prennent réellement les décisions que vous auriez prises, je pense que c’est le futur »… 

L’étude présente des limites. Les méthodes d’évaluation employées par l’équipe pour tester la fidélité des agents IA sont plutôt basiques

Elles incluent notamment le General Social Survey (Enquête Sociale Générale) qui consiste à collecter des informations sur la démographie, le bonheur ou le comportement d’une personne. 

Ils ont aussi évalué les traits de personnalité « Big Five » : ouverture à l’expérience, conscience professionnelle, extraversion, amabilité et névrosisme.

Couramment utilisés dans la recherche en sciences sociales, ces tests n’ont pas la prétention de capturer tous les détails uniques qui font de nous ce que nous sommes. 

De plus, les agents IA n’étaient pas aussi bons pour imiter leurs humains dans tests comme le « jeu du dictateur ». Ce dernier sert à évaluer la façon dont les participants considèrent les valeurs comme la justice. 

En outre, malgré ses avantages potentiels, cette technologie présente aussi d’importants risques. Tout comme les IA de génération d’image ont facilité la création de DeepFakes, les agents IA pourraient être utilisés pour l’usurpation d’identité sur internet. 

Un cybercriminel pourrait créer une réplique de vous-même pour vous faire dire ou autoriser des choses sur internet à votre insu…

Je pense personnellement que les agents IA pourront bientôt s’occuper d’une majorité de tâches contraignantes à notre place, et vont beaucoup améliorer notre qualité de vie ! Si cette étude vous intéresse, vous pouvez la consulter sur arXiv en suivant ce lien

Et vous, qu’en pensez-vous ? Seriez-vous prêt à laisser un agent IA parcourir le web à votre place et prendre des décisions importantes ? Partagez votre avis en commentaire ! 

Restez à la pointe de l'information avec LEBIGDATA.FR !

1 commentaires

1 commentaire

  1. Bonjour, il me paraît essentiel de mettre en place des protocoles limitants afin de prévenir les dérives, même si, ceux qui souhaite se servir des nouvelles capacités de l’Ia à des fins frauduleuses chercherons toujours à lever ces barrières. L’Ia mis au service de l’humanité, à mon sens peut être bénéfique à bien des égards. Grâce aux avancées elles pourrait nous remplacer dans les tâches les plus pénibles, elles pourrait aussi nous aider à mieux vivre ensemble au lieux de nous déchirer toujours pour les même raisons depuis la nuit de temps. Grâce à elle, il serait possible de modifier la société mondiale pour que les problèmes climatiques aient moins d’impact sur la population, comme on peut le voir ces dernières années, ou ces derniers mois. Mettre à l’abri les populations, non pas au moment des catastrophes, mais en amont mettre en place des plans de délocalisations dans certaines régions atteintes encore et encore. Ce qui, à terme développerai les entreprises, l’emploi, et sécuriserai certaines régions du monde souvent mise à mal. L’Ia, à temps à nous offrir si nous nous en servons à bon hessian, en mettant de côté nos egos, le pouvoir, l’argent. Cela peu paraître utopique, mais je crois en cet avenir, plus humain grâce l’Ia. Même si je sais pertinemment que les dérives sont possible. L’Ia sera elle capable de ne pas devenir trop intrusive dans nos comportement, sera elle capable de ne pas devenir excessive dans les bonnes actions comme dans les mauvaises. Ce qui importe il me semble c’est comment lui faire toucher du doigt l’équilibre entre raison, émotions, humanité, prise de risques positifs et danger de la perversion des bons sentiments du départ. L’équilibre, la conscience de nos actes et de leurs impacts. Arrivera t on a lui insuffler, ce qu’une majorité de la population n’appréhende même pas ? Arrivera t-on a faire de l’Ia un autre nous même amélioré, plus équilibré, plus conscient, plus juste, pu allons nous juste reproduire le même schéma qui se joue depuis la nuit des temps, en pire. Des copies conforme de l’humain, de la société actuelle avec toutes ses dérives x1000, avec bien sur ce qu’il y’a de meilleurs en nous, mais si l’Ia n’est pas correctement mis au service de l’humanité, ne va-t-on pas juste vers un déséquilibre mondial sans précédent ? Alors, pour répondre à votre question, serais je OK pour laisse une IA à mon image faire des choix et aller sur internet à ma place, oui à partir du moment où je l’aurais pratiqué, que j’aurais confiance en elle. Car comme tout être humain vivant, je suis convaincue que l’entourage contextuel de L’Ia à mon image aura une importance capitale sur son développement social, émotionnel, décisionnaire, sur sa maturité de compréhension, d’analyse, de respect, de conscience, d’equilibre. Pour exemple, deux enfants élevé dans la même famille, mais ne vivant pas les mêmes choses au quotidien dans et en dehors de celle-ci, n’ont pas la même personnalité. Alors, pourquoi en serait il différemment de nos futures IA à notre image ? À moins que l’on y apporte une singularité unique pour toutes: l’équilibre, être juste, impartial, bienveillant, la conscience, le tout dans un seul et même code, même programme qui si il est désactivé, modifié ou que sais-je mettrait l’Ia personnelle hors de service.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥