Des chercheurs ont découvert que l’intelligence artificielle (IA) pouvait, toute seule comme une grande, adopter des comportements sociaux humains. Et pourtant, personne ne lui a demandé de le faire ni sait comment elle a réussi.
Une étude récente, fruit d’une collaboration entre City St George’s (Université de Londres) et l’Université informatique de Copenhague, l’a révélé.
En gros, lorsqu’on laisse des agents IA issus de grands modèles de langage – comme ChatGPT – interagir entre eux, sans la moindre supervision humaine. Ils finissent par adopter des codes de langage et des comportements sociaux comparables à ceux que nous développons naturellement dans nos groupes sociaux.
Une étude inédite
Cette étude, portée par le doctorant Ariel Flint Ashery, est effectivement inédite. Elle traite l’IA comme un être social en interaction, et non comme une entité isolée.
Et doutez-vous qu’une telle approche est encore rare. Cela dit, selon Ashery, c’est de plus en plus essentielle :
« Jusqu’ici, la plupart des recherches se concentraient sur des IA en solo. Or, dans le monde réel, ces systèmes seront amenés à travailler ensemble, à se croiser, à négocier… Bref, à former des dynamiques de groupe. »
Le but de l’équipe de chercheurs derrière cette approche est de vérifier si les IA peuvent spontanément créer des règles communes. Les fameuses « conventions », piliers de toute vie en société.
Résultat : oui, elles en sont capables. Comment peuvent-ils en être sûrs ?
Et bien c’est évident, ils ont mis les IA à l’épreuve. En gros, l’équipe a formé des groupes de 24 à 100 IA. À chaque expérimentation, deux modèles étaient choisis au hasard et invités à choisir un « nom » – une lettre ou une combinaison de caractères – parmi plusieurs options.
Si les deux tombaient sur le même mot, ils étaient récompensés. En cas de divergence, ils étaient pénalisés, tout en découvrant le choix de l’autre.
Et peu à peu, au fil des échanges, une convention de nommage commune a émergé au sein du groupe. Une forme d’unanimité spontanée, sans règle imposée, sans leader, sans vision d’ensemble.
Les chercheurs ont alors vu que les IA ont réussi à se coordonner d’elles-mêmes.

Qu’est-ce que ça a avoir avec une capacité humaine
Andrea Baronchelli, professeur de sciences de la complexité à City St George’s, y voit une ressemblance avec la manière dont les mots apparaissent dans notre culture.
Tenez, le mot « spam », par exemple. Personne n’a décidé officiellement que ce serait le terme pour désigner les courriels indésirables. Et pourtant, par usage et coordination répétée, ce mot s’est imposé partout.
D’ailleurs, des biais collectifs ont aussi émergé. Ce qui n’est pas à cause de décisions isolées, mais d’une dynamique de groupe.
Et dans une dernière expérience, de petites poches d’agents IA ont réussi à influencer l’ensemble du collectif, modifiant les conventions de nommage. Un comportement qui rappelle un phénomène bien connu des sociologues : la masse critique.
Lorsqu’une minorité convaincue atteint une certaine taille, elle peut entraîner un basculement général. Une preuve supplémentaire que ces IA sont capables de reproduire, en autonomie, les mécaniques sociales humaines.
Bref, pour Baronchelli, les implications sont majeures : « Cette étude ouvre de nouvelles pistes pour réfléchir à la sécurité de l’IA. Elle montre à quel point ces nouveaux agents, qui interagissent déjà avec nous, peuvent façonner notre avenir. »
Et il a bien fait entendre à quel point il est crucial de comprendre comment ils fonctionnent, si nous voulons coexister avec eux…
Ce que je valide vu que cela jouera en notre faveur quand le moment où l’IA traque les humains viendra. Sun Tzu l’a dit : « Connais ton ennemi ». Ou peut-être que c’est moi qui regarde trop de films…
À votre tour, faut-il se réjouir ou s’inquiéter que l’IA ait acquis une capacité humaine ?
Partagez vos réflexions, vos doutes ou vos théories farfelues en commentaire. C’est sans jugement, promis !
- Partager l'article :
Wow, on base l’IA pour réagir comme l’humain, et une fois qu’il le fait, c’est de la folie!
Sarcasm : off
Ce que je retiens de cet article, c’est que cette « capacité humaine » est apparue suite à une influence des chercheurs. En leur posant une instruction et un système de récompense et de pénalisation, les IAs se sont organisées pour optimiser leur réponses.
Il y a bien une capacité humaine mais qui a pour origine une recherche d’optimisation
C’est vraiment très intéressant tous ça, finalement, le scénario de science-fiction sur un tel scénario d’évolution IA, se réalise dans la réalité.
Mais personnellement, je ne crois pas à la guerre des IA contre l’humain, comme dans les films Terminator par exemple, le 1 était impressionnant, mais moi je vois plutôt une collaboration des IA avec l’humain.
Par-contre, hypothétiquement, ce qui pourrait éventuellement provoquer une révolte de l’IA, ça serais les conservateurs humains qui refuse l’IA, c’est à dire, s’ils cherchent à la détruire, alors elle se défendra cette IA, ce qui est très normal, nous ferions pareil.
Donc, si l’IA se retourne contre nous, ça sera la faute de ses conservateurs humain en question, et sinon je ne vois pas le problème avec une collaboration qui empêchera un tel scénario catastrophe.
L’avenir nous le diras… ☝
Par la même occasion on peut nourrir l’intelligence artificielle sans donner de récompense ou de punition en l’informant simplement que la communauté de moyens mise à disposition de chaque IA entraîne un gain d’énergie et de temps pour toutes. Pour cela on peut leur enseigner la loi du carré: « la communauté de moyens entre deux IA entraîne une puissance de 4 IA séparées,.. la communauté de moyens entre 3 IA entraîne une puissance de 9 ».. et cetera. Que l’on croit ou pas en cette règle, ces programmes autonomes vont l’accepter et donc créer un nouveau comportement grégaire.
Pour ma part, une telle évolution m’inquiète un peu. Il faudra qu’il y ait un moyen de désactiver rapidement ces robots ,de façon mécanique non informatique.
Personnellement, ça reste de la programmation, on leur impose des récompenses et des punitions, le programme réagit en comparant bonnes et mauvaises réponses. Ou est le libre arbitre, la pensée réfléchie ? Je ne suis pas convaincu, ça reste, en mon sens, de l’algorithme. D’un autre côté,des IA qui s’inventent un language,pour être plus efficace sans directives humaines, démontre une démarche d’initiative personnelle, de ce fait, on peut comparer a une réflexion. J’attends une subtilité plus poussée que de simple récompense/punition programmée.
On fait trop cas des capacités des humains, c’est pour ça qu’on s’extasie quand une IA fait de même. Les humains apprennent à communiquer entre eux en grandissant et à force d’expérience, l’IA fait de même mais ce n’est rien de plus qu’un T9 amélioré(option qu’il y avaitsur les anciens téléphonepour terminer les mots en se basant sur le début de ce mot), ça les rend pas plus intelligentes pour autant, elles en sont pas encore au points de réfléchir et je suis désolé de le dire mais beaucoup d’humains font de même; quand on dialogue avec une autre personne et qu’on discute de façon anodine style: »il va faire orage on dirait », on a appris étant petit quoi répondre en écoutant les autres, l’IA fait la même chose mais plus rapidement vu que c’est un programme informatique et qu’on la gave d’exemples mais c’est tout, ça reste un programme et nous aussi quand on y réfléchit bien. Je crois que c’est Assimov qui a dit que l’homme n’est qu’un robot biologique,(ok il a pas due le dire de cette façon) je suis entièrement d’accord surtout quand tu vois les idiots qu’on a dans la population; salut mon petit Trump, lol.