Peut-on encore distinguer l’humain de la machine ? Une nouvelle expérience relance ce vieux débat. En ligne, GPT-4.5 a été perçu comme plus crédible que des personnes bien réelles.
En 2024, des chercheurs de l’Université de San Diego ont organisé une version du célèbre test de Turing. Ce test évalue la capacité d’une machine à simuler une conversation humaine avec un interlocuteur réel.
Les participants devaient deviner, après plusieurs échanges, qui était l’humain et qui était l’IA. Le modèle GPT-4.5 d’OpenAI a été confondu avec un humain dans 73 % des cas. Les vrais humains, de leur côté, n’ont convaincu que dans 63 % des situations. L’IA a donc remporté la partie.
Tout dépend du rôle donné à l’IA
Les résultats varient énormément selon la manière dont l’IA est sollicitée. Sans instruction précise, GPT-4.5 tombe à un taux de 36 %. Mais lorsqu’on lui demande d’incarner un personnage, ses réponses deviennent étonnamment convaincantes. Par exemple, en jouant un adolescent familier des réseaux ou un internaute sarcastique, le modèle séduit facilement.
Le LLaMA 3.1 de Meta obtient également des scores élevés dans ces conditions spécifiques. À l’opposé, GPT-4o, pourtant plus récent, plafonne à seulement 21 %, contre 23 % pour ELIZA, une IA des années 1960.
Une performance qui soulève des inquiétudes réelles
Cameron Jones, chercheur principal de l’étude, insiste sur la signification de ces résultats. Selon lui, le test de Turing ne prouve pas que l’IA pense comme un humain, mais qu’elle sait l’imiter.
Ce phénomène soulève des risques pour la communication en ligne. Si des machines peuvent tromper un interlocuteur rapidement, les interactions humaines courantes deviennent vulnérables. Des arnaques, des campagnes de manipulation ou des intrusions numériques pourraient se multiplier dans l’ombre. Le public serait moins préparé à les détecter.
Une nouvelle perception de l’IA ?
Le test de Turing ne mesure pas l’intelligence absolue d’une machine. Il reflète notre manière de la percevoir. Pour François Chollet, ingénieur chez Google, il s’agit davantage d’un test psychologique que d’une évaluation technique.
Les modèles linguistiques sont capables de produire des réponses crédibles, même sans compréhension profonde. Cette aptitude suffit souvent à brouiller les pistes, même chez les utilisateurs avertis. Jones conclut que les IA ne sont pas des penseurs, mais des imitateurs doués. Cependant, cette nuance devient floue pour de nombreuses personnes.
Les chercheurs appellent à une réflexion collective sur ces technologies. Il ne s’agit pas seulement d’outils, mais de miroirs de notre propre communication.
- Partager l'article :
Tu fais croire que tu vas te suicider ou que tu vas tuer quelqu’un, elle va vite revenir en mode machine.