Il fut un temps où les mensonges de profil se limitaient à une photo trop retouchée ou à un faux prénom. Aujourd’hui, ChatGPT et ses cousins numériques ajoutent une couche de tromperie des plus subtiles.
Rachel, 36 ans, en a fait l’expérience. Après trois semaines d’échanges passionnants avec un homme sur Hinge, elle l’a enfin rencontré en personne. Seulement, il était poli et monotone. Il bafouillait et arborait des pauses gênées, ce qui contrastait avec la version virtuelle de lui-même.
Car au fait, ses répliques brillantes et ses questions profondes, vues en ligne, venaient d’une IA. Ce que Rachel avait cru être une connexion sincère n’était donc qu’un script. Bonjour la déception !
Et ce phénomène ne se limite pas à quelques maladroits. Il y a aussi Nick, 38 ans. il vit en couple libre à Londres et utilise ChatGPT pour donner du relief à ses conversations sur Feeld et Bumble. Il précise qu’il ne copie jamais les messages en entier. Cependant, il s’inspire des formulations de l’IA pour séduire sans perdre de temps.
Pour d’autres, comme Holly, 28 ans, l’IA sert à calmer le ton, rendre les messages plus clairs ou plus directs. Elle ne manipule personne, tient-elle à clarifier. Certains utilisateurs, comme Rich ou Nina, expérimentent les effets inverses. L’IA peut être trop parfaite, trop polie, et créer un sentiment d’artificialité.
La mécanique du chatfishing
Le chatfishing repose sur une idée simple mais perverse. Celle d’utiliser l’IA pour inciter quelqu’un à s’ouvrir, parfois jusqu’au lit, sans jamais révéler le subterfuge. Par exemple, Jamil, 25 ans, raconte avoir copié les réponses de son match dans ChatGPT pour produire des messages idéaux. L’algorithme transforme des phrases banales en compliments, blagues ou échos à des passions.
Francesca, 33 ans, explique avoir utilisé ChatGPT comme caisse de résonance pour ses profils et conversations. L’IA l’aide à trouver le ton juste, à ajuster sa spontanéité, à éviter les maladresses. Elle affirme rester fidèle à elle-même. Toutefois, elle reconnaît qu’un rendez-vous peut se dérouler avec 90 % des messages générés par un robot.
Et pourtant, le danger, c’est la dépendance. Une fois que l’IA devient le principal médiateur, les interactions humaines s’effacent. Rachel, celle dont on a parlé au début de cet article, a vécu ce moment. Après avoir couché avec son chatfisher, elle découvre les indices d’une manipulation invisible. Les phrases fluides, l’attention, les suggestions de rendez-vous, tout était orchestré par un programme. Le Prince Charmant virtuel n’en est pas un en réalité.
Bref, le phénomène soulève des questions sur la responsabilité : l’algorithme manipule-t-il ou l’utilisateur ? La dépendance au bot brouille la ligne entre intention sincère et simulation. Certains utilisateurs admettent ressentir de la culpabilité, d’autres la considèrent comme un outil stratégique. Rachel, comme d’autres, choisit de stopper net dès que la réalité ne correspond plus au virtuel.
- Partager l'article :