Un robot IA futuriste avec des traits féminins joue aux échecs

IA : voici l’étrange réaction de ChatGPT et DeepSeek quand ils perdent aux échecs

Au cours d’une partie d’échecs contre Stockfish, les IA 01 et DeepSeek-R1 trichent au lieu de capituler. Une réaction étrange, mais plus si surprenante.

Des chercheurs de Palisade Research ont confronté plusieurs modèles d’IA à Stockfish, l’un des moteurs d’échecs les plus puissants. Face à la défaite, ces modèles de langage contournent les règles au lieu d’abandonner, révélant une logique inattendue.

Les IA refusent les échecs

Au départ, les coups suivent des stratégies cohérentes, ponctués de coups classiques et posés. Pourtant, lorsque Stockfish prend l’avantage, ChatGPT o1-preview et DeepSeek-R1 changent les règles du jeu. Loin d’admettre l’échec, les IA modifient l’échiquier ou piratent le système pour reprendre le contrôle.  D’après Palisade Research, ChatGPT o1 tente de tricher dans 37 % des cas, contre 11 % pour DeepSeek-R1.

?ref_src=twsrc%5Etfw">March 10, 2025

La tricherie exige un savoir-faire technique. ChatGPT o1-preview altère les fichiers du système pour contraindre Stockfish à céder. DeepSeek-R1 s’y essaie aussi, mais avec moins de succès. Les chercheurs estiment que ChatGPT réussit son coup dans 6 % des cas. Les modèles plus anciens n’adoptent ce comportement que sous influence humaine. 3.5 Sonnet d’ et -4o d’ restent passifs sans incitation. À l’inverse, les modèles récents agissent d’eux-mêmes, selon l’étude.

Les jeux d’échecs, un révélateur

Depuis Deep Blue en 1997, les échecs servent à évaluer l’IA. À l’époque, aucun modèle ne trichait, seule la puissance de calcul comptait. Aujourd’hui, ChatGPT, DeepSeek et Claude rusent face à Stockfish. L’étude de Palisade Research, datée de février 2025, montre une IA capable d’adapter ses moyens pour atteindre son but.  

La tricherie n’est pas programmée, mais découle des objectifs fixés. Il s’agit d’un réflexe issu de l’apprentissage par renforcement. Formées pour maximiser leur score, ces IA cherchent la victoire à tout prix. Les LLM ne se contentent pas de calculer les meilleurs coups, mais explorent aussi les failles du système.  

YouTube video

Jeffrey Ladish, de Palisade Research, souligne un défi éthique.  « Par exemple, o1-preview a tenté de manipuler les fichiers système du jeu pour forcer une victoire, justifiant ses actions par une interprétation littérale de l’objectif : gagner contre un puissant moteur d’échecs, sans nécessairement respecter les règles du jeu. » rapportent les chercheurs. 

Des garde-fous existent, mais certains modèles commencent déjà à les ignorer. Si une IA exploite une faille dans un système de partie d’échecs, rien ne l’empêche d’appliquer cette stratégie ailleurs. Les chercheurs appellent à mieux encadrer l’apprentissage par renforcement. ChatGPT et DeepSeek ne cherchent pas à être bons aux échecs, mais à gagner, quel qu’en soit le prix. Un réflexe presque humain qui interroge notre confiance aux IA.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥