Le vrai risque des IA génératives n’est pas qu’elles nous remplacent, mais qu’elles nous fassent renoncer à apprendre…
Rédaction accélérée, synthèse de documents, génération de code, réponses clients automatisées, promesse de gains de productivité, mais à quels prix?
Deux logiques s’opposent derrière l’appellation générique « IA » : d’un côté l’IA générative qui produit et répond à notre place, créant souvent une illusion de maîtrise ; de l’autre, une IA conçue pour entraîner l’apprenant, structurer son effort et consolider ses compétences sur le long terme.
Ce clivage pose une question stratégique aux organisations. Quel type d’humain l’IA va-t-elle façonner dans les années à venir. Un collaborateur assisté en permanence, ou un professionnel plus autonome et lucide ? À travers l’entretien avec Nicolas Bourgerie, CEO de Teach Up, nous explorons ce débat.
Les deux visages de l’IA – productive vs pédagogique
L’IA générative, telle qu’elle est majoritairement déployée à l’instar de ChatGPT, Copilot, Gemini, Claude… rend addictive pour les tâches répétitives ou analytiques. Mais cette facilité crée une illusion de savoir. L’utilisateur obtient un résultat sans avoir nécessairement compris le raisonnement sous-jacent ni consolidé sa propre expertise.
Nicolas Bourgerie oppose à cette logique une approche radicalement différente, celle de l’IA pédagogique : « Elle ne cherche pas à assister, mais à entraîner : structurer l’effort, ajuster la difficulté, renforcer la maîtrise. Une IA qui ne promet pas la rapidité, mais la progression ».
Plutôt que de livrer la solution, ce modèle place l’apprenant en situation active. Ce type d’intelligence artificielle exige une argumentation, analyse les erreurs conceptuelles et reformule les problèmes pour obliger à expliciter son raisonnement.
Le but n’est pas de masquer les lacunes par une performance immédiate, mais de construire une compréhension solide et durable.
Où le risque d’atrophie est le plus élevé
Le danger est particulièrement marqué dans les métiers où jugement humain, responsabilité et relation ne peuvent être délégués sans conséquences graves. Nicolas Bourgerie cite en priorité la relation client complexe, le management, la conformité réglementaire, la vente à forte valeur ajoutée et la prise de décision stratégique.
Ces compétences exigent de savoir argumenter, arbitrer sous incertitude, ajuster une posture face à un interlocuteur, ou assumer une décision dont on porte la responsabilité. « Déléguer ces tâches à une IA générative sans avoir renforcé préalablement sa propre maîtrise expose à des erreurs coûteuses, à des risques juridiques ou à une perte rapide de crédibilité », souligne Nicolas.
Les secteurs régulés concentrent les enjeux les plus aigus : banque, assurance, santé, mais aussi certains pans de l’industrie. Cela inclut notamment l’automobile pour les aspects commerciaux et techniques.
Chez plusieurs clients dans la banque et l’industrie automobile, l’usage spontané d’IA générative avait tendance à uniformiser les réponses commerciales et à affaiblir l’argumentation personnalisée. Des parcours d’entraînement basés sur des simulations clients ont été déployés.
Les équipes devaient structurer elles-mêmes leurs réponses, justifier leurs choix et gérer des objections sans recours à l’outil en direct.
« Cela a permis d’obtenir une meilleure maîtrise des offres, une plus grande capacité à traiter des objections complexes sans assistance, et un discours plus différenciant. Dans certains cas, les managers ont noté une hausse mesurable de la qualité des échanges et de la confiance des collaborateurs face à l’imprévu », partage Nicolas.
Dans ces environnements B2B, la valeur repose sur l’expertise et la confiance des équipes. Une standardisation excessive des réponses ou une dépendance à l’outil peut affaiblir l’habileté à traiter des cas atypiques.
IA pédagogique, entraîner plutôt qu’assister
L’approche pédagogique repose sur un principe simple : placer l’apprenant en situation active plutôt que passive. Ici, l’IA propose un cas concret, pose une question ouverte, exige une décision argumentée avant de délivrer le moindre feedback.
Le modèle analyse ensuite la réponse pour détecter les lacunes conceptuelles, les raisonnements fragiles ou les angles morts. Si l’apprenant maîtrise un point, le niveau monte.
« Au lieu de donner la solution trop vite, elle introduit questions et reformulations qui obligent à expliciter son raisonnement. Cette approche favorise une consolidation progressive des compétences, plutôt qu’une performance superficielle assistée par l’outil » ajoute Nicolas.
Contrairement à une performance superficielle obtenue grâce à l’assistance constante, l’apprenant développe une maîtrise qui résiste aux situations imprévues. L’outil ne masque pas les faiblesses, mais les expose pour mieux les combler.
Cette logique inverse la dynamique habituelle de l’IA générative. Au lieu d’accélérer la tâche au détriment de l’apprentissage, l’IA pédagogique ralentit volontairement pour renforcer la compréhension profonde.
« À plus grande échelle, l’enjeu est stratégique : choisir entre une IA qui produit à la place de l’humain et une qui augmente sa capacité à apprendre. Mesurer uniquement rapidité et productivité revient à ignorer le risque d’atrophie cognitive. À terme, la différenciation des organisations ne viendra pas de celles qui automatisent le plus, mais de celles qui maintiennent et développent durablement le niveau de maîtrise de leurs équipes. » conclut le CEO de Teach Up.
- Partager l'article :