jean-François Deldon fondateur Yakadata

IA au service des TPE et PME : la confiance prime sur la donnée

Et si, à l’ère de l’IA, le véritable moteur de la transformation n’était plus la donnée, mais la confiance ?

Longtemps présentée comme le carburant essentiel de l’intelligence artificielle (IA), la donnée ne suffit plus. À mesure que les usages se banalisent, la confiance devient décisive. Confiance dans les outils, dans les modèles, dans le devenir des informations partagées. Sans elle, l’IA progresse à pas comptés, en particulier dans les petites et moyennes entreprises.

Jean-François Deldon, CEO de Yakadata et ambassadeur du plan national de l’IA, observe ce basculement sur le terrain. Après plus d’une décennie consacrée à la transformation numérique de grands ensembles industriels, il accompagne aujourd’hui des TPE et PME confrontées à un même dilemme. Comment tirer parti de l’IA sans perdre le contrôle de leurs données ni exposer l’organisation à des risques mal compris ?

Une adoption freiné par la défiance

L’IA s’installe peu à peu dans les petites structures. En 2025, 26 % des TPE et PME l’utilisent déjà, contre 13 % un an plus tôt.

Les usages les plus répandus concernent la génération de texte, d’images ou de voix, les chatbots et la recherche d’informations. Mais la progression reste très inégale selon les secteurs : 41 % dans le tech, à peine 9 % en agriculture.

Jean-François le voit tous les jours sur le terrain :  « Toutes les entreprises que je rencontre se posent la même question : que va devenir notre donnée ? Où part-elle ? Comment est-elle utilisée ? »

Selon le dernier baromètre France Num, 30 à 40 dirigeants citent le manque d’outils et de prestataires de confiance comme un frein majeur à l’adoption de l’IA. La crainte du piratage des données progresse nettement : 52 % des dirigeants l’expriment en 2025, seize points de plus qu’en 2020.

Petite anecdote : lors d’une sensibilisation, un participant demande si ChatGPT installé sur son téléphone peut accéder à tout le contenu de l’appareil. Beaucoup utilisent déjà ces outils, mais en catimini, sans être vraiment sereins. Ils ignorent souvent que leurs saisies peuvent être réutilisées pour entraîner des modèles – même si ce n’est pas systématique, il faut le savoir et pouvoir le désactiver.

Écoutez l’épisode 2 du Podcast Les PME & L’IA : Financer ses projets IA – et après ?

Il faut aussi rappeler que l’IA réveille parfois des peurs anciennes – le robot Terminator qui va tout détruire. La pédagogie doit donc aller au-delà de l’IA elle-même. « Il y a un vrai besoin d’explication sur ce que sont les modèles, comment ils fonctionnent et sur la confidentialité », ajoute Jean-François Deldon.

Le dilemme performance et sécurité 

D’après le CEO de Yakadata, la confiance peut devenir un levier compétitif. Un outil qui prouve qu’il ne réutilise pas les données pour l’entraînement, tout en maintenant un niveau de performance équivalent, gagne un avantage clair.

ChatGPT domine par sa facilité et son coût bas, grâce à une infrastructure mutualisée massive. Mais cette mutualisation alimente les craintes. Cette peur de « je ne sais pas ce que deviennent les données » est quand même assez prégnante.

Il explique le trade-off :  « Plus on mutualise, moins ça coûte cher. […] Quand les entreprises veulent un serveur dédié avec une IA open source, ça demande de gérer soi-même l’architecture, l’interface, les files d’attente. C’est un coût supplémentaire. »

La clé, selon lui, réside dans une catégorisation stricte des usages. Pour une veille concurrentielle ou l’analyse de documents publics, aucun intérêt à sursécuriser : un outil standard suffit largement.

En revanche, dès que les données deviennent sensibles, mieux vaut un environnement dédié – même si cela coûte plus cher. Des clouds comme Azure (intégré à Microsoft 365) ou OVH (acteur européen) permettent souvent de trouver un bon compromis sans tout réinventer.

Réguler sans complexifier, plus de lisibilité

La réglementation européenne (RGPD, AI Act, DSA) pourrait structurer le paysage et renforcer la confiance. Mais pour l’instant, elle reste peu lisible pour les petites structures. Beaucoup ignorent si les plateformes qu’elles utilisent respectent pleinement les exigences, notamment sur la localisation des données.

Deldon pointe :  « Ce qui n’est pas clair alors que ça devrait être totalement lisible, c’est quelles plateformes sont en accord avec le RGPD ou pas. Je prends l’exemple […] OpenAI, il y a des serveurs qui ne sont pas en Europe, ils ne sont pas compatibles avec le RGPD. »

On pourrait imaginer des obligations d’affichage simples, comparables à l’étiquetage alimentaire. Un pictogramme GDPR ou « IA de confiance » visible dès le départ, avec une charte derrière (stockage local, pas de réutilisation pour entraînement, audits indépendants). Cela clarifierait les choix sans effort supplémentaire.

Mais la vigilance reste de mise. Les TPE et PME n’ont ni le temps ni les ressources pour décortiquer des textes techniques. Jean-François insiste :  « Les TPE et PME que j’accompagne n’ont pas le temps de plonger dans les règlements. Elles gèrent déjà leur activité quotidienne, et l’IA vient s’ajouter à côté du RGPD, des normes environnementales, etc. »

La régulation doit simplifier, pas alourdir. Sans cela, elle risque de rester théorique pour les petites entreprises qui en ont le plus besoin.

Gouverner les usages pour sécuriser l’IA

La confiance repose sur une gouvernance interne claire et explicite. Dans de nombreuses TPE et PME, l’IA s’utilise déjà de façon informelle, souvent sans cadre défini.

Jean-François Deldon rapporte un cas concret qui illustre ce problème : dans une entreprise de 60 personnes, il a interrogé 15 collaborateurs et les 15 ont admis utiliser l’intelligence artificielle en cachette, la seule règle donnée étant « ne mettez pas d’informations confidentielles ». Cette formulation subjective laisse trop de place à l’interprétation personnelle.

Des règles explicites — types de documents interdits, cas d’usage autorisés, outils recommandés — protègent à la fois les collaborateurs et l’organisation. Elles réduisent aussi l’exposition à de nouveaux risques, comme les faux documents, les deepfakes ou les tentatives d’usurpation d’identité, qui imposent désormais des mécanismes de vérification renforcés.

Pour se protéger sans se compliquer la vie, Deldon donne deux critères simples quand on choisit un outil métier. D’abord les API : plus le système est ouvert et programmable, plus on peut brancher ses données, les extraire, les traiter, innover sans se retrouver coincé dans une prison numérique.

Ensuite, la sécurité : jetons d’accès solides, conformité RGPD au minimum et, pour la santé ou les données ultra-sensibles, hébergement sur serveurs HDS habilités. Côté IA pure, des protocoles comme MCP commencent à faciliter les connexions directes et sécurisées entre les données de l’entreprise et les modèles. Ça évite les bidouilles hasardeuses.

Au final, tout repose sur une bonne catégorisation : savoir ce qui est vraiment confidentiel et ce qui ne l’est pas. Sans ces deux piliers – API ouvertes + sécurité béton –, l’entreprise se retrouve soit à prendre des risques inutiles, soit enfermée dans des outils qui bloquent toute évolution.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥