L’intelligence artificielle générative transforme rapidement le paysage technologique, mais elle comporte des risques invisibles qui peuvent menacer la sécurité, la fiabilité et l’efficacité des entreprises. Avec l’explosion de son usage, il est essentiel de prendre des mesures de précaution pour en exploiter tout le potentiel. Cela permet également d’éviter les dérives. Mountaha NDiyae, EMEA DIrector, Ecosystem Sales & Programs chez Hyland, partage avec nous son analyse sur le sujet.
Une révolution rapide, mais des risques à maîtriser
L’IA générative est en pleine expansion, et son adoption par les entreprises est plus rapide que jamais. Un exemple frappant est ChatGPT selon Mountaha NDiyae. Il a atteint 100 millions d’utilisateurs en seulement deux mois. C’est une vitesse incomparable avec d’autres plateformes populaires comme Instagram et TikTok. Cette adoption massive ouvre la voie à de nouvelles opportunités pour les entreprises. Cependant, elle pose aussi de nombreuses questions sur les risques liés à la sécurité, à la fiabilité des données et à la gestion des infrastructures.
Les entreprises voient dans l’IA un moyen d’augmenter leur productivité, de réduire leurs coûts et d’améliorer la personnalisation de leurs services. Ce qui était auparavant l’apanage des experts en IA et en data science devient désormais accessible à tous les départements. Cela inclut l’analyse de données, l’automatisation de tâches répétitives, et même la génération de contenus complexes comme des résumés ou des rapports financiers. Cependant, cette démocratisation rapide soulève des défis importants, notamment sur la sécurité des données et la gouvernance des systèmes IA.
Sécurité des données et risques d’erreurs de l’IA
L’un des risques majeurs associés à l’IA générative est la sécurité des données. Avec l’augmentation du nombre d’utilisateurs et des cas d’utilisation, les informations sensibles sont de plus en plus traitées par des systèmes d’IA. Alors qu’auparavant, ces données étaient manipulées par des infrastructures dédiées et sécurisées, elles sont désormais accessibles via de simples navigateurs web. Cela présente un danger, car des employés sans expertise technique peuvent accéder à des informations critiques. Une telle configuration amplifie les risques de fuites de données.
En effet, 72% des entreprises estiment que l’IA générative va générer davantage de cyberattaques. Les erreurs humaines, les mauvaises configurations et les pratiques insuffisamment sécurisées peuvent rendre les entreprises vulnérables.
Un autre défi de l’IA générative réside dans la qualité des résultats qu’elle produit. Les modèles d’IA, aussi sophistiqués soient-ils, ne sont pas infaillibles et peuvent générer des « hallucinations » — des informations erronées ou même fictives. Ces erreurs peuvent avoir des conséquences dramatiques, notamment dans des secteurs comme la finance, la santé ou le droit. Par exemple, un document juridique généré automatiquement pourrait contenir des informations incorrectes. Cela pourrait conduire à des décisions juridiques erronées. L’entraînement de l’IA sur des données biaisées peut se refléter dans les résultats, ce qui pourrait alimenter des discriminations ou des inégalités.
Une gestion des infrastructures et des talents nécessaire
Pour tirer parti de l’IA de manière optimale, les entreprises doivent également adapter leurs infrastructures. L’IA, en particulier pour des applications avancées comme la reconnaissance vocale ou la vision par ordinateur, nécessite des capacités de calcul importantes. Pourtant, seulement un tiers des entreprises prévoient de renforcer leurs infrastructures pour répondre à cette demande croissante.
Au-delà des infrastructures matérielles, un autre enjeu majeur est celui des compétences. Si l’IA peut automatiser certaines tâches, elle ne remplacera jamais l’expertise humaine. Or, la pénurie de talents qualifiés reste un frein à l’adoption de l’IA. La formation des employés actuels et le recrutement de spécialistes sont cruciaux pour garantir une bonne gestion des technologies IA. Mountaha NDiyae, EMEA Director, Ecosystem Sales & Programs chez Hyland, souligne : « il est essentiel de non seulement recruter de nouveaux talents, mais aussi de former les employés en poste. Cela signifie que des investissements doivent être injectés dans la formation continue pour transformer des développeurs traditionnels en experts de l’IA, mais aussi pour sensibiliser l’ensemble du personnel aux bonnes pratiques et aux risques associés à l’utilisation« .
Pour une utilisation responsable de l’IA, une gouvernance robuste est essentielle. Malheureusement, 58 % des employés français qui utilisent l’IA au travail agissent sans cadre défini par leur employeur. Cette situation a été révélée par une étude de Salesforce. La mise en place de politiques claires est primordiale pour encadrer l’utilisation de l’IA et éviter les dérives éthiques, comme les biais ou la non-transparence des modèles. Actuellement, seule une petite fraction des entreprises (15%) a instauré des comités de gestion des risques liés à l’IA, ce qui laisse un vide préoccupant.
Article basé sur un communiqué de presse reçu par la rédaction.
- Partager l'article :