Accueil > Intelligence artificielle > [ITW] Pegasystems : pourquoi l’intelligence artificielle doit être transparente
intelligence artificielle transparence pegasystems

[ITW] Pegasystems : pourquoi l’intelligence artificielle doit être transparente

Qu’est-ce qu’une intelligence artificielle transparente, et pourquoi est-ce important ? Entretien sur le sujet avec Giovanni Mangani, West Europe Lead AI and Marketing Solutions chez Pegasystems.

L’intelligence artificielle est de plus en plus utilisée par les entreprises de tous les secteurs. Cette technologie offre de nouvelles possibilités, et beaucoup d’experts la perçoivent comme une nouvelle révolution industrielle aussi importante que la machine à vapeur ou l’apparition des premiers ordinateurs.

Toutefois, cette révolution ne peut se dérouler convenablement si l’usage de l’IA n’est pas soumis à une certaine éthique. Pour en savoir plus sur ce sujet, nous avons rencontré Giovanni Mangani, West Europe Lead AI and Marketing Solutions chez Pegasystems. Fondée en 1983 à Cambridge, Massachusetts, Pegasystems est une entreprise qui développe des logiciels pour la gestion de relation client et s’appuie notamment sur l’IA.

pegasystems intelligence artificielle transparence giovanni mangani

Quels sont les dangers d’une intelligence artificielle opaque ?

Selon Giovanni Mangani, une intelligence artificielle  » opaque  » présente de multiples risques. Tout d’abord, il faut rappeler que de nombreuses IA sont  » biaisées  » par des préjugés inculqués (volontairement ou non) par les humains. En guise d’exemple bien connu, on peut citer le chatbot Tay de Microsoft qui est rapidement devenu raciste après avoir passé quelques heures sur Twitter en 2016. Pour cause, cette IA avait été  » nourrie  » par les Tweets racistes des utilisateurs du réseau social.

Or, lorsque l’IA est opaque, il est impossible de détecter ces préjugés et leurs origines. Au contraire, une IA transparente permet de mieux cerner le problème et donc d’y remédier promptement.

En outre, l’intelligence artificielle est un outil aussi puissant que dangereux. Il y a quelques années, dans le cadre d’une étude intitulée  » Private traits and attributes are predictable from digital records of human behavior « , une IA avait été utilisée pour établir le profil d’utilisateurs de Facebook à partir de leurs  » likes « . En fonction du contenu sur lequel les internautes avaient apposé le fameux  » pouce bleu « , l’intelligence artificielle était capable de prédire certains détails très intimes de leur personnalité.

Elle a par exemple été capable de déterminer s’ils se droguent, s’ils sont en couple, quelles sont leurs préférences sexuelles, leur niveau d’intelligence ou encore leur degré de stabilité émotionnelle. A l’issue de l’expérience, les chercheurs avaient tiré des conclusions inquiétantes : avec une dizaine de likes, une IA vous connaît mieux que votre employeur. Avec 150 likes, elle vous connaît mieux que vos parents. Avec 300 likes, l’IA vous connaît mieux que votre propre conjoint…

On comprend donc qu’il est indispensable que l’usage de l’IA soit fermement encadré, et soumis à des règles de transparence et d’éthique. Dans le cas contraire, la porte est ouverte à toutes les dérives possibles et imaginables.

C’est la raison pour laquelle de nombreuses entreprises considèrent comme prioritaire que leurs systèmes IA soient transparents et explicables. Selon une étude menée par PWC, c’est le cas de 61% des exécutifs. Il s’agit de l’une des grandes tendances de l’IA pour 2019. De même, 55% souhaitent créer des systèmes IA éthiques, légaux et compréhensibles. En effet, en Europe, l’usage de l’IA est aussi soumis au RGPD.

Comment le RGPD impacte l’usage de l’IA en Europe ?

intelligence artificielle rgpd

Pour les algorithmes d’intelligence artificielle, les données pourraient être comparées à du carburant. Les algorithmes de Machine Learning ont en effet besoin de données pour s’entraîner et devenir plus performants. Sans données, il n’y a donc pas d’intelligence artificielle.

De fait, l’utilisation de l’IA en Europe est fortement soumise au Règlement Général pour la Protection des Données. Pour être légal et conforme au RGPD, l’usage des données et donc de l’IA doit obligatoirement être transparent.

Dans le domaine des relations clients, celui de Pegasystems, la limitation de l’exploitation des données de clients induite par le RGPD freine également l’usage de l’IA. Le consentement des clients est nécessaire pour que leurs données puissent être exploitées.

C’est la raison pour laquelle de plus en plus d’entreprises cherchent à convaincre leurs clients de leur vendre leurs données directement. Même s’il s’agit d’un investissement, les bénéfices apportés par l’exploitation des données pour l’IA le rendent très rentable.

Les techniques de Pegasystems pour une IA transparente

pegasystems ia transparente astuces

Pour qu’une intelligence artificielle soit transparente, il doit impérativement être possible d’expliquer le cheminement qui l’a mené à prendre une décision. Il faut aussi pouvoir comprendre quelles données ont été exploitées et de quelle façon.

Afin d’assurer la transparence de ses modèles d’intelligence artificielle, Pegasystems utilise plusieurs stratégies. Tout d’abord, l’entreprise fixe des règles qui permettent de définir le périmètre d’action d’une IA et de limiter son impact avec précision.

En outre, Pega a mis au point un système de  » scoring  » permettant aux clients de connaître le niveau de transparence des différents modèles d’intelligence artificielle proposés pour la gestion des relations clients. Un système avec un score élevé sera transparent, tandis qu’un score faible indique une certaine opacité.

Par exemple, les arbres de décisions sont des modèles explicables et compréhensibles par des humains. Au contraire, les modèles de type Deep Learning sont généralement comparables à des  » boîtes noires  » complexes et dont les  » raisonnements  » sont impossibles à expliquer. C’est la raison pour laquelle Pegasystems déconseille à ses clients d’utiliser le Deep Learning pour la prise de décisions, même si la possibilité leur est laissée.

Vers un futur plus transparent pour l’intelligence artificielle ?

intelligence artificielle transparence futur

Selon Giovanni Mangani, pour répondre à ces différentes exigences éthiques et légales, l’intelligence artificielle va évoluer et s’adapter dans les années à venir. Certains modèles d’IA déjà existants vont être optimisés pour devenir plus transparents.

Ceci a déjà commencé, puisque Pegasystems utilise par exemple des modèles  » adaptive  » créés à partir de modèles existants modifiés pour être conformes au RGPD. De même, de nouveaux modèles plus transparents vont très certainement être créés dans le futur.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend