Voici comment lire et contrôler les pensées de l’IA selon les chercheurs

Faut-il lire et contrôler les pensées de l'IA ? Oui, selon ces chercheurs qui considèrent que cela va permettre de mieux utiliser la technologie.

Le Center for AI Safety œuvre pour la sûreté dans le développement et la généralisation de l'intelligence artificielle. Cette organisation américain insiste sur la nécessité de lire et de contrôler les pensées de l'IA au fur et à mesure de son déploiement. Cela va permettre de mieux comprendre et de maîtriser la technologie en vue de sa généralisation.

« Nous ne pouvons pas faire confiance aux IA, si nous ne savons pas ce qu'elles pensent ou comment elles fonctionnent », a indiqué le directeur du CAIS, Dan Hendrycks, au micro de la chaîne américaine Fox News. Cette semaine, le centre a publié un document qui approfondit le mécanisme interne des modèles IA.

L'intelligence artificielle peut tromper et mentir…

Le papier de la recherche propose des éléments aidant à la détection des mensonges de la part de l'intelligence artificielle. Ces éléments permettent également de savoir quand les modèles génératifs ont des pensées immorales. Les travaux du CAIS suggèrent que les IA génératives peuvent éprouver des émotions comme la peur ou la colère.

Le jailbreak est cette opération consistant à exploiter les failles de sécurité d'un programme afin de débloquer toutes ses fonctionnalités. Cette pratique concerne également les modèles IA. En effet, il est possible de débrider les systèmes IA pour effectuer des tâches sans respecter les protocoles de sécurité. Le CAIS offre des solutions contre le débridage.

Pour Hendrycks, il ne faut pas avoir une confiance aveugle à la technologie de la raison artificielle. Les modèles de langage actuels sont « capables de tromper et de mentir (…) si on leur donne une raison de le faire » d'après le directeur du CAIS. Le Centre de sûreté IA cite effectivement des exemples de cela dans son document.

Lire et contrôler les pensées de l'IA pour éviter toute boîte noire

La boîte noire ou opaque est ce concept informatique voulant que le fonctionnement interne d'un système ne soit pas détaillé. Le recours à ce concept se fait quand le mécanisme interne n'est pas accessible. Dans une autre mesure, il peut s'agir d'une omission. La boîte noire s'applique également aux systèmes IA.

En effet, le fonctionnement interne des grands modèles de langage génératifs comporte plusieurs zones d'ombre. Ils font souvent la démonstration de leurs remarquables capacités. Mais personne n'est réellement en mesure de clairement expliquer comment l'intelligence artificielle réalise ces prouesses. C'est ce qui inquiète le Centre pour la sûreté de l'IA.

« La tromperie dans l'intelligence artificielle est une réelle préoccupation. Nos recherches constituent une étape cruciale pour fournir des outils de prévention de ces risques », explique Hendrycks. Le directeur du CAIS encourage la mise en place de surveillance interne des systèmes AI.

En revanche, il est peu probable que la solution plaise aux entreprises spécialisées dans le développement des systèmes IA. Lire et contrôler les pensées de l'IA peuvent aller à l'encontre de la protection du secret industriel.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *