Yoshua Bengio, l’un des plus importants acteurs dans le développement des systèmes d’apprentissage automatique, déclare que ces systèmes pourraient devenir un grand risque pour l’humanité.
On dirait que les personnes qui craignent que l’IA représente un risque pour l’humain sont plus nombreuses que jamais. Après la crainte des deux pères fondateurs de l’intelligence artificielle sur le risque que l’IA puisse dépasser l’intelligence humaine, Yoshua Bengio insiste sur le fait que l’IA a besoin de règles pour éviter une catastrophe. Découvrez tous les détails dans cet article.
« Nous allons vers un futur catastrophique » : Qui est Yoshua Bengio ?
Yoshua Bengio est un personnage emblématique dans le secteur de l’intelligence artificielle. Il s’agit en fait de l’un des pionniers dans le développement de réseaux neuronaux artificiels et d’algorithmes d’apprentissage profond.
Bengio a reçu le prix Turing 2018 avec son collègue Yann LeCun, responsable scientifique de Meta en IA et Geoffrey Hinton, qui n’est autre qu’un ancien chercheur en IA de Google. Rappelons que le prix Turing est connu comme le « prix Nobel » dans le domaine de l’informatique.
Ces scientifiques ont reçu ce prix en raison de leurs contributions clés dans le domaine de la technologie d’intelligence artificielle. C’est d’ailleurs la raison pour laquelle Yoshua Bengio et ses deux collègues lauréats du prix Turing sont appelés les « parrains de l’intelligence artificielle ».
Aujourd’hui, il est le président du Rapport scientifique international sur la sécurité de l’intelligence artificielle avancée. C’est un groupe consultatif soutenu par 30 pays faisant partie de l’Union européenne et les Nations-Unies.
Il faut agir vite, les risques de l’apprentissage automatique sont bien réels
Yoshua Bengio affirme que l’IA présente des risques à court et à long terme. Il pense qu’à court terme, nous pouvons voir cette technologie être utilisée dans la campagne électorale. Il déclare par la suite que la situation ne fera qu’empirer.
Nous avons aussi été témoin que l’IA a des capacités assez exceptionnelles, comme ChatGPT-4 qui a surpassé les humains en matière de persuasion. Et il est persuadé que la nouvelle version va être encore pire.
Par ailleurs, lorsque nous allons atteindre le niveau de superintelligence, nous allons faire face à deux risques majeurs. Tout d’abord, cela va conduire à la perte de contrôle de l’homme. En effet, si les appareils super-intelligents ont un objectif d’auto-préservation, leur but pourrait être de détruire l’humanité afin que nous ne puissions pas les éteindre.
Et si ce premier scénario ne se réalise pas, l’autre danger est que nous, les humains, utilisons le pouvoir de cette technologie pour contrôler l’humanité dans une dictature mondiale. Plus précisément, l’IA va donner le pouvoir à celui qui la contrôlera.
Bengio recherche des moyens de contrôler l’Intelligence artificielle
Bien que Yoshua Bengio soit l’une des personnes à jouer un rôle essentiel dans le développement des réseaux neuronaux artificiels, il est actuellement perturbé par le rythme à laquelle cette technologie est développée et adoptée.
Il pense que l’intelligence artificielle a le pouvoir de détruire la structure de la société et de comporter des risques imprévus pour les humains. Il affirme qu’il y a une grande possibilité de conséquences catastrophiques si nous atteignons un certain niveau d’IA.
Effectivement, il confirme l’existence des scénarios qui étaient mauvais depuis la création de l’IA, mais il pensait qu’ils allaient trouver une solution. Du coup, il a décidé d’agir autrement en pensant à la génération future, notamment à ces enfants et à leur avenir. Pour cela, il a décidé de faire tout son possible pour atténuer les risques.
C’est pour cette raison qu’il pense qu’il est impératif de réguler l’IA. Certes, l’UE a déjà adopté une loi sur cette technologie, tout comme Biden a adopté un décret, et il pense que nous sommes dans la bonne direction.
Néanmoins, il atteste que cela ne suffit pas, surtout que les décisions prises n’ont pas trop d’impact. Par exemple, il faudra obliger les entreprises à adopter un plan de sécurité et à divulguer les résultats de leurs tests.
Par ailleurs, si elles ne respectent pas les normes les plus récentes concernant la protection du public, ces entreprises peuvent être poursuivies en justice. « Je pense que c’est la meilleure proposition législative qui existe » a déclaré Bengio.
Et vous, êtes-vous du même avis que ce père de l’IA ? Vous pouvez donner votre avis dans les commentaires.
- Partager l'article :
C’est certainement mieux de tout arrêter et 1laisser la Chine seule dans la course…
Yoshua Bengio nage en pleine paranoia.
C’est mort, quoi qu’il se passe (et puis, une dictature chinoise, américaine ou française, quelle importance ?). Rien ne sera atténué car tout le monde la développera, cette IA ultime, pour corroborer l’hypothèse de la reine rouge qui régit notre civilisation du «plus». Chacun imaginera avoir le contrôle sur tout une fois de plus, la réalité jusqu’à présent nous a montré que nous ne contrôlons jamais plus que quelques sphincters !
Tout avance façon puzzle, doucement, et quand le dess[e]in sera enfin révélé il sera bien sûr trop tard. Le suicide collectif a déjà débuté, les polluants en font partie. Les algorithmes nous dirons comment accélérer. Qu’on en finisse, les têtes de vainqueurs sont si ennuyeuses.
AI = Artificial Intelligence est venu après 2AI : Automatismes et Avenir Informatique, crée en 1980 et qui se posait la question : « comment organiser une société quand les robots feront tout ce qui est pénible ». Dès la fin de la première année, j’ai réalisé que nos outils comptables dataient du Moyen Age, à une époque où tout était lent. Les messages voyageaient à 30 KM / H à Cheval. Aujourd’hui à plus de 300 000 KM à la seconde dans des fibres optiques. soit 36 millions de fois plus vite !
Plus on va vite, plus il faut anticiper… et nos structures de réflexion n’ont toujours pas changé.
Pire, elles empilent erreur sur erreur. Par exemple : « gouverner, c’est prévoir, mais la préparation du futur a une valeur nulle comptable ? ». Pour une raison très forte : « on veut du juste, certain ». Donc, ce qui n’est pas justifié par une facture et un chiffre certain vaut zéro. Donc, le travail des abeilles vaut zéro et tout le travail de préparation du futur vaut zéro. Pour ceux qui ont besoin d’autres images fortes, en logique comptable, la taille de l’espace est nulle, puisqu’on ne sait pas mesurer et qu’il n’y a pas personne pour faire un certificat servant de facture.
Dans les années 80, sont apparus les premiers réseaux de neurones. Catastrophe : un réseau de neurones déclenche des attracteurs étranges (cherchez sur Internet). Un réseau de neurones n’est absolument pas fiable. Ce qui est confirmé par « l’ordre étrange des choses » d’Antonio Damasio qui explique pourquoi, physiologiquement, nous raisonnons « à l’envers » en voulant imposer telle ou telle idée au lieu de nous mettre en harmonie avec le réel : cherchez la raison du côté de la barrière hémato-encéphalique qui nous coupe (sauf en phase très lente de méditation), de notre connexion au réel.
Par contre, la Nature a compensé ce défaut en inventant « les 5 sens ». Essayez de confirmer l’expérience que j’ai pratiquée : faites évaluer un projet en 1D (combien ca vaut), puis faites le évaluer en 2 D ( Fond et forme) … Vous me direz vos résultats… Ce qui a émergé est étonnant …
Dans les années 90, se sont envolées nos certitudes d’automaticiens. Autant, on arrivait à piloter le métro en automatique, autant il y a eu 14 thèses, 14 échecs pour faire piloter un vélo par un robot. Il faut raisonner autrement, sortir des « certitudes », du « juste », et raisonner « croisement dynamique de données approchées ». Exactement ce que nous faisons sans le savoir quand nous conduisons un vélo. La 15ème thèse en « fuzzy logic » a marché. Aujourd’hui, des robots pilotent un vélo sur une roue !
Et il y a encore mieux : En 1973, j’avais discuté avec un prof d’économie en lui disant : « je ne comprends pas vos démonstrations : vous utilisez des dérivées partielles, alors que rien n’est continu ». Je passe la réponse ; l’important est de considérer l’économie comme quantique et donc de chercher des invariants, et en particulier les invariants du vivant. Il m’a fallu 30 ans pour les trouver. Le plus important, celui à la base de l’organisation Egyptienne définit la logique ternaire des Egyptiens, car il y a plusieurs logique ternaires) : « l’action passe par les points communs entre les opposés complémentaires pour former un troisième élément (penser, papa, maman, un bébé). A eux trois, ils forment un 4ème élément (la famille), base de l’étage supérieur (la tribu). Application : quand quelque chose gène ou pollue un système, créer par principe, son opposé complémentaire.
– Ceci s’applique à la finance : créer la débutance pour valoriser la préparation du futur
– Ceci s’applique à l’IA : il faut l’inverse l’AI : l’assistance à notre intelligence, voir 2AI : Assistance et Accompagnement à notre intelligence.
Et cette AI ou 2AI va respecter les opposés complémentaires de la finance, les contraintes de cybernétique, les contraintes des invariants du vivant, déboucher sur une méta organisation d’un système apprenant et valorisant respectant les règles d’homéostasie d’un système complexe.
Application : nous pouvons inventer une « EcoBioNomie » (ou organisation centrée sur le respect du vivant) qui sera « Turbio » = Turbo et compatible Bio !
Ces base tiennent la route et permettent de trouver par simulation comment sortir des dettes … mais c’est interdit par une règlementation européenne datant de 1986, qui empêche le financement des recherches fondamentales qui expliciteraient ce qui est au dessus.
Je ne publie pas, car il faut commencer par le cadre permettant de gérer les fondations : le cadre juridique. Aujourd’hui, les lois imposent les « bêtises répétées par l’histoire, qui sont devenues des pseudo-vérités » imposées dans le cadre comptable et financier.
Il faut commencer par créer un cadre juridique, où on aura le droit de suivre ce que les simulations nous montrent pour permettre à notre cerveau de prendre conscience de ce qu’il ne voit pas. Il faut commencer par organiser le meta système apprenant valorisant et fiabilisé. ( J’en suis à la 6ème version en cours de construction … le résultat est juste magnifique, mais il ne faut pas publier, car nos « attracteurs étranges » vont déclencher le fonctionnement de base de l’ordre étrange des choses : « celui qui ment le mieux est celui qui gagne » (the one who lies the best is the winner) est une phrase qui m’a été répétée des dizaines de fois aux USA…
Essayons de redevenir français : on commence par des fondations « universelles », aujourd’hui « multiverselles » (cad compatibles avec la mécanique quantique et la dernière théorie des cordes qui intègre l’infiniment grand ( lire « l’homme superlumineux » de Régis Dutheil).
Ensuite, on partira des simulations pour construire l’accompagnement nécessaire (ceci a été essayé et je peux dire que ca marche très bien, les élèves sont enthousiastes), mais on est obligé actuellement de s’arrêter, puisque la comptabilité ne reconnait pas la création de valeur … alors qu’il suffit d’appliquer ce qui a été fait pour les castors (les gens qui construisent leur maison) en mai 1949 : reconnaitre l’apport-travail… et on débloque la situation, à condition de remplacer « construire sa maison » par « construire de l’information solide » .. ce qui suppose de commencer par construire la méta architecture assurant la fiabilité des systèmes qui vont s’auto-vérifier les uns les autres.
BREF, L’IA SEULE EST UN VIOL DES REGLES DE BASE DU VIVANT.
IL FAUT SON CONTRAIRE EN MËME TEMPS ET LE DOUBLER POUR RATTRAPER LE RETARD.
IL FAUT 2AI EN MEME TEMPS: .ASSISTANCE ET ACCOMPAGNEMENT de notre INTELLIGENCE.
Je suis prêt à répondre à vos questions.