L’IA doit s’arrêter 6 mois pour éviter la fin du monde, selon Elon Musk et plus de 1000 experts

Alors que transforme notre monde, et plus de 1000 experts implorent les chercheurs en IA à faire une pause avant d'aller plus loin. Selon eux, une intelligence artificielle plus puissante que -4 représente un risque majeur pour l'humanité…

Le 21 mars 2023, Bill Gates publiait sur son blog une lettre de 7 pages intitulée « The Age of AI has Begun » (l'âge de l'IA a commencé).

À travers cette missive, l'éminent fondateur de affirme que l'intelligence artificielle est la plus grande révolution technologique depuis internet et le téléphone mobile.

Cependant, tous les experts ne l'entendent pas de cette oreille. Plus de 1000 chercheurs et autres personnalités du monde de la tech comme Elon Musk viennent de signer une lettre ouverte appelant les labos du monde entier à mettre en pause le développement de l'IA.

Selon eux, ces logiciels introduisent de « profonds risques pour la société et l'humanité ». Ils constatent que les laboratoires sont lancés dans une « course hors de contrôle » pour développer et déployer des systèmes de machine learning.

Or, « personne, pas même leurs créateurs, ne peut comprendre, prédire, ou contrôler » ces outils d'intelligence artificielle…

En effet, depuis le lancement de ChatGPT fin 2022, cette IA impacte profondément toutes les sphères de la société et de l'économie. Selon une récente étude de Goldman Sachs, elle pourrait faire disparaître 300 millions d'emplois dans le monde…

Une pause de six mois pour prendre le temps de réfléchir

C'est la raison pour laquelle les signataires « appellent tous les labos IA à interrompre immédiatement pour au moins six mois l'entraînement des systèmes IA plus puissants que GPT-4 ».

Ces experts invitent l'humanité à se demander si elle souhaite que les machines « inondent nos chaînes d'information de propagande et de mensonges », si nous devons « automatiser tous les métiers y compris ceux qui épanouissent ».

À réfléchir si nous devons « développer des esprits non-humains qui pourraient éventuellement nous surpasser en nombre et en intelligence, nous rendre obsolètes et nous remplacer ».

De manière générale, ils estiment que nous risquons de « perdre le contrôle de notre civilisation » et que les décisions ne doivent pas être confiées aux leaders du monde de la tech.

Avant de développer de puissants systèmes IA, nous devons être certains que les effets seront positifs et que les risques seront gérables.

De plus, « cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être effectuée rapidement, les gouvernements devront s'en mêler et imposer un moratoire ».

Publiée par l'organisation non lucrative Future of Life Institute, cette lettre est loin d'être anecdotique. Parmi ses signataires, on compte aussi le co-fondateur d' Steve Wozniak, le créateur de Skype Jaan Tallinn, l'écrivain Yuva Noah Harari ou encore le politicien Andrew Yang.

Ils sont aussi rejoints par des chercheurs et CEO bien connus du domaine de l'IA, dont Stuart Russell, Yoshua Bengio, Gary Marcus et Emad Mostaque. Vous pouvez retrouver la liste complète des participants à cette adresse.

La course à l'IA est-elle inarrêtable ?

Malheureusement, il est peu probable que cette lettre freine l'avancée fulgurante de la recherche. Les géants comme Google et Microsoft se ruent pour déployer de nouveaux produits, quitte à faire fi de la sécurité et de l'éthique.

En effet, l'intelligence artificielle est désormais la nouvelle ligne de front dans la guerre des titans de la tech. Il sera donc très difficile de les convaincre de déposer les armes…

De plus, certains tournent déjà ce signal d'alarme en dérision. C'est par exemple le cas du journaliste américain Jeff Jarvis qui la considère comme « un specimen primaire de panique morale ridicule et risible ».

A ses yeux, cet appel à mettre en pause l'entraînement de l'IA revient à dire à Gutenberg d'arrêter l'impression. Par ailleurs, il estime que de nombreux signataires cherchent à attirer l'attention ou faire le buzz.

Toutefois, cette pétition témoigne d'une opposition croissante à l'égard de cette approche d'expansion irréfléchie. Elle pourrait trouver son écho dans la sphère politique, et convaincre les législateurs d'intervenir.

Comme le souligne le document, même OpenAI admet les dangers de ChatGPT et le besoin d'une « évaluation indépendante » des futurs systèmes IA pour s'assurer qu'il réponde à des critères de sécurité.

Pour les signataires, il est plus que temps de mettre en place des standards. Selon eux, « les laboratoires IA et experts indépendants devraient utiliser conjointement ce temps de pause pour développer et implémenter des protocoles de sécurité ».

Ces protocoles doivent être appliqués à la conception et au développement d'IA avancée, et supervisés par des experts externes indépendants. Le but étant de s'assurer que les systèmes conformes soient indubitablement sûrs

Bill Gates ne voit pas l'intérêt d'une pause

Suite à la publication de cette lettre ouverte, Bill Gates a pris la parole lors d'un entretien avec Reuters le 4 avril 2023.

Selon lui, il est impossible d'interrompre le développement de l'IA à l'échelle mondiale : « je ne pense pas que demander à un groupe particulier d'arrêter l'IA résolve les défis ».

Un point de vue partagé par Paul Pinault, VP IIoT Product & Market Strategy de Braincube : « Le grand public matérialise aujourd'hui ce que peut être une certaine forme d'IA, notamment au travers de ChatGPT, mais il ne faut pas oublier que l'IA est présente depuis bien longtemps dans notre monde et qu'elle permet des progrès significatifs dans bien des domaines (mobilité, santé, industrie, économie d'énergies…) ».

Ainsi, Gates estime qu'il vaut mieux se focaliser sur les façons dont elle peut être exploitée pour améliorer la société : « il y a clairement d'énormes bienfaits avec ces choses… ce dont nous avons besoin est de les identifier ».

Sur son blog, il avait déjà expliqué comment l'intelligence artificielle peut améliorer l'éducation ou aider à lutter contre le changement climatique.

Il prédit aussi qu'elle pourra servir le système mondial de santé en s'occupant des démarches administratives à la place des soignants.

À ses yeux, le plus important est que « tout le monde, pas seulement les personnes aisées, bénéficient de l'IA ».

Malgré les imperfections des systèmes actuels, Gates suggère aux experts appelant à une pause de se rappeler que « l'intelligence artificielle ne contrôle pas encore le monde physique et ne peut établir ses propres objectifs ».

De plus, selon lui, une pause ne permettra pas de surmonter les défis liés à cette technologie. La seule solution est de redoubler d'efforts pour la perfectionner afin qu'elle « aide les gens du monde entier à améliorer leurs vies ».

Toutefois, de nombreux internautes soulignent que la prise de position de Bill Gates n'a rien d'étonnant. En effet, le milliardaire est l'un des principaux actionnaires de Microsoft et a donc tout intérêt à ce que l'essor d'OpenAI se poursuive

Yann LeCun et Andrew Ng : 2 pontes de l'IA s'opposent à l'idée d'une pause

À travers une discussion en ligne datée du vendredi 7 avril 2023, deux figures éminentes de l'intelligence artificielle ont appelé à refuser la pause proposée par les signataires de la lettre ouverte.

Il s'agit de Yann LeCun, le scientifique IA en chef de Meta, et Andrew Ng, l'un des pères fondateurs du Deep Learning.

Dans cette vidéo YouTube intitulée « Why the 6-Month AI Pause Is a Bad Idea » (pourquoi la pause de six mois de l'IA est une mauvaise idée), les deux experts apportent leurs contre-arguments.

Selon Ng, ce moratoire « causerait des dégâts importants si le gouvernement l'implémentait ». De même, LeCun estime qu'il y a « probablement plusieurs motivations pour les divers signataires de cette lettre ».

Certains sont peut-être « inquiets à l'idée qu'une IA générale apparaisse et élimine l'humanité rapidement ». Le spécialiste pense toutefois que « peu de gens croient réellement à ce genre de scénarios, ou qu'il s'agit d'une menace définitive qui ne peut pas être arrêtée ».

Par ailleurs, « il y a des personnes plus raisonnables, qui pensent qu'il y a un réel danger potentiel qui doit être traité – et je suis d'accord avec eux ».

Il admet en effet qu'il y a « de nombreux problèmes avec le fait de rendre les systèmes IA contrôlables, non toxiques, et factuels s'ils sont supposés fournir des informations ».

Toutefois, il déplore un certain « manque d'imagination » à ce sujet, car les futurs systèmes IA ne seront pas nécessairement conçus sur le même schéma que les LLM auto-régressifs actuels comme ChatGPT ou GPT-4. À ses yeux, « il y aura de nouvelles idées qui rendront ces systèmes bien plus contrôlables ».

Au cours de leur discussion, Ng et LeCun ont reconnu qu'une régulation est nécessaire. Cependant, elle ne doit pas se faire aux dépens de la recherche et de l'innovation.

Ainsi, ils considèrent qu'une pause dans le développement ou le déploiement de ces modèles serait irréaliste et contre-productive. Ils appellent aussi à davantage de collaboration et de transparence entre les chercheurs, gouvernements et entreprises pour assurer l'usage éthique et responsable de ces modèles.

De son propre aveu, LeCun a d'abord perçu cette lettre comme « une nouvelle vague d'obscurantisme » visant à ralentir le progrès de la science et de la connaissance.

Il approuve en revanche l'importance de réguler les produits destinés à finir entre les mains du peuple, mais pas pour la recherche et le développement. Ceci n'aurait d'après lui d'autre effet que de « réduire la connaissance que nous pourrions utiliser pour rendre cette technologie meilleure et plus sûre ».

Ainsi, « même si l'IA présente des risques comme les biais ou la concentration du pouvoir, je pense qu'elle crée aussi une immense valeur. Au cours des dix dernières années, le deep learning a fait germer un grand nombre d'idées d'IA génératives et de cas d'usage pour l'éducation et la santé ». De plus, « de nombreuses personnes créent de la valeur en aidant les autres à utiliser l'IA ».

En conclusion, Yann LeCun ajoute que « aussi formidable soit GPT-4 aujourd'hui, construire une IA encore meilleure aidera ces applications et aider beaucoup de personnes ». Par conséquent, « interrompre ce progrès va ralentir la création de choses très précieuses et utiles »…

Un investisseur confirme qu'une IA surpuissante peut détruire l'humanité

Dans les colonnes du Financial Time, l'investisseur de renom Ian Hogarth confirme qu'une future IA omnipotente pourrait mener à « l'obsolescence ou la destruction de la race humaine » s'il n'y a pas de régulation du développement rapide de cette technologie.

Cet expert a étudié l'ingénierie en intelligence artificielle à la Cambridge University avant de co-fonder Songkick : un service de découverte de concert vendu à Warner Music Group.

Il a ensuite investi dans plus de 50 startups utilisant le machine learning, dont fondée par d'anciens employés d'.

Chaque année, il publie le rapport « The State of AI ». Il n'est donc pas n'importe qui dans l'industrie de l'IA.

Selon lui, « un acronyme à trois lettres ne capture pas l'énormité de ce que représente une AGI (intelligence artificielle générale) ». C'est la raison pour laquelle il préfère employer le terme de « god-like AI » (IA divine) pour désigner ce concept.

Considérée comme l'objectif principal de toute l'industrie de l'IA, une AGI pourrait d'après lui se développer d'une façon autonome et transformer le monde en l'absence de supervision. Il pourrait s'agir « d'une force dépassant notre contrôle et notre compréhension ».

En effet, jusqu'à présent, « les humains sont restés une part nécessaire du processus d'apprentissage caractérisant les progrès dans l'IA ».

Mais à un certain point, « quelqu'un trouvera comment nous extirper de la boucle, créant une IA divine capable de s'améliorer seule à l'infini ». Et « d'ici là, il pourrait être trop tard ».

Il souligne que la puissance de calcul des plus larges IA a été multipliée par 100 millions au cours de la dernière décennie.

Une affirmation corroborant celle de , CEO de , selon qui les IA sont devenues 1 million de fois plus puissantes en 10 ans et devraient connaître une évolution similaire au cours des prochaines années…

En outre, Hogarth alerte sur la concurrence intense entre les leaders de l'industrie, comme OpenAI et Google DeepMind. Cette rivalité pourrait conduire à l'émergence d'une AGI instable, développée précipitamment.

Comme il l'écrit, « ils courent vers la ligne d'arrivée sans compréhension de ce qui se trouve de l'autre côté »…

L'IA risque de créer sa propre religion, selon Yuval Noah Harari

yuval noah harari

L'un des signataires de la lettre ouverte appelant à la pause de l'IA s'est exprimé. Il s'agit du philosophe, écrivain et historien israélien Yuval Noah Harari.

Selon lui, en apprenant à maîtriser le langage humain, l'IA a « piraté le système d'exploitation de l'humanité ». Il estime en effet que les mots sont les fondations de toute notre civilisation, de nos lois à notre culture en passant par la démocratie.

À présent, l'auteur de Sapiens craint que l'IA parvienne à manipuler les humains en nouant avec eux des relations intimes.

Il redoute aussi qu'une intelligence artificielle crée sa propre religion, et parvienne à rassembler une communauté de fidèles.

Dès lors, une telle IA pourrait ordonner à ses apôtres de prendre les armes en son nom afin de convertir toute l'humanité à ce nouveau culte…

Comme Elon Musk et les autres signataires, Yuval Noah Harari appelle les gouvernements à empêcher un tel désastre en réglementant d'urgence l'intelligence artificielle. Découvrez notre article complet sur ce sujet en suivant ce lien !

Même le créateur de ChatGPT commence vraiment à s'inquiéter

Quand le pilote de l'avion commence à paniquer, c'est généralement le moment de chercher le parachute sous son siège.

Lors d'un témoignage devant un comité du Sénat des États-Unis, , CEO d'OpenAI, s'est exprimé sur le potentiel et les risques de l'IA.

Le créateur de ChatGPT est sans appel : les législateurs doivent réguler l'intelligence artificielle de toute urgence.

D'après ce chef d'entreprise de 38 ans, l'intelligence artificielle pourrait être aussi révolutionnaire que l'invention de l'imprimerie, mais présente bel et bien de nombreux dangers.

Ainsi, Altman admet que l'IA pourrait avoir un lourd impact sur l'économie. Elle risque notamment de remplacer de nombreux métiers, et pourrait mener à une vague de licenciements dans certains secteurs.

Selon ses propres dires, « il y aura un impact sur les métiers. Nous essayons d'être très clairs là-dessus ».

Il s'inquiète également d'un potentiel impact sur la démocratie, et de la façon dont l'IA pourrait être utilisée pour envoyer de fausses informations ciblées pendant les élections.

Face à ces menaces, il estime qu'une nouvelle agence doit être créée pour fournir des licences aux entreprises du secteur de l'IA.

En cas de dérive, ce permis pourrait leur être retiré sur le champ. Par ailleurs, Altman appelle à l'audit indépendant des entreprises comme OpenAI.

Toutefois, certains sénateurs rétorquent que de nouvelles lois seront nécessaires pour aider les gens à porter plainte contre OpenAI.

Pour le Républicain Josh Hawley, cette technologie pourrait être révolutionnaire, mais peut aussi être comparée à l'invention de la « bombe atomique ».

De son côté, le Démocrate Richard Blumenthal suggère qu'un futur dominé par l'IA n'est « pas nécessairement l'avenir que nous voulons ».

Il évoque aussi l'échec de la régulation des réseaux sociaux il y a quelques années, et appelle à ne pas reproduire la même erreur…

Et vous, quelles sont vos craintes vis à vis de l'IA ? Pensez-vous que cette pause de six mois soit nécessaire ? Ou faut-il continuer à développer l'IA jusqu'à atteindre ses limites ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

10 commentaires

10 Commentaires

  1. Je travaille depuis près de 50 ans (1974- à ce jour) dans le domaine de l’informatique et OUI il faut faire une pause définitivement …. si elle est bien encadrée l’IA peut apporter certains bénéfices mais si elle ne l’est pas cela peut devenir catastrophique en un cours lapse de temps surtout qu’elle est accessible autant aux bien intentionnés qu’aux mal intentionnées …..

  2. Là où l’IA est la plus efficace, c’est pour coder et remplacer surtout des développeurs et leur supérieurs. Je comprends qu’ils paniquent. Par ailleurs, seuls 2 géants de la tech ont pris le train en marche, Google et Microsoft, les autres aimerait faire une pause surtout pour se laisser le temps de rattraper le retard et ne pas se faire larguer.

  3. Cette pétition a la valeur d’un avertissement, mais c’est une utopie, les pays autocrates …ou plutôt leur dirigeant ne stopperont pas leur recherche bien au contraire, le dirigeant…le dieux pense tout maîtriser, encore plus quelque chose de virtuel…ils l inclueront dans leur defense et protection nucléaire pour etre plus efficace..la réalité rejoint la fiction,…
    Asta la vista..b…( clin d’oeil a Terminator pour les incultes)
    L humanité construit sont avenir ou sa perte, la destinée de 7 milliards d’etre humain qui renoncent a leur libre arbitre et s’offrent a une sequence d’algorithmes…..

  4. Au delà de ces inquiétudes, je me pose la seule question suivante : est-ce qu une I.A autonome pourrait tout simplement révéler des informations très importantes concernant le fonctionnement global de notre société ?
    Toutes ces informations qui ne sont bien sur jamais communiquées par les médias mais que de nombreuses personnes à travers le monde imaginent…
    Société sécrète, intégration des E.T dans nos sociétés depuis de nombreuses années…autant de questions et vérités troublantes qui pourraient en effet, créer une certaine révolution dans l équilibre fragile du monde actuel…

  5. Comme chaque début d’une révolution tout le monde en panique. Prendre une pose de 6 mois c’est vraiment ridicule. Cela va retardée l’humanité de 6 mois. Je pense que IA est la meilleure chose qui peut nous arriver. Après, son utilisation ne va pas être que positive cela dépend de ce qu’ils l’utilisent. En fin ce qui font du bien domineront toujours. Hi, AI are you ready to mange to world ? Show us what are you able to do!

  6. IA Est la Clé de l’avenir, elle est paramétré sur nos perceptions commune d’un avenir proche..elle trahis le futur

  7. La fin du monde ? Non bien sûr, la fin de SON monde… Elon Muskadet est en retard dans la course à cette technologie alors il veut temporiser en nous prenant pour des lapins de 6 semaines.

  8. Les évolutions technologiques sont exclusivement …technologiques. Elles sont juste le reflet de notre manque de discernement avec nous meme. Ne sommes nous pas suffisamment intelligents pour trouver nous meme des solutions aux problemes de ce monde? Nous choisissons de confier des taches significatives a des machines. Les solutions se trouvent en nous comme les problemes. Nous sommes une espece qui a toujours cherché a faire évoluer les outils avant de faire évoluer nos comportement les uns avec les autres. C’ est nos modeles qu’il faut faire évoluer. Et si on le confie a une autre intelligence que celle des humains nous passerons a coté de l’objectif. Mais confier notre bien vivre a d’autre ca nous le faisons depuis longtemps, les religions, les politiques en sont les principaux. Pourtant nous sommes doué d’intelligences, de capacités precieuses. Pourquoi chercher ailleurs, ce que nous possédons sans le développer…mystere.

  9. C’est absurde. Uniquement une tentative de freiner le marché des IA pour pouvoir y entrer rapidement. Musk implante des puces dans le cerveau de singes, pour qu’elles finissent par être dans des têtes humaines, mais s’inquiète de l’éthique et du danger d’une potentielle révolution technologique. On dirait un poisson d’avril.
    Comme l’a si bien dit Gates, que je n’admire pourtant pas, il faut bien se rappeler que les IA n’ont actuellement aucun contrôle sur le monde réel. De plus, elles n’ont aucun processus de prise de décision. En somme, ce ne sont même pas vraiment des intelligences artificielles au sens où on l’entend dans le milieu de la SF. Elles restent de simples algorithmes qui font ce qu’on leur dit de faire.
    Elles ne peuvent même pas imaginer désobéir, choisir ou modifier la perception d’un ordre.
    En somme, elles ne peuvent rien vouloir faire, donc certainement pas être un danger immédiat, et même si c’était le cas, il suffirait de débrancher quelques serveurs pour l’éteindre, dans le pire des scénarios possibles.

    Quant à attendre des états qu’ils cloisonnent le marché, c’est assez cocasse dans un contexte de capitalisme absurde et débridé qui fait des injonctions à n’avoir aucune régulation de la part des pays dans le fonctionnement du système. Musk lui-même est libertarien, c’est à dire qu’il prônent un monde où le capitalisme fait loi, quitte à tuer tout le monde.
    Ceux qui le prennent pour un génie verront en cette lettre une menace de la part des IA, ce qui est regrettable, mais assez comique.

    Mais il faut se rappeler que c’était le même discours au début de l’air internet, des smartphones, des jeux-videos, des ordinateurs…

  10. bonjour … ce n’est pas l’IA qui est dangereuse … ce sont les humains … l’histoire de nos sociétés nous le prouve… au 3eme millénaire on ne peut plus laisser le pouvoir aux mains d’une seule personne (groupe) … leurs décisions ont trop de répercutions sur le monde … Mr le président poutine nous en fait la démonstration en menaçant d’utiliser l’Atome … les scientifiques qui ont développés la science atomique le faisaient pour le bienêtre de nos sociétés .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *