danger IA

Arrêtez d’avoir peur de l’apocalypse IA ! Le vrai danger est déjà là

Selon plusieurs experts, les risques ne sont pas à exclure avec les avancées technologiques. En effet, l'IA représenterait un danger, surtout avec sa performance actuelle. Et la course à la perfection pourrait aggraver cette situation.

Non, l'IA ne va pas prendre les armes, ou contrôler le marché financier d'ici peu. Ces événements apocalyptiques restent encore dans le monde de la science-fiction. Selon les experts, les usages dérivés de l'intelligence artificielle représentent un grave danger pour l'humanité. Et ce contexte est préoccupant, surtout avec l'avancée de cette technologie. Les experts dans le secteur ont exprimé leur opinion par rapport à cette situation.

La désinformation, le vrai danger de l'IA

Les événements apocalyptiques, où l'intelligence artificielle se rebelle contre l'humanité, sont toujours au cœur des débats. Mais selon les experts, cette préoccupation altère notre perception du vrai danger de l'IA. Certains ont même déclaré que se focaliser sur ces scénarios constitue une distraction.

Aidan Gomez était un des premiers à exprimer son avis concernant cette situation. Selon lui, les outils génératifs, tels que ChatGPT ou peuvent détourner l'opinion publique. En effet, ces IA sont capables de fournir des textes et des images uniques. Et il n'est pas rare que ces résultats se rapprochent de ceux d'un être humain.

« Ces modèles d'IA peuvent créer des médias extrêmement convaincants, très convaincants, pratiquement impossibles à distinguer du texte, des images, ou des médias créés par l'homme, c'est donc un problème auquel nous devons nous attaquer en toute urgence ». Aidan Gomez

La désinformation doit être le centre des préoccupations. En effet, les contenus générés par certains utilisateurs ont déjà secoué le monde d'internet. Ici, on peut citer les vidéos deepfakes et les fausses lettres ou communiqués.

L'IA contre l'humanité : un danger à ne pas exclure

Toutefois, certains spécialistes de l'IA n'ont pas négligé un danger potentiel sur le long terme. Ils se sont basés sur l'incertitude concernant les performances de cet outil. Il n'y a pas de preuves tangibles pour exclure ces risques, selon un des documents du sommet sur la sécurité de l'IA.

Des experts ont imaginé des scénarios, même si les risques sont très faibles. Ils se sont fondés sur une IA capable de contrôler des armes, ou le marché boursier.

Par ailleurs, les grands noms dans le domaine de l'IA ont aussi considéré ce scénario. Geoffrey Hinton, et Yoshua Bengio ont récemment signé une déclaration pour prévenir les risques de l'IA. Ils ont classé ces menaces à un même niveau qu'une pandémie, ou une guerre nucléaire.

Et comme dans les autres secteurs, il y a toujours des idées opposées. Yann LeCun, co-lauréat du prix ACM Turing, ne pense pas que l'IA sera capable d'arriver à une telle prouesse, en considérant son niveau actuel. Il faut des améliorations conséquentes pour qu'elle dépasse l'intelligence humaine.

Le sommet sur la sécurité de l'IA : vers une mesure plus stricte sur cet outil ?

Les experts du secteur vont se réunir à Londres à l'occasion du sommet de la sécurité de l'IA. Des chercheurs, des ingénieurs, des politiciens, et autres spécialistes vont échanger le 1er et le 2 novembre prochain.

L'objectif de cette rencontre est d'alerter les risques de dérives sur l'utilisation de l'IA. Et on espère une mesure plus stricte pour encadrer ces outils technologiques.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. «L’objectif de cette rencontre est d’alerter les risques de dérives sur l’utilisation de l’IA. Et on espère une mesure plus stricte pour encadrer ces outils technologiques.»

    – Je déclare la séance ouverte
    – Alerte alerte !
    – Faut réguler
    – Pas mieux
    – Des questions ? … Je déclare la séance close

    Une nouvelle Hadopi mais pour l’IA quoi.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *