Google Bard : une mise à jour massive pour rattraper ChatGPT, qu’en disent les testeurs ?

Ce pionnier de l’IA avertit sur la future guerre des robots, préparez-vous

L'ancien spécialiste de , le Professeur Geoffrey Hinton a tiré la sonnette d'alarme concernant les robots IA. Pour lui, ces machines contrôlées par une technologie aussi performante pourront devenir une menace. Le public devrait-il s'inquiéter à propos de cette situation ?

Auparavant un défendeur des prouesses de l'intelligence artificielle, le Professeur Geoffrey Hinton explique maintenant les menaces que représentent cette technologie. Pour lui, les robots et les armes contrôlées par l'IA pourront dépasser l'intelligence humaine. Ce n'est pas sa seule inquiétude. En effet, certains utilisateurs peuvent manipuler ces technologies pour exploiter les pays les plus vulnérables.

« Ces choses deviendront beaucoup plus intelligentes que nous et nous prendront le relais »

Cette phrase résume parfaitement les déclarations du « parrain de l'IA ». D'ici quelques années, ces outils vont devenir de plus en plus performants. L'intelligence humaine serait même dépassée. Si cette situation se présente, les machines prendront le contrôle. Comme quoi, les films de science-fiction peuvent devenir une réalité.

« L'une des menaces réside dans les robots de combat, qui permettront aux pays riches de faire la guerre beaucoup plus facilement contre des pays plus petits et plus pauvres », explique le Professeur Geoffrey Hinton.

En plus des robots IA, le spécialiste s'est aussi exprimé sur d'autres menaces. En effet, l'intelligence artificielle va supprimer plusieurs emplois d'ici peu. Quelques entreprises traversent même cette situation désagréable.

Les contenus deepfakes seront des sources de désinformation massives selon le Professeur Hinton. Cette utilisation dérivée de l'IA est même d'actualité ces derniers temps. Souvenez-vous du cas de la chanteuse Taylor Swift qui a choqué les fans. Les autorités américaines ont ensuite instauré des mesures drastiques afin de limiter les dégâts.

Des réglementations pour contrôler les robots et l'utilisation de l'IA

« Nous pourrions obtenir des choses comme la Convention de Genève, mais je pense que nous devons d'abord faire face à des choses très désagréables, tout comme les armes chimiques » déclare le professeur Geoffrey Hinton.

Le pionnier de l'IA sera alors un des spécialistes à réglementer ce secteur. Cependant il ne pourra pas agir seul. Les gouvernements seront les mieux placés pour mener cette lutte.

« Les gouvernements peuvent faire pression sur les grandes entreprises, c'est plus pertinent en Californie, pour qu'elles fassent un travail important en matière de sécurité (…) Plutôt que d'y réfléchir après coup, il devrait y avoir des incitations gouvernementales pour garantir que les entreprises consacrent beaucoup d'efforts à la sécurité, et une partie de cela se produit déjà ».

Cependant, le Professeur Geoffroy Hinton n'a pas regretté sa contribution à l'avancée de l'IA. Il éprouve juste un sentiment d'inquiétude face au développement rapide de cette technologie.

« Il y a deux sortes de regret. Il y a un regret lorsque vous avez pris une décision que vous pensez maintenant être une mauvaise décision et je n'ai aucun regret de ce genre. Il s'avère que récemment, l'IA s'est développée beaucoup plus rapidement que prévu et c'est inquiétant, mais je ne regrette aucune des décisions que j'ai prises ».

L'IA s'est alors développée à une vitesse grand V. Elle va peut-être dépasser l'intelligence humaine. En plus des craintes de l'ancien cadre de Google, est-ce qu'il y aurait d'autres menaces liées à cette technologie ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *