Quand les plus grands cerveaux de la planète tirent la sonnette d’alarme, il y a de quoi s’inquiéter. La course folle entre l’IA et le monde scientifique divise les experts. Certains affirment qu’elle pourrait bien signer la fin du monde tel que nous le connaissons.
C’est la panique chez les spécialistes de l’IA. Plus de 800 experts, dont Steve Wozniak et Geoffrey Hinton, viennent d’exiger l’arrêt immédiat du développement d’une superintelligence artificielle.
Mais de quoi ont-ils peur ? Qu’une IA capable de surpasser l’humain bouleverse le monde et devienne impossible à contrôler. Dans une lettre ouverte, ils appellent les gouvernements et les géants de la tech à suspendre cette course effrénée avant qu’il ne soit trop tard.
C’est vraiment la fin du monde avec une IA trop puissante ?
Les 800 experts sont convaincus qu’il serait mieux d’arrêter le développement d’une superintelligence. Ils appellent à agir immédiatement, « tant qu’il n’existe aucune garantie scientifique de sécurité, ni soutien démocratique ».
Derrière cet appel, on retrouve le Future of Life Institute. C’est une organisation à but non lucratif qui milite pour une technologie responsable. Les signataires veulent en effet que l’IA reste un outil, pas une menace pour le monde. Car la liste des dangers évoqués fait froid dans le dos.
Il y a, par exemple, ce que beaucoup redoutent déjà, la disparition du travail humain. Mais cette course à la superintelligence favoriserait aussi la perte de contrôle politique et les atteintes aux libertés individuelles. Pire encore, certains évoquent une extinction potentielle de l’humanité si rien n’est fait.
Pour ces experts, continuer sans encadrement serait tout simplement irresponsable. Le président du Future of Life Institute, Max Tegmark, se veut tout de même nuancé.
« On peut soutenir la création d’IA puissantes pour guérir le cancer, tout en refusant la superintelligence », explique-t-il. L’objectif n’est donc pas de bannir l’intelligence artificielle, mais de fixer des limites claires avant qu’il ne soit trop tard.
Pendant ce temps, le monde fonce droit vers la superintelligence
Mais pendant que les chercheurs tirent la sonnette d’alarme, les géants de la tech poursuivent leur course sans freins. Dans la Silicon Valley, la superintelligence est désormais le Graal absolu.
OpenAI estime qu’une telle IA pourrait voir le jour d’ici cinq ans. Google DeepMind, lui, vise 2030, avec un budget colossal de 75 milliards de dollars rien que pour 2025. Meta, de son côté, réorganise entièrement ses équipes pour atteindre cet objectif. La firme débourse jusqu’à 72 milliards de dollars cette année.
Même la Chine s’est lancée dans la bataille avec son plan AI+. Elle prévoit de tripler la puissance de calcul du pays d’ici à 2030. C’est une véritable guerre mondiale de l’IA, où chaque puissance veut franchir la ligne d’arrivée en premier. Mais à quel prix ?
Les avertissements de la communauté scientifique se heurtent à des intérêts économiques colossaux. Les entreprises avancent à toute vitesse. Elles n’hésitent pas à sacrifier la prudence sur l’autel du progrès.
Et si cette course effrénée menait à un monde où l’IA contrôlerait l’humanité, plutôt que l’inverse ? La question, autrefois réservée aux films d’anticipation, se pose désormais très sérieusement.
- Partager l'article :