D’un moment à l’autre, la puissance de l’IA peut basculer d’un simple outil à une menace dangereuse. À travers le monde, les régulateurs s’efforcent de fixer des seuils pour évaluer et encadrer les capacités de cette technologie. Mais où se situe la limite ? Et comment la définir ?
À partir de quel point une IA devient-elle trop puissante, trop dangereuse, pour être surveillée ? Les régulateurs du monde entier essaient de calculer ce seuil. Désormais, tout modèle exécutant 10 opérations à virgule flottante à la puissance 26 par seconde — soit 100 septillions de calculs — doit être signalé au gouvernement. Par ailleurs, elle pourrait bientôt s’accompagner de règles encore plus strictes, surtout en Californie. Le contrôle de l’IA est-il donc une affaire d’arithmétique ?
L’IA dangereuse ? Les régulateurs serrent les vis en calcul
Pour certains législateurs et défenseurs de la sécurité de l’IA, la puissance de calcul actuelle de cette technologie pourrait un jour servir à des fins dangereuses. Notamment, pour créer des armes de destruction massive ou à lancer des cyberattaques dévastatrices.
Les lois en préparation visent à poser une base afin de différencier les IA génératives d’aujourd’hui de celles, encore plus puissantes, de demain. Ainsi, les régulateurs ne quittent pas des yeux les géants comme Anthropic, Google, Meta et OpenAI.
L’année dernière, Joe Biden a signé un décret qui impose ces seuils de puissance d’IA. La Californie a suivi cette tendance. Le gouverneur Gavin Newsom doit décider d’ici au 30 septembre de promulguer ou de bloquer la nouvelle loi sur la sécurité de l’IA. Cela ajoute une condition : tout modèle réglementé doit coûter au moins 100 millions de dollars à développer.
L’Union européenne, s’inspirant de Biden, a fixé sa limite de calcul à 10 puissance 25 flops, ce qui est dix fois plus bas. Ainsi, cela couvre certains systèmes déjà existants.
Mais actuellement, aucun modèle public ne dépasse le seuil de calcul d’IA californien. Par contre, des start-ups s’y mettent peut-être déjà. Alors, Biden, via une loi de l’époque de la guerre de Corée, oblige les sociétés à informer le ministère du Commerce si celles-ci créent de tels modèles.
Les opposants réagissent : “ces seuils sont arbitraires…”
D’après certains experts en technologie, ces régulations de l’IA sont trop simplistes. Sara Hooker, informaticienne chez Cohere, souligne qu’il n’existe « aucune preuve scientifique claire » pour utiliser ces seuils comme indicateurs de risque de la puissance d’IA.
Les capital-risqueurs Marc Andreessen et Ben Horowitz, quant à eux, critiquent ces réglementations. Ils estiment que ces dernières freinent l’innovation dans le secteur des jeunes entreprises en IA. Dans un podcast, Horowitz a mentionné : “Dix fois plus de 26 flops, et si c’était la taille du modèle dont on avait besoin pour, par exemple, guérir le cancer ?”.
Jusqu’à présent, les connaisseurs discutent encore de la façon d’évaluer les capacités des dernières IA génératives. Certains tests jaugent la résolution d’énigmes, le raisonnement logique ou la précision des réponses des chatbots. Ces indicateurs évaluent l’utilité des IA, certes, mais aucun ne définit clairement combien elles sont dangereuses pour l’humanité.
Selon vous, ces seuils sont-ils un bon indicateur de risque et quelles solutions proposeriez-vous si la puissance de l’IA devient dangereuse ? Donnez-nous votre avis en commentaire !
- Partager l'article :