Eitan Michael Azoff, un analyste reconnu, affirme que nous sommes proches de créer une IA qui pourrait surpasser le cerveau. Cependant, les implications d’une telle technologie posent des questions cruciales sur la sécurité et le contrôle.
Une IA qui surpasse le cerveau : des capacités inédites en perspective
Le célèbre chercheur, Eitan Michael Azoff, révèle dans son nouvel ouvrage comment l’IA va bientôt surpasser le cerveau humain. Il s’agit du livre « Towards Human-Level Artificial Intelligence: How Neuroscience can Inform the Pursuit of Artificial General Intelligence. Il y explique que nous sommes à deux doigts de comprendre le « code neuronal ». Ce code mystérieux représente la manière dont notre cerveau traite les informations et résout les problèmes.
Pour Azoff, imiter ce processus dans les machines est la prochaine étape pour atteindre une IA au niveau humain. La « pensée visuelle », par exemple, a précédé le développement du langage chez l’homme. En comprenant et en reproduisant ce processus, nous pourrions concevoir des IA avec des capacités cognitives bien supérieures au cerveau.
Les limites des modèles actuels
Les IA d’aujourd’hui, tels que GPT-4, souffrent également d’un problème majeur d’après l’analyste. Elles sont capables de traiter et de générer du texte certes. Mais elles dépendent toujours d’une implication humaine, car elles nécessitent un flux continu de données nouvelles et précises. Et la qualité des leurs réponses régresse lorsqu’elles sont auto-apprenantes. C’est-à -dire lorsqu’elles utilisent leurs propres résultats ou ceux d’autres modèles d’IA. Cette « consanguinité » compromet leur efficacité et pose des défis éthiques.
Les défis que les développeur doivent relever
Azoff insiste sur les défis qui attendent l’humanité pour encadrer ce genre de technologie. Si les développeurs réussissent, ce qui sera bientôt le cas, ils créeront une IA avec une performance hors du commun. Ce qui n’est pas sans risques vu qu’une machine n’a aucune réflexion.
L’analyste évoque alors qu’il est crucial de concevoir des mécanismes de sécurité pour ce nouveau modèle d’IA. Il propose le développement d’un « kill switch », un interrupteur d’urgence que seuls les humains peuvent contrôler. Ce dispositif permettrait d’arrêter la machine en cas de dérive ou de menace. En parallèle, il est essentiel d’intégrer des règles comportementales dans les systèmes d’IA pour éviter les abus potentiels.
Un autre développement d’IA qui va compromettre des millions de données sensibles ?
Le développement de ce genre de technologie soulève des questions sur la confidentialité et la gestion des données. Les grandes entreprises, motivées par leur désir de dominer, continuent de pousser les frontières de l’IA, malgré les réticences des clients.
Meta, par exemple, a admis utiliser des données de millions d’utilisateurs pour entraîner ses modèles d’IA, souvent sans consentement explicite. Microsoft, quant à elle, a transformé les clients de Windows en une mine d’information pour le déploiement de son assistant virtuel Recall. Il y a aussi X(anciennement Twitter), qui n’a promis de ne toucher à aucun dossier des ses abonnés européens que récemment.
- Partager l'article :