cerveau ia points communs

Notre cerveau est-il une IA ? 3 points communs fascinants et surprenants

Et si notre cerveau n’était en fait qu’une intelligence artificielle créée à l’aide d’une technologie qui nous dépasse encore ? À travers ce dossier, découvrez 3 points communs mis en avant par des études scientifiques qui risquent de bouleverser toutes vos certitudes !

L’intelligence artificielle s’inspire de l’intelligence humaine. Le but ultime de cette technologie est de créer des machines capables de raisonner et de penser comme l’humain.

Toutefois, vous êtes vous déjà demandé si nous ne sommes pas nous-mêmes des intelligences artificielles extrêmement avancées ?

À mesure que la recherche en intelligence artificielle et les neurosciences progressent, on s’aperçoit que l’IA et le cerveau ont beaucoup plus de points communs qu’on ne le pensait autrefois.

Dans ce dossier, vous allez découvrir plusieurs similitudes extrêmement troublantes mises en lumière par différentes études scientifiques récentes…

L’IA peut réfléchir à ses erreurs pour s’améliorer

Une étude publiée en mars 2023 par des chercheurs de la Northeastern University et du Massachusetts Institute of Technology (MIT) révèle que les LLM (larges modèles de langage) sont capables d’apprendre de leurs propres erreurs… comme les humains !

Selon les auteurs de l’étude, apprendre aux IA à développer ce comportement pourrait leur permettre d’atteindre un nouveau stade dans la résolution de problèmes en toute autonomie.

Comme ils l’expliquent, « l’introspection permet aux humains de résoudre efficacement de nouveaux problèmes via un processus d’essai et d’erreurs ».

Leur proposition dénommée « Réflexion » est une approche consistant à doter un agent de mémoire dynamique et de capacités d’introspection pour améliorer ses capacités de choix d’action existantes.

Ce framework permettrait d’enseigner aux IA via les prompts, afin d’appliquer la technique de l’essai et l’erreur à leurs résultats. Tout comme les humains, elles peuvent donc réessayer encore et encore en cas d’échec.

Pour tester cette méthode, les chercheurs ont présenté à GPT-3 et GPT-3.5 des tâches de résolution de problèmes et lui ont demandé de les compléter. À chaque erreur, la technique de Reflexion a été utilisée en guise de prompt pour l’amener à trouver ses erreurs par lui-même.

D’après eux, ce processus aide le programme à évoluer à l’instar d’un humain. L’IA est alors capable de détecter ses propres hallucinations, d’éviter les répétitions dans les séquences d’action, ou encore de construire une carte de mémoire interne d’un environnement spécifique.

Ceci a permis au modèle d’augmenter considérablement son taux de réussite, et pourrait mener à une automatisation complète de l’IA…

Comme notre cerveau, l’IA a besoin de sommeil pour mémoriser

L’une des principales limites des IA actuelles est qu’elles ne peuvent maîtriser qu’une tâche, et oublient tout ce qu’elles savent dès qu’elles en apprennent une autre.

Contrairement aux humains capables d’accumuler des connaissances afin de pouvoir s’adapter et résoudre des problèmes tout au long de leur vie, l’intelligence artificielle est forcée de remplacer son savoir à chaque nouvel apprentissage.

Cependant, les chercheurs ont découvert qu’une forme de « sommeil artificiel » pourrait permettre d’empêcher ce phénomène de se produire.

Tout comme le fait de dormir nous aide à cimenter ce que nous avons appris pendant la journée, l’IA pourrait apprendre et se souvenir comment effectuer de multiples tâches en imitant ce comportement biologique.

Selon Maxim Bazhenov de l’Université de Californie à San Diego, « il y a actuellement une grande tendance à amener les idées de la neuroscience et de la biologie pour améliorer le machine learning, et le sommeil est l’une d’entre elles ».

Aux côtés d’une équipe de chercheurs, il a donc entraîné un réseau de neurones à apprendre deux tâches différentes sans avoir besoin d’écraser les connexions apprises à partir de la première tâche.

Pour accomplir cette prouesse, ils ont entrecoupé des périodes d’entraînement ciblées par des périodes similaires à du repos.

Afin de simuler le sommeil, ils ont activé les neurones artificiels du réseau dans un motif bruyant. Ils se sont aussi assurés que ce bruit corresponde aux patterns des neurones pendant les sessions d’entraînement.

C’est une façon de rejouer et de renforcer les connexions apprises des deux tâches. Un mécanisme qui n’est pas sans rappeler celui du rêve chez l’humain…

Le réseau a été entraîné sur la première tâche, puis sur la deuxième, puis plongé dans une période de sommeil. Toutefois, les scientifiques ont vite réalisé que cette séquence écrasait toujours les connexions apprises de la première tâche.

Les expériences suivantes ont démontré qu’il était important d’alterner rapidement les sessions d’entraînement et de sommeil pendant l’apprentissage de la seconde tâche. Ceci aide à consolider les connexions liées à la première tâche.

Au bout du compte, cette méthode s’est révélée efficace pour entraîner un agent à IA sur deux patterns différents comme la recherche de particules de nourriture simulées et l’évitement de particules empoisonnées.

L’objectif ? Permettre à l’IA de combiner différentes expériences de façon intelligente et d’appliquer son apprentissage à de nouvelles situations, à l’instar de l’humain et de l’animal…

L’IA révèle les secrets du cerveau humain

Les systèmes d’intelligence artificielle sont directement inspirés par le cerveau humain. Un réseau de neurones est composé de millions de nœuds de traitement aidant l’IA à apprendre lorsqu’elle est nourrie de données.

Les réseaux de type Transformer, inventés par Google en 2017 et à l’origine de la révolution des IA comme ChatGPT, se rapprochent encore plus du cerveau humain en tentant de prédire les mots suivants dans une phrase pour atteindre une réponse appropriée.

C’est le concept « d’attention », comparable à la façon dont votre cerveau complète une phrase lorsque vous n’entendez qu’une partie des mots. Voilà pourquoi les IA génératives modernes sont capables de répondre à vos questions.

Toutefois, l’IA peut aussi dévoiler le secret du fonctionnement du cerveau… et les clés permettant de l’améliorer.

Tel est le but d’un projet de recherche lancé par la Columbia University de New York en mai 2023, financé par les 20 millions de dollars versés par la National Science Foundation des États-Unis.

Selon Richard Zemel, professeur de sciences informatique à Columbia, l’ambition est de réunir les meilleurs chercheurs en IA et en neurosciences pour le plus grand bénéfice des machines et des humains.

Les équipes vont notamment tenter de comprendre le concept « d’apprentissage flexible robuste ». En effet, la plupart des IA actuelles peuvent uniquement maîtriser une tâche spécifique, tandis que le cerveau humain est beaucoup plus adaptable.

Néanmoins, les IA se montrent très douées pour développer des compétences linguistiques. Avec seulement un ou deux exemples, elles apprennent beaucoup plus rapidement que les humains. Et cette capacité pourrait nous aider à mieux comprendre comment entraîner le cerveau plus efficacement.

De même, l’apprentissage continu concerne la façon dont les humains et les IA peuvent oublier des informations et s’en souvenir. Troisième champ d’étude : le principe d’incertitude.

Beaucoup d’IA ne sont pas très habiles pour savoir si elles sont sûres d’une information ou devraient rester incertaines. Un défaut qu’elles partagent avec de nombreux humains…

Ces travaux de recherche pourraient aboutir à l’émergence de meilleures interfaces cerveau-machine, notamment pour permettre la création de prothèses assistées par IA pour aider les handicapés à se mouvoir.

L’intelligence artificielle peut apprend en imitant

Comme vous le savez sans doute, l’intelligence humaine repose fortement sur l’acquisition de connaissances auprès d’autres humains. C’est ce qui nous a permis d’accumuler du savoir au fil des générations et de l’évolution culturelle.

Cette transmission est liée à notre capacité à imiter les actions et les comportements de nos semblables en temps réel. Or, en décembre 2023, des chercheurs de DeepMind ont découvert que l’IA peut également apprendre de cette manière.

Auparavant, l’imitation learning ou apprentissage par imitation nécessitait de nombreux exemples et des volumes de données massifs pour copier un entraîneur humain avec succès.

La nouvelle approche de DeepMind permet aux agents IA d’imiter les mouvements corporels en temps réel sans utiliser de données pré-collectées.

Au sein d’un monde virtuel appelé GoalCycle3D, les chercheurs ont déployé des agents IA sachant déjà naviguer entre les obstacles de cette simulation, pour atteindre la destination.

Puis, d’autres agents sans connaissances ont été déployés et ont vite compris que la meilleure façon d’atteindre leur objectif était de suivre les experts et de les imiter.

Les scientifiques ont réalisé que l’IA apprenait plus vite en imitant, et qu’elle était capable d’appliquer le savoir ainsi acquis à d’autres chemins virtuels inconnus. De plus, les agents se sont même révélés capables d’utiliser ces nouvelles compétences en l’absence d’experts.

Il s’agit selon eux d’un exemple authentique d’apprentissage social digne de l’humain. Cette découverte pourrait jouer un rôle majeur dans le développement d’une IA générale…

En plus de réduire la quantité de ressources nécessaires pour l’entraînement de l’intelligence artificielle, cette approche pourrait permettre à l’IA d’acquérir les éléments sociaux et culturels de la pensée humaine. L’étude complète est publiée dans le journal Nature Communications à cette adresse.

Cette IA s’organise seule pour imiter le cerveau : les scientifiques très surpris

En novembre 2023, les scientifiques de l’Université de Cambridge au Royaume-Uni sont parvenus à créer une IA capable de s’organiser seule et d’utiliser les mêmes astuces que le cerveau humain pour accomplir des tâches spécifiques.

Le cerveau humain et les autres organes complexes se développent sous un ensemble de restrictions et de demandes entrant en compétition. Par exemple, notre réseau de neurones doit être optimisé pour le traitement d’informations sans pour autant utiliser trop d’énergie ou de ressources.

C’est précisément la raison pour laquelle le cerveau se structure afin de créer un système efficace capable de fonctionner en respectant ces contraintes physiques.

Comme l’explique Danyal Akarca de l’Université de Cambridge, l’un des principaux auteurs de l’étude, « les systèmes biologiques évoluent communément pour tirer le meilleur parti des ressources énergétiques à leur disposition, et les solutions qu’ils trouvent sont souvent très élégantes et reflètent les concessions entre les diverses forces qui leur sont imposées ».

En partant de ce constat, avec l’aide de la neuroscientifique Jascha Achterberg, les chercheurs et son équipe ont créé un système artificiel avec des contraintes physiques imposées dans le but de modéliser une version simplifiée du cerveau.

Plutôt que d’utiliser de véritables neurones liés entre eux, ils ont interconnecté des nœuds de calculs ayant chacun un emplacement spécifique au sein d’un espace virtuel. Le but ? Simuler la façon dont deux neurones éloignés ont plus de mal à communiquer.

Par la suite, il a été demandé au système de résoudre un labyrinthe. Une tâche exigeant de multiples inputs et traitements d’informations.

Cette simple contrainte a forcé l’IA à produire des caractéristiques compliquées. Or, ces caractéristiques se retrouvent également dans les systèmes biologiques comme notre cerveau.

Aux yeux du co-auteur Duncan Astle, professeur au Département de Psychiatrie de Cambridge, « cela nous dit quelque chose de fondamental sur la raison pour laquelle nos cerveaux sont organisés de cette façon ».

Les différentes caractéristiques décrites dans l’étude peuvent être séparées en deux catégories principales. Dans un cas, l’IA présente une structure interne similaire au cerveau humain avec des connexions entre les neurones semblables aux nôtres.

Dans le second cas, l’IA présente aussi des fonctions internes comparables à celle du cerveau. Les signaux créés par les neurones pour envoyer des informations à travers les connexions sont similaires aux signaux observés dans le cerveau.

À chaque fois, tout semble pensé pour une efficacité maximale dans le transfert des informations. L’étude pourrait donc contribuer au développement de systèmes IA plus efficaces.

C’est notamment le cas lorsque de larges volumes d’informations changeant constamment doivent être traités avec des ressources énergétiques limitées.

Les robots déployés dans le monde réel auront besoin de cerveaux similaires aux nôtres, car ils seront confrontés aux mêmes défis. Ils doivent constamment traiter les nouvelles informations provenant de leurs capteurs tout en contrôlant leurs corps pour bouger dans l’espace vers un objectif, avec un approvisionnement limité d’énergie électrique.

Cette découverte va non seulement permettre le développement de réseaux de neurones plus efficaces dans le domaine du Machine Learning, mais pourrait aussi permettre de mieux comprendre le cerveau humain.

Ces cerveaux artificiels permettent en effet d’effectuer des tests impossibles à mener sur un véritable cerveau. Il est possible de leur imposer diverses contraintes pour vérifier si l’IA s’apparente davantage aux cerveaux de certains individus.

L’équipe espère que son IA sera développée pour mettre en lumière la façon dont les contraintes spécifiques contribuent aux différentes entre les cerveaux humains, notamment celles des personnes atteintes de difficultés cognitives ou de troubles de santé mentale…

Les chercheurs à l’origine de ces travaux se disent eux-mêmes « très surpris » par les résultats. L’étude complète est publiée dans le journal Nature Machine Intelligence à cette adresse !

Brainoware : le premier ordinateur doté d’un vrai cerveau

Les scientifiques de l’Indiana University Bloomington ont créé un réseau de neurones organoïde (ONN) reposant sur organoïdes de cerveau connecté à des réseaux de microélectrodes.

Directement inspiré du cerveau, ce nouveau type d’ordinateur a été baptisé « Brainoware ». Il pourrait permettre de surmonter les limites actuelles du hardware IA comme la consommation d’énergie et la production de chaleur grâce à des solutions naturelles.

Le principal auteur de l’étude, Hongwei Cai, et ses collègues voulaient trouver une façon biologique de résoudre le problème du « reservoir computing » : une façon unique de traiter et d’apprendre les données séquentielles et temporelles complexes.

Il permet l’extraction des patterns et des relations à partir des séquences temporelles, et assure un entraînement rapide tout en mettant l’accent sur l’efficacité énergétique. Ceci en fait une solution viable pour l’environnement.

Cette approche a démontré des résultats prometteurs pour diverses applications comme les prédictions de séries temporelles, la reconnaissance de discours, la modélisation de langage et l’adressage de systèmes dynamiques non-linéaires complexes.

Son architecture unique et sa méthodologie d’entraînement offrent une alternative innovante pour gérer efficacement les données. C’est ce qui en fait un outil précieux pour le Machine Learning et l’IA, notamment la reconnaissance de discours.

Par ailleurs, le Brainoware pourrait offrir la complexité et la diversité nécessaire pour enfin permettre à l’IA d’égaler le cerveau humain et de s’en rapprocher.

Ce système n’est pas encore prêt pour remplacer nos ordinateurs classiques, car il dépend d’incubateurs et de technicien en culture cellulaire. Toutefois, cette technologie d’avenir pourrait être le futur de l’informatique…

L’étude complète « Brain organoid reservoir computing for artificial intelligence » a été publiée dans Nature Electronics à cette adresse.

Quand l’architecture du cerveau inspire le Deep Learning

cerveau ia deep learning

Une étude publiée par l’Université Bar-Ilan d’Israël en janvier 2024 a secoué le monde de l’intelligence artificielle. Elle semble démontrer que l’architecture du cerveau peut rivaliser avec les performances des modèles Deep Learning, malgré sa superficialité.

Publiés dans le journal Physica A, ces travaux se penchent sur le contraste intrigant entre la structure simple du cerveau et les architectures complexes à multiples couches des systèmes IA modernes.

En comparant les deux, les chercheurs dirigés par le professeur Ido Kanter ont découvert que le cerveau peut prendre en charge des tâches complexes malgré cette architecture peu profonde.

Cette révélation pourrait provoquer un grand changement dans la façon dont l’IA est abordée. De même, le design actuel des GPU qui favorisent la profondeur au détriment des architectures larges pourrait être révisé.

En réalité, les architectures plus larges et plus hautes représentent deux mécanismes complémentaires. Pour que les mécanismes d’apprentissage du cerveau puissent être imités par l’IA, les propriétés des GPU devraient être modifiées pour imiter la dynamique du cerveau…

IA et cerveau : à quel point sont-ils vraiment similaires ?

À mesure que l’IA continue à se développer, face aux similitudes observées avec le cerveau, une question se pose : sera-t-il un jour possible de répliquer artificiellement la complexité et les capacités du cerveau humain ?

Une différence fondamentale entre les deux concerne la puissance de calcul. Les systèmes IA comme les réseaux de Deep Learning peuvent effectuer des calculs complexes à une vitesse fulgurante, et surpassent l’humain dans des domaines comme l’analyse de données, la reconnaissance de patterns ou le calcul.

Le parallélisme des algorithmes IA leur confère suffisamment de puissance pour traiter de vastes volumes de données instantanément. C’est leur grand point fort.

De son côté, le cerveau humain opère via un réseau de neurones interconnectés qui traite les informations d’une façon séquentielle. Son efficacité réside dans le traitement holistique de l’information et l’intégration de divers inputs sensoriels et d’émotions.

En termes de mécanismes d’apprentissage, l’IA repose principalement sur les données. Elle a besoin de vastes volumes de données étiquetées pour entraîner les modèles, afin d’améliorer leurs performances au fil des itérations.

C’est ce processus d’apprentissage supervisé qui lui permet de reconnaître les patterns et d’effectuer des prédictions. En comparaison, le processus d’apprentissage de notre cerveau est beaucoup plus complexe.

Il englobe des capacités innées, de l’apprentissage par l’expérience, et des interactions sociales. Nous sommes particulièrement doués pour apprendre avec peu de données, généraliser nos connaissances dans divers domaines, et nous adapter aux nouvelles situations.

Une autre différence majeure avec l’IA est notre conscience. Les IA actuelles exécutent des tâches spécifiques sans état émotionnel. Répliquer ce phénomène complexe demeure un vrai défi à l’heure actuelle.

En outre, le cerveau ne consomme qu’environ 20 watts d’énergie pour fonctionner. C’est un réel atout par rapport aux IA qui consomment des quantités colossales d’électricité et de puissance de calcul.

Toutefois, comme nous l’avons souligné à travers ce dossier, les chercheurs parviennent peu à peu à refermer le fossé qui sépare les intelligences humaines et artificielles. Dans un avenir de moins en moins lointain, une IA capable de rivaliser avec l’humain sur tous les points pourrait voir le jour…

Inévitablement, une question se pose : sommes-nous en réalité des robots issus d’une technologie largement supérieure à la nôtre ? Sommes-nous en train de reproduire peu à peu le processus qui a mené au développement de cette technologie ? Et surtout, qui en est vraiment le créateur original…Ces interrogations font écho à la passionnante théorie du simulateur, que nous vous invitons à découvrir dans la vidéo ci-dessous.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *