Accueil > Intelligence artificielle > Intelligence artificielle : 7 technologies à connaître impérativement
intelligence artificielle 7 technologies

Intelligence artificielle : 7 technologies à connaître impérativement

L’intelligence artificielle repose sur une large variété de technologies et d’outils différents. Découvrez sept des principales technologies au coeur de l’IA.

L’intelligence artificielle : une technologie révolutionnaire, de plus en plus utilisée par les entreprises de tous les secteurs, en passe de bouleverser toutes nos habitudes. Toutefois, en réalité, l’IA est un terme qui englobe une large variété de technologies. Découvrez 7 d’entre elles, à connaître absolument pour se préparer à l’avenir.

Le Machine Learning

Le Machine Learning permet d’automatiser le processus de création d’algorithmes, en utilisant des données pour les entrainer plutôt que de laisser les développeurs humains rédiger du code. À l’aide des données, il est possible de montrer l’exemple aux algorithmes pour leur enseigner comment effectuer une tâche.

Par exemple, il est possible d’utiliser le Machine Learning pour apprendre à un algorithme à reconnaitre un chat. Pour ce faire, on le nourrit à l’aide de photos de chats afin qu’il apprenne à les reconnaître sous tous les angles et dans toutes les situations.

Le Machine Learning est aujourd’hui utilisé pour une très large variété de cas d’usage différents. Il est notamment utilisé dans les domaines de la sécurité des données, de la sécurité personnelle, du trading financier, de la santé, du marketing, de la détection de fraude, de la recherche en ligne, des voitures autonomes et des moteurs de recommandation.

Le Deep Learning

Le Deep Learning reprend le principe du Machine Learning, mais va plus loin en créant plusieurs couches de Machine Learning après le premier point de décision. C’est ce qu’on appelle un réseau de neurones artificiels.

Ce réseau a pour but de simuler la façon dont le cerveau humain opère. Ainsi, les décisions prises par la première couche de Machine Learning servent d’input pour les décisions suivantes.

Le traitement naturel du langage

Le traitement naturel du langage a pour but de permettre aux machines de comprendre le langage humain. C’est cette technologie d’intelligence artificielle qui a permis de donner naissance à des assistants numériques comme Amazon Alexa, Microsoft Cortana, Google Assistant ou Apple Siri.

Il s’agit d’une technologie essentielle pour l’analyse de données non structurées telles que les enregistrements de santé électroniques, les emails, les messages textuels, les transcriptions ou encore les publications sur les réseaux sociaux. En bref, le Naturel Langage Processing permet d’analyser n’importe quel contenu comprenant du langage humain.

La vision par ordinateur ou Computer Vision

La vision par ordinateur permet aux machines de reconnaître les images à la manière des humains. Ainsi, plutôt que de ne percevoir qu’un amas de pixels, les ordinateurs peuvent désormais comprendre ce que ces pixels représentent.

Cette technologie de Computer Vision est particulièrement utilisée à l’heure actuelle à des fins de reconnaissance faciale. Les caméras de sécurité modernes sont par exemple capables d’analyser les images qu’elles capturent afin d’identifier les personnes filmées. Pour ce faire, elles comparent leurs visages à des cartographies de visages et à des images étiquetées. De même, les smartphones modernes utilisent la Computer Vision pour identifier leur propriétaire avant de se déverrouiller.

Cette technologie a beaucoup évolué au fil des dernières années, et son implémentation s’est fortement simplifiée. Ceci est lié au lancement d’outils tels que Microsoft Face API ou AWS Amazon Rekognition qui y facilitent l’accès.

Cependant, la reconnaissance faciale et la vision par ordinateur sont aussi source d’angoisses pour de nombreux experts. La CNIL s’alarme par exemple, au même titre que Amazon et Microsoft qui appellent tous deux à une régulation de l’usage de ces technologies…

TensorFlow et Keras

TensorFlow est une plateforme open source pour le Machine Learning, initialement créée par Google en vue d’un usage interne. Elle fonctionne avec un large écosystème d’outils, bibliothèques et ressources communes pour aider les entreprises à créer et à déployer plus facilement et rapidement les applications reposant sur le Machine Learning.

Pour ce faire, elle prend en charge des APIs de haut niveau telles que Keras. Il s’agit d’une API de réseaux de neurones de haut niveau, écrite en Python et pouvant être exécuté par déçus Tensorflow, Microsoft CNTK ou encore Theano.

Jupyter Notebook

Le Project Jupyter tire son nom des trois langages de programmation qu’il prend en charge : Julia, Python et R. Il s’agit d’un environnement interactif pour les Data Scientists et les développeurs de Machine Learning basé sur navigateur web.

Il permet de créer ou de partager des documents contenant du code live, des équations, des visualisation et du texte. Le Jupyter Notebook peut être utilisé pour le Data Cleansing ou la transformation de données, la simulation numérique, la modélisation statistique, la visualisation de données, ou encore le Machine Learning et bien plus encore.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend