La technologie de vidéosurveillance par intelligence artificielle mise en place durant les JO de Paris en 2024 pourrait être étendue à toute la France de façon permanente après l’événement. C’est ce que vient de laisser échapper la Ministre des Sports…
Du 26 juillet au 11 août 2024, Paris accueillera les Jeux olympiques ! Une aubaine pour les propriétaires qui vont pouvoir louer leurs logements et gagner des milliers d’euros, mais aussi une grave menace pour la sécurité nationale.
Afin de sécuriser les stades et leurs environs, la France a décidé de déployer les grands moyens. Pour la première fois, une vidéosurveillance IA va être mise en place.
Les flux vidéo des caméras de vidéosurveillance seront raccordés à des algorithmes pour traiter et analyser les images en temps réel. Le but ? Détecter les événements à risque pouvant présenter un risque pour permettre aux autorités d’intervenir sur le champ.
Outre les caméras, des drones pourront aussi être déployés dans les airs pour surveiller la foule si la situation l’exige. Le dispositif sera donc très complet.
Le gouvernement promet de ne pas utiliser la reconnaissance faciale
Néanmoins, le gouvernement promet de ne pas utiliser la reconnaissance faciale pour identifier les personnes filmées. L’IA servira seulement à cerner les situations inhabituelles et les anomalies.
L’objectif est d’éviter le risque d’une utilisation détournée. C’est pourquoi le décret fixe une interdiction d’emploi à des fins d’identification des personnes.
L’article 2 interdit toute mise en œuvre de reconnaissance faciale, de manipulation des données biométriques ou de croisement avec d’autres données. Les outils ne pourront pas non plus fonder de décision individuelle ou d’acte de poursuite par eux-mêmes.
Quels seront les événements suspects surveillés par l’IA ?
Le texte de loi a été adopté fin mai 2023 par le Parlement et publié au Journal officiel fin août 2023. Ceci permet de mieux comprendre quel type de situations les autorités comptent surveiller.
Il s’agit de la présence d’objets abandonnés ou d’armes, le non-respect du sens de circulation, le franchissement d’une zone interdite, la chute d’une personne, les mouvements de foule et les départs de feu.
Ces différentes catégories d’événements ont été sélectionnées « en ce qu’ils sont susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes ».
Des restrictions saluées par la CNIL
La CNIL a salué cette restriction à huit types d’événements prédéterminés : « aucun traitement algorithmique ne pourra être conçu, acquis par l’État ou mis en œuvre en phase d’exploitation pour détecter d’autres événements que ceux qui y sont énumérés ».
De plus, les IA se contenteront de signaler les scènes suspectes. Ce sont des agents humains qui seront ensuite chargés de visionner les images pour confirmer le signalement ou lever le doute.
La police, la gendarmerie, les services d’incendie et de secours, ou encore les unités de protection de la SNCF et de la RATP pourront également bénéficier de l’analyse de ces images.
Ils recevront toutefois une formation sur la protection des données personnelles et sur l’utilisation du système…
Une technologie déployée partout en France après un test aux JO ?
https://twitter.com/GillesWell/status/1706575167961346545
Comme l’a suggéré la ministre des Sports Amélie Oudéa-Castéra lors d’un entretien accordé à France 3, le dispositif de vidéosurveillance IA pourrait être déployé dans toute la France après les JO.
En réalité, cet événement sportif va servir de test. Le gouvernement devra remettre un rapport d’évaluation avant le 31 décembre 2024. Son contenu sera déterminé en Conseil d’État et après avis de la CNIL.
Par la suite, l’expérimentation sera étendue jusqu’au 31 mars 2025. En fonction des résultats, il est possible que ce dispositif soit mis en place partout dans le pays d’une façon permanente…
Un dispositif critiqué par les défenseurs de la vie privée
Malgré les restrictions sur la reconnaissance faciale et le nombre limité d’événements surveillés, les défenseurs de la vie privée dénoncent ce dispositif de vidéosurveillance jugé intrusif et dangereux.
Selon Noémie Levain, chargée d’analyses juridiques et politiques pour La Quadrature du Net, « derrière cet outil, il y a une vision politique de l’espace public, de vouloir contrôler ce qui s’y passe ».
Comme elle l’explique, « Un groupe qui se forme, cela peut être une manifestation comme un groupe d’amis. Il y a des considérations morales et politiques dans la conception même de ces outils et qui, pour nous, sont dangereuses. Tout outil de surveillance est une source de contrôle et de répression pour la police et pour l’État ».
Elle pointe aussi du doigt le fonctionnement des algorithmes basés sur le Deep Learning et les réseaux de neurones : « c’est un certain type d’apprentissage statistique si complexe que l’humain ne peut pas comprendre toutes les étapes du raisonnement. Ces algorithmes vont utiliser des données personnelles et biométriques pour identifier les situations sans qu’on puisse exactement savoir lesquelles sont utilisées ».
En plus de cette opacité, l’IA confère un immense pouvoir aux autorités : « On donne à la police un énorme pouvoir qu’elle n’avait pas auparavant, celui d’être omnisciente, de voir ce qu’elle ne voyait pas jusqu’ici et de décider ce qui est suspect »…
De même, l’avocate spécialisée dans le droit de la protection des données personnelles Hélène Lebon estime que la durée de conservation des images fixées à douze mois est bien trop longue. En temps normal, les images filmées par des caméras sur la voie publique ne peuvent être gardées plus d’un mois.Elle redoute notamment un piratage et une fuite sur le Dark Web.
Et malgré l’interdiction de la reconnaissance faciale, Noémie Levain rappelle que ces caméras en ont la capacité. Il suffira selon elle d’un nouveau feu vert législatif pour passer à cette prochaine étape…
- Partager l'article :