La ville de Paris accueillera l’année prochaine les Jeux Olympiques et Paralympiques d’été 2024. Dès lors, face aux débordements s’étant produits au sein du Stade de France, au printemps 2022, à l’occasion de la finale de la Ligue des champions (spectateurs sans billets escaladant les grilles, familles aspergées de gaz lacrymogène, vols et agressions…), la question de la mise en place d’un système de sécurité pour cet évènement de grande ampleur s’est imposée au cœur du débat.
En ce sens, le projet de loi relatif aux Jeux Olympiques et Paralympiques de 2024 a alors été examiné en séance publique, le mardi 24 janvier au Sénat.
Finalement, les sénateurs de droite et du centre ont très largement voté en faveur d’une expérimentation de la vidéoprotection par le biais de caméras de surveillance dites « augmentées » à compter de l’année 2023.
Face à l’adoption de ce nouveau dispositif de vidéoprotection prévu à l’article 7 du projet de loi par 243 voix pour et 27 contre, la CNIL parle alors d’un « tournant qui va contribuer à définir le rôle général qui sera attribué à ces technologies, et plus largement à l’intelligence artificielle ».
L’objectif étant, selon la ministre des sports, Amélie Oudéa-Castéra, de parvenir aux « ajustements incontournables pour aller au bout [des] engagements et [des] besoins opérationnels pour la livraison et le bon déroulement des JO ».
Il a ainsi été jugé nécessaire, afin d’encadrer la venue de plus de 13 millions de spectateurs, de recourir à l’intelligence artificielle ou plus précisément à « des algorithmes constitués de logiciels de traitements automatisés couplés à des caméras ». Ces dispositifs permettront alors la détection et le signalement en temps réel, de tout comportement ou évènement jugé comme étant « anormal », ainsi que les « situations présumant la commission d’infractions » aux services de police et de gendarmerie.
Cela inclut alors les potentiels mouvements de foule ou attroupements suspects, à la fois aux abords des enceintes, mais aussi dans les gares et les transports. L’étude d’impact de cette loi précise par ailleurs que l’aide de ces caméras permettra également la détection « d’objets abandonnés », tout comme la réalisation « d’analyses statistiques de flux de fréquentation par exemple ».
Dès lors, la mise en place de ces dispositifs poursuit une finalité de renforcement de la sécurisation des manifestations sportives, culturelles ou récréatives. Néanmoins, pour beaucoup le choix de la vidéosurveillance augmentée, sous couvert de l’organisation d’un évènement tel que les Jeux Olympiques, n’est pas légitime au regard des atteintes manifestes aux droits et libertés fondamentaux, et pousse ainsi à de nombreux débats et oppositions.
Qu’est-ce que la vidéosurveillance intelligente ?
La vidéosurveillance intelligente, aussi dénommée surveillance augmentée ou algorithmique, diffère des systèmes de vidéosurveillance dits traditionnels en ce que cette technologie repose sur l’autonomisation d’un travail d’analyse d’images de vidéosurveillance.
De fait, la technologie du machine learning est utilisée, et donne ainsi à voir à l’algorithme une multitude de données composées d’images d’une situation voulant être repérée, afin que celui-ci puisse ensuite apprendre à la reconnaitre. Avec cet entrainement, l’algorithme parviendra alors à extraire seul les caractéristiques les plus essentielles de ces images, afin de les appliquer à d’autres images qu’il ne connait pas.
Comme précisé plus haut, les caméras augmentées vont alors avoir la capacité de comptabiliser de façon automatique le nombre de personnes dans un lieu mais aussi d’analyser leurs caractéristiques (vêtements, masque…) ou encore de détecter certains comportements.
Quid du cadre juridique applicable à la vidéosurveillance intelligente ?
L’article 4 du RGPD ainsi que la directive du 27 avril 2016 dite « police-justice » prévoient que l’application d’algorithmes sur des images issues de la vidéoprotection ou de caméras installées sur des aéronefs, désigne une opération réalisée « à l’aide de procédés automatisés et appliquée à des données ou ensembles de données à caractère personnel, tant s’agissant des données captées en temps réel par le système que de celles qui sont nécessaires à son entrainement en amont de sa mise en service ».
Ainsi, ce procédé revêt en lui-même la qualité de traitement de données à caractère personnel, et se distingue nécessairement du traitement constitué par la collecte des images provenant de la vidéoprotection ou des caméras installées sur des aéronefs. A ce titre, la SNCF utilise déjà de tels algorithmes, ces derniers ayant été expérimentés, après un avis favorable de la CNIL.
De fait, cette dernière précisait dans le cadre de sa position du 19 juillet 2022, publiée après la réalisation d’une consultation publique sur le déploiement de caméras « augmentées » dans les espaces publics, que « lorsque les caméras augmentées sont utilisées pour produire des statistiques, constituées de données anonymes et n’ayant pas de vocation immédiatement opérationnelle, elles peuvent d’ores et déjà être déployées sans encadrement spécifique ».
Néanmoins, s’agissant du déploiement de l’IA sur des vidéos captées par les autorités publiques, il n’existe aujourd’hui toujours pas de cadre juridique défini.
Cependant, dès que cette technologie doit avoir recours à des données à caractère personnel, le cadre juridique applicable est celui de la protection des données à caractère personnel, relevant de la loi Informatique et Libertés (LIL) du 06 janvier 1978, ainsi que du RGPD.
Une prévention accrue de la CNIL quant aux dispositifs de vidéosurveillance augmentés
Toujours dans le cadre de sa position du 19 juillet 2022, la CNIL estime que « la loi française n’autorise pas l’usage, par la puissance publique, des caméras “augmentées” pour la détection et de poursuite d’infractions, qu’il s’agisse de dispositifs dédiés ou couplés à des caméras de vidéoprotection préexistantes ».
Celle-ci précisait ensuite plus spécifiquement que « les dispositifs qui sont visés ici ont pour objet de permettre aux services de police et de gendarmerie de détecter des comportements considérés comme « “suspects” ».
Enfin, il est souligné que si « l’efficacité de ces caméras augmentées était prouvée et leur utilisation nécessaire, celle-ci devrait être autorisée par une loi spécifique qui, à l’issue d’un débat démocratique fixerait des cas d’usages précis avec des garanties au bénéfice des personnes ».
Tel est donc le cas de figure s’agissant des dispositifs de vidéosurveillance intelligents visant à être mis en place dans le cadre des Jeux Olympiques 2024.
Globalement, la CNIL alarme sur le fait que le déploiement de tels dispositifs au sein de l’espace public présente des « risques nouveaux pour la vie privée », s’agissant notamment du risque d’une collecte massive de données personnelles par ces outils d’analyse d’images, mais aussi du fait que la surveillance soit automatisée en temps réel.
Dès lors, l’autorité explique qu’une « généralisation non maitrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisée […] susceptible de modifier les comportements des personnes ».
Le choix fortement débattu de la vidéosurveillance intelligente
Après autorisation de la mise en place de la vidéoprotection par intelligence artificielle prévue à l’article 7 du projet de loi, le risque de surveillance et d’analyse généralisée avancé par la CNIL a été pointé du doigt par beaucoup.
En ce sens, les membres de la gauche et des écologistes s’opposent fermement au recours à de tels dispositifs qu’ils estiment trop dangereux pour les droits et libertés fondamentaux. Ceux-ci reprochent même au Gouvernement de « profiter des Jeux Olympiques » afin de se diriger vers une « société de surveillance ».
Aussi, le fait que l’expérimentation de la vidéosurveillance algorithmique soit prévue jusqu’en juin 2025 alors que la fin des Jeux Olympiques de 2024 est annoncée pour le 11 août 2024, est également ardemment critiqué et pose des questions de transparence sur la mise en place de ces dispositifs.
Aujourd’hui, la gauche parle même d’un nouveau « Big Brother », célèbre personnage du roman de science-fiction 1984 de George Orwell qui observait le respect des règles extrêmement strictes imposées aux citoyens, et par conséquent, leur vie privée par le biais d’un système de vidéosurveillance.
Le sénateur écologiste Thomas Dossus parle lui d’un « cheval de Troie législatif visant à nous faire passer un cap dans la surveillance globale, les Jeux Olympiques et Paralympiques ne sont qu’un prétexte pour jouer aux apprentis sorciers avec les algorithmes. ».
Celui-ci met également l’accent sur le fait qu’il s’agisse de « technologies absolument pas matures » et dont la fiabilité a pu être questionnée, notamment face aux évènements s’étant récemment produits à Séoul en Corée du Sud. Il s’agirait alors, selon lui, d’une « loi d’exception qui met un coup de canif supplémentaire à nos libertés publiques ».
De même que Pierre Ouzoulias, sénateur communiste, alarmait sur ce choix en soulignant : « La surveillance à la chinoise, ce n’est vraiment pas notre tasse de thé. Et si on met le doigt dedans, on ne sait pas où on s’arrête »,
Mais alors que certains critiquent ce choix pour son aspect liberticide, d’autres le critiquent car il ne serait pas assez protecteur. Par exemple, le sénateur Marc-Philippe Dauberesse exprimait en ce sens que « nous prenons un risque majeur en n’utilisant pas la reconnaissance faciale, le risque d’attentat est patent pour cet évènement sportif majeur ». Celui-ci a alors annoncé vouloir déposer un projet de loi à ce sujet.
Le débat reste donc en suspens. Un vote solennel doit être organisé le 31 janvier 2023 et le texte devra également être examiné par l’Assemblée Nationale. In fine, la CNIL devra également se prononcer sur le décret d’application de la loi.
SOURCES
https://www.senat.fr/leg/etudes-impact/pjl22-220-ei/pjl22-220-ei.html