Navigation : IREDIC / 2022 / septembre / 13 / Le refus par le Parlement européen de l’utilisation par la police de la reconnaissance faciale

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2022 / septembre / 13 / Le refus par le Parlement européen de l’utilisation par la police de la reconnaissance faciale

Le refus par le Parlement européen de l’utilisation par la police de la reconnaissance faciale

Publié par Gardelle Charlotte le 13 septembre 2022 dans Internet / Numérique : Actualités | Consulté 51 Fois

Ce 6 octobre, le Parlement européen a publié un communiqué de presse révélant le vote par les eurodéputés d’une résolution visant à adopter des garanties supplémentaires avant d’autoriser l’usage par la police des systèmes de reconnaissance faciale. Ce moratoire sur le déploiement des systèmes de reconnaissance faciale par les forces de l’ordre se justifie au prisme des risques d’atteinte significative à la vie privée des individus. Ainsi, les eurodéputés demandent que « toute utilisation de l’intelligence artificielle incompatible avec les droits fondamentaux soit interdite ». L’avenir de la reconnaissance faciale dans le domaine policier et judiciaire demeure donc incertain notamment en considération de la difficile acceptation sociale de cette technologie.

 

La nécessité d’éviter une surveillance de masse attentatoire aux droits des individus et potentiellement discriminatoires

 

L’IA souhaite intégrer progressivement tous les secteurs, dont celui de la police et de la justice.

 

La commission des libertés civiles, de la justice et des affaires intérieures a adopté un rapport sur l’intelligence artificielle (IA) en droit pénal et son utilisation par les autorités policières et judiciaires fait craindre de nombreux risques.

Tout d’abord, l’usage de la reconnaissance faciale conduit à une atteinte à la vie privée dans la mesure où cette technique « permet à partir des traits du visage, soit d’authentifier une personne, c’est-à-dire de vérifier qu’une personne est bien celle qu’elle prétend être, soit d’identifier une personne, c’est-à-dire de retrouver une personne au sein d’un groupe d’individus, dans un lieu ou une base de données ». Cette captation du visage constitue une atteinte profonde à la vie privée des individus dans la mesure où ces dispositifs sont en capacité d’effectuer une identification en temps réel conduisant à une surveillance de masse.

De plus, les systèmes de reconnaissance faciale commettent de nombreuses erreurs d’identification vis-à-vis des groupes ethniques minoritaires, des personnes LGBTI, des personnes âgées et des femmes. Certaines de ces technologies fondées sur des algorithmes sont de nature à créer des discriminations et des inégalités selon la commission nécessitant de prendre des mesures pour éviter toutes formes de catégorisation automatisée. En ce sens, la majorité du Parlement européen souhaite que les résultats obtenus par les systèmes soient vérifiés et ne soient pas perçus comme un élément intangible.

Enfin, l’usage des systèmes de reconnaissance faciale par la justice et la police exige d’adopter des garanties préalables notamment compte tenu de l’opacité dans la prise de décision et au regard de la réglementation en matière de traitement des données personnelles. En effet, les traits du visage captés, traités et comparés dans le cadre de la reconnaissance faciale correspondent à des données biométriques considérées comme des données sensibles. En ce sens, les algorithmes et différentes bases de données devront être conformes à la réglementation dès l’origine et offrir un niveau de sécurité renforcé en considération des risques accrus de fuite de ces données captées dans le cadre d’une surveillance de masse. Ainsi, le respect des exigences du RGPD au sein de ces algorithmes corrélés à un contrôle humain constitue les conditions minimales pour éviter une atteinte aux droits des individus. La prise en compte au sein d’un corpus normatif semble alors être un véritable défi pour les institutions européennes notamment au regard de la crainte de la part des citoyens de constater l’instauration d’une justice prédictive.

 

Un tel dispositif fait craindre l’instauration d’une justice prédictive

 

La crainte de l’instauration d’une justice prédictive dans le cadre de l’utilisation de la reconnaissance faciale par la police ne repose pas sur le fait qu’une décision juridique pourrait être potentiellement optimisée selon une analyse fournie par un algorithme mais sur le fait qu’elle pourrait se fonder sur des données comportementales. Cette défiance est légitime puisque selon cette forme de justice prédictive, une procédure pénale ou judiciaire pourrait être admise sur le fondement de données comportementales ou d’une notation des individus au moyen de l’IA. Une telle pratique conduirait à porter atteinte à la présomption d’innocence, aux droits fondamentaux à la liberté et à la sûreté de la personne ainsi que priver un individu de son droit à un recours effectif et à un procès équitable. Ces éléments mis en lumière par le rapport de la commission susmentionnée ont pour but de prévenir toute atteinte future au regard de l’incidence significative que ce dispositif aurait sur la vie des personnes concernées. Les eurodéputés conscients du danger lié à cet instrument ont interdit par principe toute notation à grande échelle des individus au moyen de l’IA et invite également la commission à interdire de façon pérenne la reconnaissance faciale des individus dans les espaces publics. Une seule exception à ce principe a été envisagée, lorsque la personne est soupçonnée d’avoir commis un crime. Néanmoins, même dans ce cadre-là, un contrôle par la justice étatique de la proportionnalité des moyens utilisés doit être mis en œuvre afin de prévenir tout abus. La majorité du Parlement européen est attachée à bannir la justice prédictive comme en témoigne le texte adopté par cette dernière qui précise que « les décisions finales doivent toujours être prises par un être humain et les personnes soumises à des systèmes alimentés par l’IA doivent disposer de voies de recours ».

 

Les controverses autour de bases de données privées de reconnaissance faciale

 

La défiance sociale et politique de l’utilisation de la reconnaissance faciale à des fins pénales et judiciaires s’explique également par le fait que les bases de données à l’origine du traitement des données biométriques appartiennent à des entreprises privées, américaines ou chinoises. Une des entreprises qui est à l’origine de recherches reposant sur une technologie de reconnaissance d’images à des fins de recherches des auteurs d’infractions, Clearview AI, fait l’objet de nombreuses controverses. Elle justifie, avec l’outil qu’elle a développé et l’utilisation qui en fait l’ensemble des craintes formulées auparavant. En effet, cette société a collecté des milliards d’images de personnes sur internet pour mettre au point son système de reconnaissance faciale dans le but de le vendre à des services de police, notamment aux Etats-Unis. Selon un article paru dans le New York Times, la société Clearview AI fait correspondre les visages à des images captées en outre sur Facebook, sur Youtube ou sur une base de données privées. La technologie développée va tellement loin que selon un sergent de police rencontré par la journaliste Kashmir Hill lors de son investigation “avec Clearview AI, vous pouvez utiliser des photos qui ne sont pas parfaites”, “une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Ce dernier serait aujourd’hui utilisé par environ 600 services de police américains et aurait déjà aidé à résoudre des cas de vol, de fraude par carte d’identité mais aussi de meurtre et d’exploitation sexuelle d’enfants. Sauf que le taux d’exactitude des identifications réalisées par cet instrument ne serait que de 75% et il n’a jamais fait l’objet d’une étude par un organisme indépendant. Il reste donc opaque quant à sa légitimité et sa fiabilité amenant à une grande prudence malgré son déploiement croissant sur le territoire canadien et américain.

 

Si le Parlement européen, lors de cette résolution, a formulé des avertissements, recommandations et interdictions, il demeure que celles-ci n’ont aucune force législative et visent uniquement à inspirer la Commission européenne afin que celle-ci adopte une réglementation uniforme et protectrice au sein de l’Union européenne, visant à limiter et mettre en conformité les systèmes d’IA à haut risque. Cette position du Parlement européen intervient dans un contexte de réflexion d’encadrement juridique de l’IA au sein des institutions européennes puisque la commission a publié sa proposition de règlement établissant des règles harmonisées sur l’IA le 21 avril dernier.

 

Sources :

Castets-Renard (C.), Quelle politique européenne de l’intelligence artificielle, RTD eur., n°02, 31/07/2021, p297

Crichton (C.), Projet de règlement sur l’IA (II) : une approche fondée sur les risques, Dalloz actualité, IP/IT, 4 mai 2021

Hill (K.), The secretive compagny that might end privacy as we know it, The New York Times, 18 janvier 2020

Prieur (S.), Reconnaissance faciale et droit(s) : où en est la protection de la personne ? Gaz.Pal., 26 févr. 2019, n°342f5, p.13

Vitard (A.), Malgré les poursuites, le spécialiste de la reconnaissance faciale lève 30 millions de dollars, Usine digitale, 22/07/2021

Communiqué de presse du Parlement européen, Utilisation de l’intelligence artificielle par les forces de polices : les députés contre la surveillance de masse, 06/10/2021

Rapport déposé de la commission, L’intelligence artificielle en droit pénal et son utilisateur par les autorités policières et judiciaires dans les affaires pénales, 13/07/2021

Texte adopté du Parlement, L’intelligence artificielle en droit pénal et son utilisateur par les autorités policières et judiciaires dans les affaires pénales, 6/10/2021

Publié dans Internet / Numérique : Actualités | Tag(s) : bases de données, intelligence artificielle, Police, reconnaissance faciale, surveillance de masse, Union européenne (UE)

Rechercher une publication

Catégories

Travaux récents

  • Missing image

    Les enjeux juridiques du sampling en droit d’auteur : à la recherche d’un équilibre entre création musicale et protection des oeuvres originales

    5 mai 2025 / Solene SOLENE
  • Missing image

    Le DATA ACT, un règlement en faveur d’une exploitation des données industrielles

    5 mai 2025 / KBBLUM-GROSS Kim
  • Missing image

    Publication du rapport du Conseil supérieur de la propriété littéraire et artistique relatif à la condition de transparence des données d’entrainement des intelligences artificielles

    5 mai 2025 / Augustin RENAUX
  • La difficulté d’interprétation de la loi LANG relative au prix du livre unique

    5 mai 2025 / Capucine PINEAU-CHEVALIER
  • LA DOUBLE PEINE : LES DANGERS DU PROCÈS MÉDIATIQUE

    5 mai 2025 / Lou Dagnac

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.J'ACCEPTE