Ce 6 octobre, le Parlement européen a publié un communiqué de presse révélant le vote par les eurodéputés d’une résolution visant à adopter des garanties supplémentaires avant d’autoriser l’usage par la police des systèmes de reconnaissance faciale. Ce moratoire sur le déploiement des systèmes de reconnaissance faciale par les forces de l’ordre se justifie au prisme des risques d’atteinte significative à la vie privée des individus. Ainsi, les eurodéputés demandent que « toute utilisation de l’intelligence artificielle incompatible avec les droits fondamentaux soit interdite ». L’avenir de la reconnaissance faciale dans le domaine policier et judiciaire demeure donc incertain notamment en considération de la difficile acceptation sociale de cette technologie.
La nécessité d’éviter une surveillance de masse attentatoire aux droits des individus et potentiellement discriminatoires
La commission des libertés civiles, de la justice et des affaires intérieures a adopté un rapport sur l’intelligence artificielle (IA) en droit pénal et son utilisation par les autorités policières et judiciaires fait craindre de nombreux risques.
Tout d’abord, l’usage de la reconnaissance faciale conduit à une atteinte à la vie privée dans la mesure où cette technique « permet à partir des traits du visage, soit d’authentifier une personne, c’est-à-dire de vérifier qu’une personne est bien celle qu’elle prétend être, soit d’identifier une personne, c’est-à-dire de retrouver une personne au sein d’un groupe d’individus, dans un lieu ou une base de données ». Cette captation du visage constitue une atteinte profonde à la vie privée des individus dans la mesure où ces dispositifs sont en capacité d’effectuer une identification en temps réel conduisant à une surveillance de masse.
De plus, les systèmes de reconnaissance faciale commettent de nombreuses erreurs d’identification vis-à-vis des groupes ethniques minoritaires, des personnes LGBTI, des personnes âgées et des femmes. Certaines de ces technologies fondées sur des algorithmes sont de nature à créer des discriminations et des inégalités selon la commission nécessitant de prendre des mesures pour éviter toutes formes de catégorisation automatisée. En ce sens, la majorité du Parlement européen souhaite que les résultats obtenus par les systèmes soient vérifiés et ne soient pas perçus comme un élément intangible.
Enfin, l’usage des systèmes de reconnaissance faciale par la justice et la police exige d’adopter des garanties préalables notamment compte tenu de l’opacité dans la prise de décision et au regard de la réglementation en matière de traitement des données personnelles. En effet, les traits du visage captés, traités et comparés dans le cadre de la reconnaissance faciale correspondent à des données biométriques considérées comme des données sensibles. En ce sens, les algorithmes et différentes bases de données devront être conformes à la réglementation dès l’origine et offrir un niveau de sécurité renforcé en considération des risques accrus de fuite de ces données captées dans le cadre d’une surveillance de masse. Ainsi, le respect des exigences du RGPD au sein de ces algorithmes corrélés à un contrôle humain constitue les conditions minimales pour éviter une atteinte aux droits des individus. La prise en compte au sein d’un corpus normatif semble alors être un véritable défi pour les institutions européennes notamment au regard de la crainte de la part des citoyens de constater l’instauration d’une justice prédictive.
Un tel dispositif fait craindre l’instauration d’une justice prédictive
La crainte de l’instauration d’une justice prédictive dans le cadre de l’utilisation de la reconnaissance faciale par la police ne repose pas sur le fait qu’une décision juridique pourrait être potentiellement optimisée selon une analyse fournie par un algorithme mais sur le fait qu’elle pourrait se fonder sur des données comportementales. Cette défiance est légitime puisque selon cette forme de justice prédictive, une procédure pénale ou judiciaire pourrait être admise sur le fondement de données comportementales ou d’une notation des individus au moyen de l’IA. Une telle pratique conduirait à porter atteinte à la présomption d’innocence, aux droits fondamentaux à la liberté et à la sûreté de la personne ainsi que priver un individu de son droit à un recours effectif et à un procès équitable. Ces éléments mis en lumière par le rapport de la commission susmentionnée ont pour but de prévenir toute atteinte future au regard de l’incidence significative que ce dispositif aurait sur la vie des personnes concernées. Les eurodéputés conscients du danger lié à cet instrument ont interdit par principe toute notation à grande échelle des individus au moyen de l’IA et invite également la commission à interdire de façon pérenne la reconnaissance faciale des individus dans les espaces publics. Une seule exception à ce principe a été envisagée, lorsque la personne est soupçonnée d’avoir commis un crime. Néanmoins, même dans ce cadre-là, un contrôle par la justice étatique de la proportionnalité des moyens utilisés doit être mis en œuvre afin de prévenir tout abus. La majorité du Parlement européen est attachée à bannir la justice prédictive comme en témoigne le texte adopté par cette dernière qui précise que « les décisions finales doivent toujours être prises par un être humain et les personnes soumises à des systèmes alimentés par l’IA doivent disposer de voies de recours ».
Les controverses autour de bases de données privées de reconnaissance faciale
La défiance sociale et politique de l’utilisation de la reconnaissance faciale à des fins pénales et judiciaires s’explique également par le fait que les bases de données à l’origine du traitement des données biométriques appartiennent à des entreprises privées, américaines ou chinoises. Une des entreprises qui est à l’origine de recherches reposant sur une technologie de reconnaissance d’images à des fins de recherches des auteurs d’infractions, Clearview AI, fait l’objet de nombreuses controverses. Elle justifie, avec l’outil qu’elle a développé et l’utilisation qui en fait l’ensemble des craintes formulées auparavant. En effet, cette société a collecté des milliards d’images de personnes sur internet pour mettre au point son système de reconnaissance faciale dans le but de le vendre à des services de police, notamment aux Etats-Unis. Selon un article paru dans le New York Times, la société Clearview AI fait correspondre les visages à des images captées en outre sur Facebook, sur Youtube ou sur une base de données privées. La technologie développée va tellement loin que selon un sergent de police rencontré par la journaliste Kashmir Hill lors de son investigation “avec Clearview AI, vous pouvez utiliser des photos qui ne sont pas parfaites”, “une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Ce dernier serait aujourd’hui utilisé par environ 600 services de police américains et aurait déjà aidé à résoudre des cas de vol, de fraude par carte d’identité mais aussi de meurtre et d’exploitation sexuelle d’enfants. Sauf que le taux d’exactitude des identifications réalisées par cet instrument ne serait que de 75% et il n’a jamais fait l’objet d’une étude par un organisme indépendant. Il reste donc opaque quant à sa légitimité et sa fiabilité amenant à une grande prudence malgré son déploiement croissant sur le territoire canadien et américain.
Si le Parlement européen, lors de cette résolution, a formulé des avertissements, recommandations et interdictions, il demeure que celles-ci n’ont aucune force législative et visent uniquement à inspirer la Commission européenne afin que celle-ci adopte une réglementation uniforme et protectrice au sein de l’Union européenne, visant à limiter et mettre en conformité les systèmes d’IA à haut risque. Cette position du Parlement européen intervient dans un contexte de réflexion d’encadrement juridique de l’IA au sein des institutions européennes puisque la commission a publié sa proposition de règlement établissant des règles harmonisées sur l’IA le 21 avril dernier.
Sources :
Castets-Renard (C.), Quelle politique européenne de l’intelligence artificielle, RTD eur., n°02, 31/07/2021, p297
Crichton (C.), Projet de règlement sur l’IA (II) : une approche fondée sur les risques, Dalloz actualité, IP/IT, 4 mai 2021
Hill (K.), The secretive compagny that might end privacy as we know it, The New York Times, 18 janvier 2020
Prieur (S.), Reconnaissance faciale et droit(s) : où en est la protection de la personne ? Gaz.Pal., 26 févr. 2019, n°342f5, p.13
Vitard (A.), Malgré les poursuites, le spécialiste de la reconnaissance faciale lève 30 millions de dollars, Usine digitale, 22/07/2021
Communiqué de presse du Parlement européen, Utilisation de l’intelligence artificielle par les forces de polices : les députés contre la surveillance de masse, 06/10/2021
Rapport déposé de la commission, L’intelligence artificielle en droit pénal et son utilisateur par les autorités policières et judiciaires dans les affaires pénales, 13/07/2021
Texte adopté du Parlement, L’intelligence artificielle en droit pénal et son utilisateur par les autorités policières et judiciaires dans les affaires pénales, 6/10/2021