A la suite de la série d’attentats qu’à connue la France durant l’année 2015, le débat autour de la sécurité dans les transports a été relancé. En témoigne notamment la procédure accélérée engagée par le Gouvernement le 19 octobre 2015 concernant la proposition de loi relative à la prévention et à la lutte contre les incivilités, contre les atteintes à la sécurité publique et contre les actes terroristes dans les transports collectifs de voyageurs, adoptée en première lecture par l’Assemblée Nationale le 17 décembre dernier. La vulnérabilité des transports en commun en fait une cible terroriste privilégiée. Il suffit pour s’en convaincre d’évoquer les attaques au gaz sarin qui se sont déroulées dans le métro de Tokyo en 1995, les attentats ayant touché les trains de banlieue à Madrid en 2004, et plus récemment l’attaque déjouée du Thalys du 21 août 2015.
C’est face au « caractère exceptionnel » de la menace terroriste que le 16 décembre 2015, le secrétaire général de la SNCF Stéphane Volant, a dévoilé les tests en court d’un logiciel de détection de comportements « suspects », qui aurait vocation à être intégré aux quelques 40 000 caméras de vidéosurveillance dont dispose la société. Ce logiciel baserait son analyse comportementale sur « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de certains gestes qui peuvent montrer une certaine anxiété ». L’expérimentation de ce logiciel est en cours dans plusieurs gares françaises, « en conformité avec la loi et sous le contrôle de la Commission nationale de l’informatique et des libertés ».
A écouter : “Sécurité : les innovations en test chez SNCF”
La présence gênante d’algorithmes impliquant des risques de « faux-positifs »
Le fonctionnement du logiciel en question repose essentiellement sur la présente d’algorithmes prédictifs. Ils sont utiles, en ce qu’ils optimisent le fonctionnement de la surveillance. Cela étant, ils représentent également un danger en terme d’éthique, lorsqu’ils sont utilisés à des fins de police prédictive, comme c’est le cas présentement. Cette situation engendre des questions du point de vue juridique, en particulier en ce que cette technologie nécessite l’utilisation massive de données, et plus précisément, des données à caractère personnel. Compte tenu de la multitude des données collectées, un risque de détournement de finalité est probable. Ce risque est d’autant plus grand que cette innovation technologique se trouve au cœur du système antiterroriste, qui fait tomber certains garde-fous juridiques au profit de sa lutte.
Ce projet n’est pas sans rappeler celui financé par l’Union Européenne, dénommé INDECT pour « Intelligent information system supporting observation, searching and detection for security of citizens in urban environment », qu’on peut traduire littéralement par « Système d’information intelligent soutenant l’observation, la recherche et la détection pour la sécurité des citoyens en milieu urbain ». La volonté de ses concepteurs est de faciliter les procédures de recherches et de contrôles, sur le même principe que le projet de la SNCF. Il avait à cet égard, suscité des craintes quant à la constitution d’une base de données au potentiel dangereux, et les risques pouvant conduire à des discriminations. En effet, les « indicateurs de méfiance » qui servent à configurer ce type de logiciel peuvent créer des discriminations en ce qu’ils sont des critères subjectifs et font grimper le risque d’erreurs potentielles.
L’utilisation des algorithmes était d’ailleurs évoquée par le Conseil d’Etat dans son rapport publié en 2014 « Le numérique et les droits fondamentaux », qui a notamment soulevé la nécessité d’un encadrement juridique spécifique à l’utilisation des algorithmes prédictifs.
Ces technologies existent déjà aujourd’hui, en particulier dans les aéroports, mais ne sont à elles seules pas suffisantes. Elles sont combinées avec des capteurs infrarouges et des portiques de sécurité. Prise individuellement, la vidéosurveillance intelligente entraine un risque élevé de « faux positifs », qui peut se définir comme le résultat d’une prise de décision dans un choix entre deux possibilités, déclaré positif là ou en réalité, il est négatif. De plus, les algorithmes de détections sont vites perturbés par les nombreux stimuli qu’ils sont susceptibles de recevoir, qui plus est dans une gare, où la foule est dense et changeante. A ce propos, dans une étude publiée en 2001 par l’Université britannique Queen Mary, des chercheurs affirmaient que « les technologies actuelles souffrent d’un fort taux de faux positifs, d’une sur-sensibilité aux changements dans le contexte visuel en raison de règles très strictes et d’une mauvaise adaptation aux environnement accueillant des foules ».
Ces questions soulèvent implicitement la question de la responsabilité, et la nécessité d’une vérification humaine. Et pour cause, ces technologies algorithmiques constituent un outil d’aide à la prise de décision humaine. Que ce passe t’il en cas de défaillance ? La responsabilité du fournisseur pour produits défectueux peut-elle être engagée ? Doit-on au contraire engager la responsabilité du professionnel utilisateur ? Et dans ce dernier cas, doit on engager la responsabilité de l’agent qui valide l’alerte déclenchée par l’intelligence artificielle, ou est-il possible d’engager la responsabilité de son supérieur hiérarchique ? Il est possible de poursuivre ces interrogations au regard du devoir de conseil du fabricant, difficilement aisé à mettre en œuvre en matière de technologies prédictives.
Des projets inexploitables encore au stade de prototypes
La crédibilité du système testé par la SNCF peut être remis en cause. En effet, on ne peut pas admettre qu’un sentiment tel que l’anxiété soit l’apanage d’une personne pouvant être qualifiée de terroriste. Il n’existe d’ailleurs pas de preuve que le stress soit une variable intangible dans l’équation terroriste. De même, un comportement seul ne suffit pas à caractériser une situation dans laquelle une infraction peut être commise, mais bien une somme de détails qui dessine un faisceau d’indices sur le comportement en question. De surcroit, pour Laurent Assouly, directeur marketing chez Evitech, acteur français spécialisé dans la vidéosurveillance intelligente, il n’est pas possible en l’état de la technique actuelle, de détecter un changement de température corporelle via ces systèmes.
Chez Thalès, groupe spécialisé dans les innovations technologiques qui entourent notamment le secteur de la défense et de la sécurité, des chercheurs travaillent sur des projets similaires. Cependant, s’ils admettent qu’il existe « des technologies permettant à une caméra d’apprendre le comportement normal d’une zone observée » et que « dès qu’il y aura quelque chose qui n’est pas usuel, le système lèvera une alarme », elles sont encore au stade de prototypes et ne sont pas disponibles « au niveau industriel ».
Stéphane Volant avoue à demi-mots les limites d’un tel système puisqu’il précise que les tests ont pour but de « savoir si ça n’identifie que les gens qui ont une intention négative ».
La difficile compatibilité de ce logiciel au regard des droits individuels
Mais surtout, poursuit-il, ces tests ont pour objet de mesurer « l’acceptabilité sociale » de ce dispositif. Rien n’est moins sûr. Si la Fédération nationale des associations d’usagers des transports publiait un communiqué de presse, le 17 décembre 2015, jugeant « le filtrage systématique des voyageurs à l’entrée des gares ou des quais » était une « méthode irréaliste », cette dernière souhaite « un renforcement de la présence humaine », et non celle des machines.
Sans parler des problèmes évidents engendrés par ces technologies au regard des droits conférés aux individus en matières de droits des données à caractère personnel, particulièrement concernant la question du consentement et du droit à l’image, la surveillance intelligente soulève surtout des interrogations au regard des droits fondamentaux portant sur la justice.
D’une part, ces technologies qui peuvent nous faire basculer vers un système de de « justice préventive » mettent à mal le principe constitutionnel de la présomption d’innocence, contenu également à l’article 9-1 du Code Civil. L’ONG britannique Big Brother Watch a émis des craintes concernant ce type de dispositifs, considérant l’idée « que l’ont peut stopper un crime avant qu’il ne soit commis » comme « inquiétante ». Cette considération emporte de surcroit des questions relatives à la preuve dans le procès pénal, du point de vue de la détermination de sa force probante ou même de sa validité.
D’autre part, la mise en place de cette vidéosurveillance intelligente s’organise dans le cadre de la lutte contre le terrorisme. Si la sécurité figure au rang des droits fondamentaux, et la « sauvegarde de l’ordre public, la sécurité des personnes et des biens ainsi que la recherche des auteurs d’infractions » a été défini par le Conseil constitutionnel comme un objectif de valeur constitutionnel, le caractère protéiforme de la notion de terrorisme prête difficilement à l’établissement d’une définition claire, précise et unitaire du « terrorisme », ce qui est très dangereux du point de vue des libertés individuelles et des droits fondamentaux. D’autant plus que l’appréciation des articles 421-1 et suivants du Code pénal peut poser une difficulté, puisque les actes de terrorisme sont définis de manière large et imprécise. Il ne faudrait donc pas tomber dans une dérive sécuritaire, sous couvert de la lutte antiterroriste, et encadrer très spécifiquement l’usage des algorithmes prédictifs dans les technologies de surveillance intelligentes.
SOURCES :
REES (M.), « La SNCF teste la détection des comportements suspects par vidéosurveillance », nextinpact.com, mis en ligne le 17 décembre 2015, consulté le 3 janvier 2016, <http://www.nextinpact.com/news/97757-la-sncf-teste-detection-comportements-suspects-par-videosurveillance.htm>
ANONYME, « La SNCF teste des logiciels pour détecter les comportements suspects », liberation.fr, mis en ligne le 16 décembre 2015, consulté le 2 janvier 2016, <http://www.liberation.fr/france/2015/12/16/la-sncf-teste-des-logiciels-pour-detecter-les-comportements-suspects_1421331>
VION-DURY (P.), « La vidéosurveillance vous fait flipper ? Attendez de voir ce qu’on vous prépare », rue89.nouvelobs.com, mis en ligne le 24 avril 2014, consulté le 5 janvier 2016, <http://rue89.nouvelobs.com/2014/04/25/videosurveillance-fait-flipper-attendez-voir-quon-prepare-251745>
RENOUX (T-S.), “Juger le terrorisme ?”, Cahiers du Conseil constitutionnel, mai 2003, n°14, conseil-constitutionnel.fr, consulté le 6 janvier 2016, <http://www.conseil-constitutionnel.fr/conseil-constitutionnel/francais/nouveaux-cahiers-du-conseil/cahier-n-14/juger-le-terrorisme-sup1-sup.52024.html>