Le 27 mars 2020, par décret, le gouvernement d’Édouard Philippe crée le traitement Data Just, un algorithme dont l’utilisation pourrait rapprocher notre justice de celle dépeinte dans le film dystopique Minority Report de Steven Spielberg. Dans ce film, c’est sous la notion philosophique du déterminisme que se développe une justice prédictive, grand fantasme de l’idéologie sécuritaire. Avec Data Just c’est un traitement automatisé de données à caractère personnel qui va être utilisé pour développer un algorithme qui permettrait l’aide à la décision en matière d’indemnisation de préjudices corporels. Ce traitement, est autorisé pour une durée de deux ans au titre de l’expérimentation. Une expérimentation basée sur l’intelligence artificielle qui devrait, à terme, aboutir à la mise en place d’un outil d’aide à la décision pour les juges.
L’association de promotion et de défense des libertés fondamentales dans l’environnement numérique « La Quadrature du Net » s’est vue rejeter sa requête par une décision rendu le 30 décembre 2021 par le Conseil d’État. Concluant à une défaillance des institutions françaises, l’association compte poursuivre sa lutte contre cette expérimentation au niveau européen.
Un traitement de données personnelles massif :
Les données traitées sont nombreuses, en provenance des décisions de justice rendues en appel entre le premier janvier 2017 et le 31 décembre 2019 portant sur l’indemnisation des préjudices corporels. C’est le Conseil d’État et la Cour de cassation qui transmettent les données aux ministères de la justice. Bien qu’en principe les noms et prénoms des parties ne font pas partie des données transmises, les noms et prénoms des personnes physiques mentionnées dans la décision sont transmis. En plus de données personnelles telles que des éléments d’identification des personnes physiques, Data Just collecte également des données sensibles comme les avis des médecins et experts ayant examiné la victime. Ces données, une fois collectées, sont conservées pour la durée de l’expérimentation et donc de développement de l’algorithme.
On peut dès lors craindre une disproportion dans le champ des données personnelles et sensibles traitées. L’article 5 du RGPD prévoit que les données traitées doivent être « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Il s’agit d’ailleurs d’un principe, le principe de la minimisation des données. Les aspects stratégiques et privés des données personnelles ne faisant plus aucun doute, les réglementations se veulent en principe très limitatives quant à l’utilisation de ces dernières. On comprend rapidement que, en tant qu’expérimentation, ce projet nécessite une collecte massive de données afin de constater lesquelles vont s’avérer utiles pour l’élaboration dudit algorithme. L’association « La Quadrature du net », dans son mémoire en demande, constatera d’ailleurs que « si certaines (données personnelles) peuvent s’avérer utiles à l’élaboration d’un algorithme permettant une meilleure efficacité de la justice, d’autres types de données ne sont pas adéquates, encore moins proportionnées ».
Insistant notamment sur le numéro des décisions de justice, autre composante des différentes données traitées, l’association conclut que ce décret « autorise un traitement de données personnelles manifestement disproportionné ». Cette conclusion est parfaitement compréhensible dès lors que l’on prend en compte qu’à travers le numéro des décisions de justice c’est l’ensemble des informations personnelles liées à ces décisions qui peuvent faire l’objet d’un éventuel traitement. Le Conseil d’État dans sa décision du 30 décembre 2021 retient en revanche que ces mêmes numéros sont uniquement collectés afin de « répondre aux demandes des personnes dont les données ont été collectées tendant à l’exercice de leur droit d’accès, de rectification ou de limitation ». Pour le Conseil d’État ce décret n’a rien de disproportionné vu l’objectif d’intérêt public poursuivi, aussi il n’est porté atteinte à aucun texte en vigueur.
Une « expérience » à la finalité imprécise ?
L’article 5 du règlement du 27 avril 2016 dit RGPD prévoit que les données personnelles doivent être « collectées pour des finalités déterminées, explicites et légitimes, et ne pas être traitées ultérieurement d’une manière incompatible avec ces finalités ». Suivant ce décret donc, le traitement se veut développer un algorithme aux objectifs multiples. La CNIL elle-même, alors qu’elle a finalement validé ce traitement, avait relevé que la formulation du premier objectif « mériterait d’être explicitée », manquant notamment de réelles études d’impact. Le risque d’une rédaction si évasive serait une trop grande liberté dans son interprétation. Pour l’association « La Quadrature du net » il ne fait aucun doute que le gouvernement « ne sait pas à quoi l’algorithme sur lequel il est en train de travailler servira, ni sur quelles données il portera ». La délibération de la CNIL en date du 9 janvier 2020 recommandait d’ailleurs que ce projet de décret soit réécrit afin d’être précisé, une modification qui n’aura jamais lieu. Le gouvernement semble vouloir conserver une large possibilité d’interprétation, possibilité qui lui sera offerte gracieusement par le Conseil d’État qui se refusera de donner suite aux différentes plaintes à l’encontre de ce décret et validera « DataJust ». Il est difficile de ne pas remettre en cause cette décision du Conseil d’État qui semble ignorer des défaillances pourtant collégialement dénoncées, que ce soit par le Conseil National des Barreaux ou encore par le syndicat de la magistrature.
Les premières pierres de la justice prédictive ?
Les nouvelles technologies semblent depuis quelques années permettre à la justice prédictive, jusqu’alors simple fantasme sécuritaire, de devenir une réalité de plus en plus concrète. Le ministère de la justice avait d’ailleurs affirmé ses désirs de transformation numérique de la justice notamment par la mise en avant du projet « Datajust » au cours de la deuxième édition de VendomeTech le 29 novembre 2018. L’expression de justice prédictive est pourtant assez fantaisiste tant le « raisonnement juridique est inapte à une modélisation a priori » selon Philippe le Tourneau, professeur de la faculté de droit de Toulouse. Datajust, comme les nombreuses autres initiatives de transformation numérique, ne doit rester qu’un outil pour accompagner et aider les professionnels du droit. Cependant, là encore, les associations d’aide aux victimes qui, pour un certain nombre, se sont mobilisées contre ce décret, estiment qu’un tel outil peut faire obstacle à « la prise en compte individualisée de la situation de chaque victime » et « réaffirment leur opposition à tout barème d’indemnisation, y compris sous la forme édulcorée d’un référentiel ».
La mise en place de ce décret et sa validation nous confirment en fait plusieurs choses. D’abord, le gouvernement semble désirer une telle évolution de la justice. Ensuite, le gouvernement semble mettre en place de réelles stratégies pour y parvenir mais n’en maitrise pas encore les outils, nécessitant alors des expérimentations. Le cadre légal de ces expérimentations doit d’ailleurs être le plus large possible afin de laisser le gouvernement libre de « faire des tests ». Enfin, le Conseil d’État semble, pour des raisons qui ont surpris une certaine partie de la doctrine, servir l’État et ses besoins en la matière.
Le Conseil d’État dans sa décision rendue le 30 décembre 2021 va, dans ses motifs, rejoindre les intérêts du gouvernement, se justifiant à l’aide de l’intérêt public général mais aussi parfois sur la finalité de ce traitement de données bien que cette finalité eût été, nous l’avons vu, discutée par la CNIL elle-même. On peut également discuter de la réponse du Conseil d’État sur l’argument des requérants quant à la violation du principe de minimisation des données. On le voit, dans les mémoires rédigées par l’association La Quadrature du Net, que ce n’est pas tant le nombre de décisions traitées qui pose problème mais bien la diversité des données collectées qui est visée. Le Conseil d’État rejette donc ce recours et par la même occasion encourage des politiques publiques de transition numérique douteuses.
SOURCES :
Conseil d’État, mémoire complémentaire n°442361, 2 novembre 2020
Conseil d’État, mémoire en réplique n°442361, 13 décembre 2021
Conseil d’État, 10ème et 9ème chambre réunies, 30 décembre 2021, n°440376
La Quadrature du Net, DataJust : violer la loi sous couvert d’expérimentation, 23 décembre 2021
Dalloz Référence, contrats du numérique, chapitre 011, Prolégomènes, Philippe le Tourneau, 2021/22
Vendôme Tech 2, 29 novembre 2018, transformation numérique de la justice