Obtenir de son smartphone la météo à Londres, laisser sa voiture se garer en toute autonomie, interroger une base de données avec des critères de recherche spécifiques : de nombreux gestes quotidiens sont désormais régis par des procédés techniques derrière lesquels se cachent des algorithmes. Ils tendent à être de plus en plus fréquemment employés et ce dans divers domaines, notamment le secteur judiciaire, impacté par les logiciels prédictifs. Leur utilisation, basée sur des calculs et des probabilités, permettrait de faire conséquemment baisser la criminalité. Or des dérives éthiques et juridiques pourraient être à craindre s’ils se démocratisaient davantage.
Face à la criminalité, un nouvel outil : l’algorithme
Le cerveau humain, dès lors qu’il tente de résoudre une énigme, utilise un algorithme. Derrière ce terme se dissimule un simple processus technique à vocation utilitaire : solutionner un problème. Cette logique de réflexion a été transposée techniquement dans nombre de nos appareils électroniques, afin de leur permettre de nous assister. Une fois démystifiées, les intelligences artificielles ne sont plus qu’un assemblage d’algorithmes fonctionnant de concert, tentant de recréer les capacités de réflexion d’une conscience humaine.
Face à leur popularisation croissante et sous l’impulsion des recherches scientifiques, l’utilisation de ces logiciels s’est diversifiée. AlphaGo, l’algorithme plébiscité de Google, enregistra et interpréta des parties entières de jeu de go, jusqu’à ce qu’il parvienne à battre, seul, le champion du monde. La principale raison de cet exploit réside en sa capacité à se remémorer des centaines d’erreurs passées pour adapter son jeu, chose à laquelle le cerveau humain ne peut – pour l’instant – se mesurer.
Au niveau sécuritaire, ce sont les logiciels prédictifs qui se multiplient dans les services de renseignements et de police. Qu’ils aident à la recherche de criminels ou de zones sensibles, ou qu’ils déterminent un niveau de dangerosité des individus, les logiciels « devins » permettent d’attirer l’attention sur ce que l’œil humain ne peut parfois pas repérer. Le Service central du renseignement français a ainsi mis en avant son programme, Anacrim, grâce auquel de nouvelles pistes ont été découvertes dans l’affaire Grégory Villemin. L’analyse de l’algorithme a permis de visualiser de manière claire et concise des éléments, et de faire rebondir celle-ci.
Ethique de l’algorithme
En Californie, plus précisément dans la ville de Modesto, le logiciel PredPol aiguille les équipes policières vers des zones potentiellement risquées, en leur indiquant sur un plan des « hot spots ». Ce système fonctionne tout naturellement avec l’application Street View de Google.
Le logiciel fonctionne par recoupage de données, grâce à tous les fichiers de police recueillis sur une décennie. Il enregistre également le contenu de chaque nouveau rapport. Le professeur Jeffrey Brantingham, un de ses fondateurs, en vante l’efficacité. Et il assimile le fonctionnement de son algorithme aux appareils des sismologues, qui ne peuvent jamais prévoir les premières secousses. Basés sur la première secousse et sur ses caractéristiques pour anticiper les futures, ils ne déterminent jamais précisément le début d’un tremblement de terre. Suivant cette logique, PredPol serait-il incapable de détecter les premières infractions, mais simplement les risques de récidive ? Outre le champ d’application réduit que cela conférerait à l’algorithme, se baser uniquement sur les dossiers des arrestations déjà existantes peut rapidement mener à de la discrimination. Aucune formule ne peut anticiper la rédemption ou la récidive, qu’elle vienne d’un condamné ou d’un citoyen modèle…
Ce risque de discrimination reste néanmoins limité avec PredPol, puisqu’il ne prend en compte ni les identités ni les profils des délinquants, mais simplement le lieu des infractions, ce qui n’est pas le cas de tous les logiciels prédictifs.
La Floride a doté les juges américains de Northpointe, calculatrice de risque de récidive. En fonction des éléments du dossier, le logiciel attribue un chiffre à une personne, plus ou moins élevé selon le danger. L’intention est louable. Malgré cela, l’algorithme fait l’objet d’une polémique : certains de ses résultats seraient discriminatoires. Une étude démontre qu’une personne noire ayant commis un délit verrait son indicateur de risque plus élevé qu’une personne blanche déjà condamnée à de multiples reprises. Le résultat n’est guère probant : la première ne récidivera pas, la seconde oui. Cela n’a (hélas) rien d’étonnant puisque, si l’homme dicte à la machine une discrimination raciale, celle-ci l’appliquera et le jugement rendu sera biaisé.
Reste enfin le problème des données personnelles collectées par cet algorithme. A l’heure où la législation croît en la matière, la question de la sécurisation de ces données se pose. Imaginons qu’une personne repentie – et non récidiviste – cherche un emploi de réinsertion. Qu’adviendra-t-il si son futur employeur a accès à son indicateur de risque ?
La logique de l’algorithme face à l’intention de l’homme
Pour être caractérisée, et donc condamnable, l’infraction pénale doit résulter d’un fait matériel et d’un élément moral : l’intention criminelle. La tentative est même punissable, puisque l’article 121-5 du Code Pénal dispose que l’infraction est « constituée dès lors que, manifestée par un commencement d’exécution, elle n’a été suspendue ou n’a manqué son effet qu’en raison de circonstances indépendantes de la volonté de son auteur ». S’il y a une intention, en plus d’un projet criminel, mais que celui-ci n’aboutit pas car l’intéressé se ravise, l’infraction ne saurait être qualifiée à partir de la seule intention. C’est le cumul de cette volonté et de la réalisation de l’acte qui permet une incrimination.
Or le problème des algorithmes est qu’ils supposent un passage à l’acte qui n’a pas encore eu lieu. Quid de la réflexion humaine ? Aucun outil ne permet encore de détecter les intentions criminelles avant même la construction d’un projet concret. Mais les nouvelles technologies d’information et de renseignement progressent tellement rapidement qu’il n’est pas exclu que, un jour, un algorithme y parvienne. Quelle serait la réaction à adopter en détectant un individu tenté de commettre un crime, mais pas encore réellement décidé ? Une surveillance accrue ne serait justifiée par aucun fondement juridique ; et, avec juste une intention, l’arrestation le serait encore moins. Prouver l’existence de cette intention sans aucune preuve factuelle serait ardu. Le déclencheur de la commission de l’infraction dépend de tant de facteurs sociaux, émotionnels, matériels (et humains !), qu’un système capable d’appréhender cela irait à l’encontre du libre arbitre.
Christine Kerdellant, journaliste, évoque ce danger. « Verra-t-on un jour la police débarquer au domicile de toutes les personnes dont il est probable qu’elles commettront un jour un méfait ? Cela signifierait que, après la vie privée, le libre arbitre a disparu lui aussi – c’est-à-dire le libre choix de chacun, jusqu’au bout, de commettre ou non un acte un instant envisagé ».
Ces interrogations restent en suspens, car dépendantes des avancées numériques. L’algorithme face au droit pénal n’est qu’un exemple des interférences qui pourraient voir le jour entre droit positif et développement des technologies. Ce puissant développement, au demeurant positif dans certains domaines, en bouleverse également beaucoup. Le droit s’en trouve régulièrement impacté, de nouvelles problématiques émergeant quasi quotidiennement. Les logiciels prédictifs pourraient par exemple interroger le droit du travail, puisqu’en remplaçant peu à peu les hommes, ils rendent inutiles de nombreux postes. D’autres obstacles apparaîtront sans doute avec le développement des legaltech, systèmes de résolution d’affaires juridiques. Malgré l’avantage d’effectivité et de rapidité de rendu des décisions, que deviendra l’office du juge si ses décisions sont prises en son nom par des systèmes, ne serait-ce que pour la symbolique ? L’importance de ces révolutions numériques reste à nuancer. Leur conférer une place dans nos vies les améliore, sans nul doute, mais l’encadrement juridique doit s’adapter pour qu’elles n’outrepassent pas leurs fonctions de base. Leur utilité ne doit pas les rendre indispensables. La conscience humaine ne peut être remplacée par l’intelligence artificielle, qui doit rester un support logistique.
SOURCES :
BOULOC B., Droit pénal général, 25ème éd., Dalloz, coll. Précis, 2017, p. 221 s.
KERDELLANT C., Dans la Google du loup, Plon, 2017, p. 56 s.
ANGWIN J., LARSON J., « Machine Bias », propublica.org, publié le 23 mai 2016, consulté le 8 octobre 2017, <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>
CASTRO V., « Petit glossaire démystificateur de l’intelligence artificielle », numerama.fr, publié le 24 septembre 2017, consulté le 8 octobre 2017, <http://www.numerama.com/tech/290191-intelligence-artificielle-petit-glossaire-demystificateur.html>
EUDES Y., « PredPol, le big data au service de la police », lemonde.fr, publié le 22 avril 2015, consulté le 8 octobre 2017, <http://abonnes.lemonde.fr/ameriques/article/2015/04/22/predpol-le-big-data-au-service-de-la-police_4620855_3222.html>
LAUSSON J., « Invaincu au jeu de go, AlphaGo prend sa retraite sportive : et maintenant ? », numerama.fr, publié le 29 mars 2017, consulté le 8 octobre 2017,<http://www.numerama.com/sciences/261958-invaincu-au-jeu-de-go-alphago-prend-sa-retraite-sportive-et-maintenant.html>
LEVENSON C., « Un logiciel censé prédire le risque de récidive aux Etats-Unis a un problème de racisme », slate.fr, publié le 24 mai 2016, consulté le 8 octobre 2017,< http://www.slate.fr/story/118489/logiciel-risque-recidive-racisme>
SERMONDADAZ S., « Logiciel AnaCrim : analyse de données et coup de théâtre dans l’affaire Grégory », sciencesetavenir.fr, publié le 15 juin 2017, consulté le 8 octobre 2017,<https://www.sciencesetavenir.fr/high-tech/data/logiciel-anacrim-analyse-de-donnees-et-coup-de-theatre-dans-l-affaire-gregory-villemin_113845 >