« Le premier robot avocat au monde », c’est ce qu’affirmait l’entreprise américaine DoNotPay en la personne de son PDG Joshua Browder, qui se vantait d’avoir développé une intelligence artificielle (IA), spécialisée en droit et capable, selon leur site de « combattre les entreprises, vaincre la bureaucratie et poursuivre n’importe qui en appuyant sur un bouton ».
C’est dans ce contexte que pour la 1re fois, le 22 février 2023, une IA était sur le point de défendre un prévenu sur des questions de droit devant la justice s’agissant d’une affaire d’excès de vitesse. Cette annonce avait fait couler beaucoup d’encre dans les journaux et sur les réseaux sociaux. Cela soulève en effet un certain nombre de questions, notamment sur les enjeux d’une telle technologie au sein de la justice, et remet en perspective différents métiers des acteurs du secteur judiciaire.
Cependant, faisons fi de toutes spéculations, et rappelons dans un premier temps que l’IA est déjà bien présente dans nos juridictions et tribunaux.
En effet, des startups spécialisées (la legalTech) ont d’ores et déjà créé des logiciels pour accompagner les acteurs de la justice. Ainsi, différents algorithmes peuvent aider à la prise de décision ou encore assister un juge lors de l’instruction d’un dossier, par exemple, en l’informant de tous les jugements rendus par les tribunaux français dans des affaires similaires. On parle alors d’une assistance pour une justice dite prédictive.
Concrètement, le magistrat a la possibilité de choisir lui-même des critères (mots-clés, textes…) dans une ou plusieurs bases de données, afin d’en extraire des cas ressemblants à celui qu’il doit traiter. L’extraction de données peut également être automatique et effectuée par un logiciel, le juge retiendra alors ce qui l’intéresse. Finalement, l’IA accélère la recherche d’informations, mais c’est le juge qui prend seul la décision.
L’affaire de l’intelligence artificielle de DoNotPay
À l’origine, DoNotPay a été lancée en 2015 sous la forme d’un chatbot (agent logiciel qui dialogue avec un utilisateur) relativement simple. Celui-ci prodiguait aux utilisateurs des conseils juridiques autour de questions de consommation, en s’appuyant sur des modèles standards de conversation. Puis en 2020, OpenAI a publié une interface de programmation accessible au grand public pour donner accès aux capacités de ChatGPT-3, son IA de traitement de langage. C’est ce qui a permis à l’entreprise DoNotPay de se tourner davantage vers l’IA pour son outil de chatbot.
Plus de 100 spécialités juridiques :
L’IA a ainsi été entraînée sur un grand nombre de cas déjà traités en justice pour lui permettre d’acquérir une « expertise ». Selon le fondateur de l’entreprise, elle est désormais capable de s’attaquer à de très nombreux cas, comme ceux du divorce, des lois sur l’immigration, mais aussi sur la protection du droit d’auteur etc. Plus d’une centaine de spécialités sont citées sur le site internet, et l’entreprise affirme être intervenue dans quelque 3 millions de cas aux États-Unis.
Joshua Browder a expliqué l’avoir lui-même testée dans diverses situations grâce à l’utilisation d’une voix de synthèse. Il explique avoir fait parler son IA auprès d’une banque, afin de négocier un remboursement de frais d’un montant de 16 dollars.
L’abandon du projet de « l’IA avocate »:
L’entreprise considérait ce procès comme un « galop d’essai », et s’est permis d’ailleurs, de jouer avec quelques règles pour s’assurer de pouvoir effectuer son test. En effet, afin d’être effective, l’IA se doit d’être présente aux côtés d’un accusé sous la forme d’un smartphone, qui enregistrerait les conversations.
Cependant, la plupart des tribunaux des Etats Américains n’autorisent généralement pas les enregistrements audio pendant les procédures judiciaires en direct. Ainsi, pour que « l’avocat » puisse travailler, il doit techniquement enfreindre la loi.
En raison de la forte opposition des « pairs » humains, et de plusieurs menaces adressées à la société, le développeur de l’IA a brusquement dû mettre fin au plan initial. Le PDG de l’entreprise espère cependant que ceci n’est pas la fin de l’IA au tribunal : « La vérité est que la plupart des gens n’ont pas les moyens de se payer un avocat, et les avocats de l’IA pourraient changer cela et permettre aux gens d’utiliser des outils comme ChatGPT devant les tribunaux, ce qui pourrait les aider à gagner. »
L’intelligence artificielle dans les tribunaux ne semble donc pas être un évènement auquel assistera l’humanité dans les prochains jours. Néanmoins les avancées de la technologie, ainsi que la nécessité d’accès à une justice plus rapide, pourraient remettre en cause cette décision. Dès lors, à défaut d’une législation claire et précise sur le sujet, il se peut que dans quelques années « l’IA avocat » soit quelque chose de bien concret.
Les perspectives d’une justice déshumanisée deviennent alors des enjeux réels et soulèvent de nombreux questionnements et inquiétudes en ce qui concerne particulièrement les acteurs juridiques, comme les avocats ou les juges.
Les perspectives d’une justice déshumanisée
L’un des plus grands défis de la mise en œuvre de l’intelligence artificielle dans les systèmes juridiques consiste à déterminer comment l’utiliser pour améliorer l’efficacité et la précision, tout en réduisant les risques intrinsèquement liés à l’automatisation des décisions. Ainsi, le recours à cette technologie peut être une aide au système judiciaire afin qu’il devienne plus transparent et efficace, tout en garantissant la confidentialité des données.
A ce titre, on peut remarquer que certains pays étrangers utilisent déjà des logiciels pour rendre la justice, ce qui permet notamment de désengorger les tribunaux, mais aussi d’alléger les coûts. Par exemple, dans l’Ontario, un « tribunal virtuel » est chargé de trancher les conflits entre voisins ou entre salarié et employeur.
Également, au Québec, un logiciel permet de régler les petits contentieux commerciaux, ou encore en Estonie, où un robot devrait bientôt établir la culpabilité d’une personne pour des litiges dits « mineurs » (moins de 7 000 euros).
A cet égard, Gregory Lewkowicz, professeur de droit à Bruxelles, considère que les juristes doivent s’adapter : « La matière est par essence évolutive, c’est au cœur de la pratique que d’ajuster, continuellement, la règle aux réalités concrètes de l’époque ».
Cependant, l’utilisation de l’IA à cet effet n’est pas sans conséquence. Dès lors, les juges ne sont plus des êtres humains, mais des « algorithmes/programmes » dotés « d’intelligence » pouvant prendre des décisions sans émotion, recul ou instinct. Le conflit entre le comportement naturel des êtres humains, et la nature synthétique et programmée des IA peut effectivement entraîner des complications.
Par exemple, il peut être très difficile pour une IA d’acquérir des connaissances psychologiques pour tenter de s’entendre avec les juges dans la plupart des cas. Également, il sera difficile pour un algorithme de prendre en compte certaines situations qui pourraient avoir des circonstances atténuantes, ou encore une situation différente en raison du profil mental de l’accusé.
Cette « démocratisation » d’une IA dans le système, est d’autant moins certaine que l’article 6 de la Convention Européenne des Droits de l’Homme (CEDH) promeut un procès équitable. Il faudra donc encore beaucoup de travail pour adapter l’IA à ce principe, car l’information juridique nécessite, de fait, structuration et raisonnement. L’IA ne peut pas y parvenir encore totalement, mais elle peut, comme nous l’avons vu, assister les parties et les juges dans la recherche des informations pertinentes.
Par ailleurs, une bonne partie de la doctrine se montre également réticente à cette idée. Effectivement, dans une tribune publiée en novembre dans Le Monde, le juriste Fabrizio Papa Techera met en évidence le risque d’un « Netflix du droit ». Selon lui, « la Common Law se prête particulièrement aux promesses de la justice algorithmique » mais, transposée en France, elle pourrait conduire à « un appauvrissement considérable de la culture juridique française ».
De par ces éléments, on constate que si la mise en œuvre de l’IA juridique présente des défis et des opportunités, il est important de prendre en compte les nouvelles considérations et questions éthiques à mesure que les systèmes d’IA se trouvent impliqués.
Une question d’éthique
Les questions éthiques sur l’opacité des algorithmes et les éventuels biais dans leur analyse restent entières. Également, les inquiétudes portent sur la question de savoir s’il faut faire confiance à ces systèmes, quand et comment, ainsi que sur leur potentiel impact sur la société.
Il s’agit de questions complexes dont les réponses n’existent pas encore. Cependant en Amérique du Nord, des juristes dénoncent déjà des biais raciaux dans les algorithmes qui pénalisent les minorités ethniques. (Affaire COMPASS AI s’agissant de la justice prédictive qui entraine des discriminations).
L’Europe se veut nettement plus protectrice que les États-Unis. A ce titre, la charte éthique d’utilisation de l’intelligence artificielle dans les systèmes judiciaires, adoptée par le Conseil de l’Europe le 8 décembre 2018 énonce les principes suivants afin que l’IA reste un outil au service de l’intérêt général :
- Respect des droits fondamentaux ;
- Principe de non-discrimination ;
- Qualité et sécurité dans le traitement des données ;
- Transparence, neutralité et intégrité intellectuelle ;
- Maîtrise par l’utilisateur.
On constate que l’UE cherche en réalité une IA « digne de confiance », ce qui est aujourd’hui une perspective impossible.