Navigation : IREDIC / 2025 / novembre / 27 / La déontologie : un levier de sécurisation efficace pour la justice face aux risques engendrés par l’IA ? 

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2025 / novembre / 27 / La déontologie : un levier de sécurisation efficace pour la justice face aux risques engendrés par l’IA ? 

La déontologie : un levier de sécurisation efficace pour la justice face aux risques engendrés par l’IA ? 

Publié par Fanny Parazines le 27 novembre 2025 dans Données numériques : Actualités, Notes d'actualité | Consulté 7 Fois

par Fanny PARAZINES, étudiante du Master 2 Droit des communications électroniques

La nécessité de réguler l’IA à haut risque au sein de l’Union européenne se fait de plus en plus pressante notamment face aux risques de l’instauration d’une surveillance de masse.

Sur le terrain de la justice, une nouvelle réunion du conseil consultatif conjoint de déontologie de la relation avocat–magistrat (CCC) a eu lieu le 20 octobre 2025. 

Ce conseil, présent au sein de la Cour de cassation, est une instance de dialogue et de concertation, et a échangé sur les enjeux déontologiques de l’utilisation croissante de l’intelligence artificielle générative (IAG) dans l’exercice professionnel des magistrats et des avocats. Le sujet est d’autant plus sensible que les IAG s’invitent de plus en plus dans les bureaux des professionnels du droit, de même que les cabinets de conseil, à l’image de Deloitte, récemment mis en cause pour l’utilisation d’une IA dans un rapport.

Le conseil a délivré un “Guide de risque et bonnes pratiques”, un document pédagogique, listant tant les atouts de cette technologie que ses limites. L’objectif est de sensibiliser les professionnels du droit, afin de nourrir une culture déontologique commune face aux défis de la transformation numérique de la justice. 

La déontologie représente-t-elle le meilleur espoir pour préserver les professions d’avocats et de magistrat face à la montée en puissance de l’intelligence artificielle générative ?

Il est nécessaire de rappeler que par essence, l’IAG n’a pas pour objectif la recherche de vérité, mais simplement d’apporter une réponse à un utilisateur selon des probabilités. Il est donc inévitable que cette technologie commette des erreurs, appelées aussi hallucinations, et se fier uniquement à ces résultats représente un risque pour la performance de ses professions.  

Une hallucination par l’IA, qu’est-ce que c’est ?  

Cette notion technique renvoie à la production d’un contenu par un système algorithmique d’informations (IA) manifestement erronées, inventées ou incohérentes, sans fondement réel ni logique. On peut penser que ce type d’erreur est un simple dysfonctionnement, mais il traduit la difficulté structurelle pour une IA de rester fidèle à la réalité.  

Les hallucinations peuvent être regroupées en trois types. L’erreur factuelle, qui est la forme la plus directe, est représentée par des éléments objectivement faux, telle qu’une transgression des lois scientifiques. Le contenu fabriqué, quant à lui, estsouvent généré par manque de données sur un sujet pour combler un vide informationnel. La sortie absurde, beaucoup plus discrète, consiste pour sa part en la formulation de phrases grammaticalement correctes mais dont l’enchaînement des mots est privé de sens.  

Au-delà des hallucinations, d’autres risques existent quant à l’utilisation d’IAG par des professionnels du droit. Parmi les autres conséquences, on retrouve les biais algorithmiques déjà présents dans les données d’apprentissage, amenés à reproduire des stéréotypes susceptibles d’entraîner des discriminations à l’encontre d’individus ou de groupes d’individus. D’autres risques déontologies sont mis en avant par le CCC, telle que l’atteinte à la confidentialité des données ou au secret professionnel ou encore la difficulté à expliciter les raisonnements juridiques reproduits par l’IA. 

Toutes ces erreurs pourraient mener à des conséquences graves, auxquelles tous les utilisateurs sont exposés. Cependant, pour des avocats ou des magistrats, les conséquences seraient dramatiques, comme la perte d’esprit critique, pourtant la clé de voûte du secteur juridique. Il faut aussi veiller à prévenir l’appauvrissement du raisonnement intellectuel, étant donné que l’IAG priorise les raisonnements majoritairement retenus, invisibilisant ceux qui sont minoritaires.  

Le problème juridique soulevé par ces risques est celui de la responsabilité.  

Qui est responsable de ces hallucinations générées par l’IA ?  

Juridiquement, ce phénomène peut être susceptible d’engager la responsabilité de l’opérateur, du concepteur ou de l’utilisateur de l’IA, notamment si un préjudice en résulte. 

En réalité cette question alimente de nombreux contentieux à l’échelle internationale, par exemple lorsque l’IA devient autrice de propos diffamatoires envers une entreprise américaine. En pratique, aucune solution générale et satisfaisante n’est trouvée pour le moment, ce qui renvoie à la difficulté d’appliquer des problématiques de droit commun au monde numérique. On note que la qualification oscille entre la faute, la négligence et le défaut du produit digital, opposant les fournisseurs d’IA, clamant que la faute est inhérente à l’outil, face aux préjudices, bien réels, subis par les justiciables.  

Au niveau européen, le cumul de l’IA Act et du DSA permettrait de réglementer ces problèmes d’hallucination, par exemple, en demandant aux juridictions du fond d’apprécier si les mesures contractuelles et techniques prises par les opérateurs sont de nature à exclure leur responsabilité (Article 11 et 18 IA Act), ou si, au contraire, un manquement à une obligation légale ou réglementaire peut être caractérisé (Article 9, 16 et 50 IA Act). Des sanctions sont aussi prévues, notamment de lourdes amendes, alors que dans les faits, il semblerait que la meilleure parade contre les hallucinations générées par IA, soit opérationnelle, permettant simplement d’encadrer contractuellement et à l’amiable les futures erreurs.  

Face à ce flou juridique et en attendant un cadre juridique complet, le CCC entend réguler par la déontologie. Le conseil lié à la Cour de cassation espère responsabiliser efficacement les utilisateurs de l’IAG, notamment quand ils ont de grandes responsabilités au sein du système judiciaire. 

Quelles sont les bonnes pratiques à mettre en place pour les professionnels ?  

Pour ce faire, le CCC a présenté au total sept bonnes pratiques déontologiques, permettant d’assurer une utilisation optimale de l’IAG. Le premier conseil est de comprendre les outils d’intelligence artificielle, leur fonctionnement et leur niveau de sécurité, tout en échangeant ces informations entre les juridictions et les barreaux pour conserver une harmonie. Concernant les contenus générés, il est recommandé de toujours les vérifier, le but étant de conserver l’IAG comme simple assistant et ne pas la substituer à l’intelligence humaine. Les derniers points auxquels il faut prêter une attention particulière entendent prévenir les justiciables ou les clients des risques éthiques, notamment pour ce qui concerne le renseignement de données personnelles qui se trouveraient intégrées aux bases de données des IAG.  

En réalité, ce Guide décide de confronter directement les professionnels et déclare que le premier risque déontologique est la déresponsabilisation : “Le professionnel demeure seul responsable des décisions prises ou actes réalisés”. Ce point de vue est acclamé par la doctrine ; en effet Damien Charlotin, un chercheur sur l’adaptation du droit et des juristes à la technologie et à l’IA, tient une base de données recensant toutes les fois où les avocats se réfèrent à des jurisprudences ou des textes de loi complètement inventé par l’IA. Il l’a déclaré au Monde le 29 octobre dernier que « lorsque l’IA invente une décision de justice et que le juriste ne la vérifie pas, ce n’est plus une erreur mais une faute ». 

Au final, est-ce que ce guide de déontologie est efficace ? 

Pour conclure, on comprend que le “guide des risques et des bonnes pratiques” rédigé par le conseil consultatif conjoint de déontologie de la relation avocat–magistrat (CCC), mise sur l’éducation plus que la répression pour faire face à cette troisième révolution industrielle, matérialisé par l’IAG. Représentant un atout économique, cet outil est présent dans tous les secteurs à responsabilité, dont la justice. Cependant de nombreuses pratiques peuvent être considérées comme abusives et la déontologie seule ne semble pas suffire.  

Ce guide de 9 pages est très synthétique, facile de compréhension, et s’adresse surtout à ceux qui ne maîtrisent pas ces outils. En réalité il n’est ni contraignant, ni complet, ne décrivant que des règles très basiques. Il reste, cependant, une bonne initiative et démontre la volonté de prendre au sérieux la transition numérique, bien qu’il soit délivré tardivement. Pour protéger les justiciables efficacement, de réels outils devraient être mis en œuvre, tels que des bases de données fermées pour les agents de la justice, une IAG fiable et protectrice pour les documents officiels et les données des justiciables ou encore de réelles sanctions pour les professionnels dont les pratiques manquent d’éthique, afin de concrétiser cette responsabilité déontologique.  

Le recours à l’IAG en matière judiciaire, où la confiance et la rigueur sont essentielles, ne peut donc se faire qu’avec un sens critique et une vigilance éthique, afin de préserver la confiance, l’indépendance et l’humanité de la justice. Une déontologie harmonisée est essentielle mais ne sera clairement pas suffisante face à l’attrait de l’intelligence artificielle.  

Publié dans Données numériques : Actualités, Notes d'actualité | Tag(s) : avocat, CCC, Déontologie, guide de bonnes pratiques, hallucinations, IA, justice, magistrats

Rechercher une publication

Catégories

Travaux récents

  • De la hype à la controverse : la Karmine Corp au cœur d’un séisme médiatique

    27 novembre 2025 / Sofiane Kobbane
  • La validation du Data Privacy Framework : entre équivalence substantielle et incertitudes du contrôle américain – TUE, 3 SEPTEMBRE 2025, n° 2023/1795, Philippe Latombe c./ Commission européenne

    27 novembre 2025 / Raniya Said Mansoib
  • Plateformes numériques et abus de position dominante : l’exemple de Doctolib

    27 novembre 2025 / Zélie Vindimian
  • La déontologie : un levier de sécurisation efficace pour la justice face aux risques engendrés par l’IA ? 

    27 novembre 2025 / Fanny Parazines
  • LA LFP n’entend pas “rester sur la touche” pour la défense des droits d’exploitation télévisuelle – Tribunal judiciaire Paris, 3ème Chambre, 1ère section, 15 mai 2025, N°24/15054

    27 novembre 2025 / Chainace Bachir

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.