Navigation : IREDIC / 2025 / novembre / 10 / Quand l’IA décroche un poste chez Deloitte 

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2025 / novembre / 10 / Quand l’IA décroche un poste chez Deloitte 

Quand l’IA décroche un poste chez Deloitte 

Publié par Chainace Bachir le 10 novembre 2025 dans Internet / Numérique : Actualités, Notes d'actualité | Consulté 90 Fois

par Chainace BACHIR, étudiante du Master 2 Droit des communications électroniques

Non, la machine n’a pas remplacé les consultants. Mais son intervention soulève une question de loyauté et de transparence dans l’usage professionnel de l’intelligence artificielle. 

Le scandale trouve son origine dans un rapport commandé par le gouvernement australien sur les problèmes liés au système d’aide sociale local, d’une valeur de 400 000 dollars australien (environ 290 000 euros), au célèbre Cabinet Deloitte. 

Selon plusieurs sources, une large partie du document aurait été produite via un modèle d’intelligence artificielle générative, Azure Open AI, sans que cette utilisation n’ait été explicitement mentionnée au client.

Ce détail aurait pu passer inaperçu si le rapport ne contenait par plusieurs formulations incohérentes révélant la signature typique des textes produits par une IA. 

C’est un détail qui a mis la puce à l’oreille du Professeur Chris Rudge de l’Université de Sydney. En cherchant à vérifier les sources du rapport, il tombe sur une référence… qui n’existe tout simplement pas. « Je ne comprends pas comment un humain pourrait inventer des titres d’ouvrages qui n’existent pas, qu’on ne trouve même pas sur Google. Comment ferait-il cela ? » raconte-t-il. Pour lui, mieux vaut encore que ce soit une erreur d’IA car « imaginer qu’une personne puisse faire cela est presque pire ». 

Le timing est presque surréaliste. Lundi 6 octobre 2025, Deloitte annonce un partenariat majeur avec la société américaine Anthropic pour déployer leur intelligence artificielle « Claude » à l’échelle mondiale, et le lendemain, la presse révèle que le cabinet doit rembourser une partie du contrat australien à cause des erreurs générées par cette même technologie. Une coïncidence qui illustre parfaitement la tension entre l’adoption ambitieuse de l’IA et le respect des obligations de diligence et de transparence. 

L’enthousiasme technologique face au devoir de loyauté 

Deloitte n’est pas un acteur mineur du conseil. Membre du « Big Four », il fait partie des cabinets les plus puissants au monde, symboles d’expertise et de fiabilité. 
Que l’un d’eux se retrouve accusé d’avoir livré à un gouvernement un rapport rédigé par une intelligence artificielle, sans supervision ni information explicite au client, a donc de quoi interroger. 

L’affaire prête à sourire, mais elle révèle surtout une faille juridique et déontologique majeure. Dans le monde du conseil, l’expertise humaine reste au cœur du contrat. Le client paie pour un savoir, une méthode et une rigueur intellectuelle. 

Or, déléguer la rédaction d’un rapport à une IA sans supervision ni information explicite du client pourrait constituer une violation du devoir de loyauté et d’information. 
Dans ce cas, l’omission n’est pas anodine. Elle porte atteinte à la confiance contractuelle, fondement essentiel de la relation entre un cabinet de conseil et son client. 

Si le rapport contient des erreurs, la responsabilité de Deloitte, et non celle de la machine, peut être engagée sur le terrain contractuel voire déontologique. 

Le miroir européen : l’IA Act comme cadre de responsabilité 

Si l’affaire s’est déroulée en Australie, elle trouve un écho direct en Europe avec l’adoption du Règlement européen sur l’intelligence artificielle (IA Act). Ce texte, qui est entré progressivement en vigueur à partir d’août 2024, constitue la première législation globale encadrant l’usage des IA selon leur niveau de risque. 

Le texte, à partir de son chapitre 3, distingue plusieurs catégories.
D’une part, les IA à « haut risque », comme celles utilisées dans les secteurs sensibles (santé, sécurité, justice ou éducation), doivent être supervisées par des humains et faire l’objet d’une transparence totale sur leur mode de fonctionnement.
D’autre part, les systèmes génératifs, comme ChatGPT, doivent indiquer clairement qu’un contenu a été produit par une machine. 

En pratique, si cette situation avait concerné un des cabinets européens de Deloitte, l’entreprise pourrait être sanctionnée pour manque de transparence. Le règlement impose en effet une obligation d’information claire sur l’utilisation d’un outil génératif dans le production d’un contenu remis à un tiers. 

L’objectif est double : garantir la fiabilité des résultats et préserver la responsabilité humaine. Autrement dit, l’IA peut assister, mais c’est toujours l’humain qui demeure juridiquement responsable. 

De la performance à la prudence : l’IA n’est pas un collaborateur 

L’épisode Deloitte met en lumière une illusion fréquente qui est de croire que la technologie peut remplacer l’expertise. Une IA peut produire un texte cohérent, mais elle ne comprend pas le contexte, n’évalue pas la pertinence juridique d’une donnée et peut générer des erreurs massives sans en avoir conscience. 

En Europe, l’IA Act insiste sur « une évaluation humaine effective », c’est-à-dire la nécessité d’un contrôle éclairé par une personne physique capable d’intervenir, corriger et valider. 
Cette exigence juridique vise à éviter la dilution de la responsabilité. On ne peut pas attribuer la faute à un outil. 

Ainsi, même si Deloitte présentait l’usage de l’IA comme « un gain de productivité », la vigilance juridique impose de rappeler que l’efficacité ne saurait primer sur la fiabilité. 

Quand la confiance se délite  

Les conséquences dépassent la seule question contractuelle. L’affaire a aussi porté atteinte à la crédibilité du cabinet qui fonde pourtant sa réputation sur l’excellence et la rigueur de ses analyses. Utiliser l’IA sans contrôle ou transparence, c’est risquer de transformer un symbole de modernité en instrument de défiance. 

À l’heure où les institutions publiques cherchent à encadrer les usages de l’intelligence artificielle, le cas de Deloitte devient emblématique. Il montre que la transformation numérique ne peut pas se faire sans cadre éthique et juridique solide. 

Le droit, dernier garde-fou de la confiance numérique 

L’affaire Deloitte n’est pas seulement un épisode embarrassant, elle illustre un tournant pour toute les professions intellectuelles. 

L’intégration de l’IA dans les pratiques professionnelles exige une réflexion éthique et juridique profonde : jusqu’où peut-on déléguer la décision à une machine ? 

Le futur IA Act ne vient pas freiner l’innovation, mais réaffirmer un principe fondamental : la technologie doit servir la compétence humaine et non la remplacer. 

Autrement dit, l’IA peut bien « décrocher un poste chez Deloitte », mais elle ne signera pas les rapports sans supervision.  

Sources :

https://apnews.com/article/australia-ai-errors-deloitte-ab54858680ffc4ae6555b31c8fb987f3
https://theaiinsider.tech/2025/10/07/deloitte-secures-major-ai-partnership-with-anthropic-as-report-scandal-unfolds/
https://www.cnil.fr/fr/entree-en-vigueur-du-reglement-europeen-sur-lia-les-premieres-questions-reponses-de-la-cnil
https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689
https://www.deloitte.com/fr/fr/services/consulting/services/genai-ia-generative.html
https://siecledigital.fr/2025/10/09/deloitte-dans-la-tourmente-apres-avoir-remis-un-rapport-truffe-derreurs-generees-par-une-ia/

Publié dans Internet / Numérique : Actualités, Notes d'actualité | Tag(s) : IA

Rechercher une publication

Catégories

Travaux récents

  • Le luxe déconnecté : Bruxelles rappelle Gucci,Chloé et Loewe à la réalité numérique

    10 novembre 2025 / Heddy Aissaoui
  • Quand l’IA décroche un poste chez Deloitte 

    10 novembre 2025 / Chainace Bachir
  • Le rôle des influenceurs dans la communication numérique militante : l’exemple de Jeremstar et la campagne anti-corrida

    10 novembre 2025 / Kaïna David Aïssaoui
  • Chat control: menace pour les libertés des citoyens européens ou nécessité sécuritaire ?

    31 octobre 2025 / Sie Makenzi Landry Amessa
  • La régulation des chatbots IA en Californie : un tournant juridique aux États-Unis

    31 octobre 2025 / Ines Ferhat

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.