Irlande : la plateforme Meta a-t-elle agi assez vite pour retirer un deepfake diffusé lors d’une campagne présidentielle ?

par Louise LE MAUR GALLIC, étudiante du Master 2 Droit des communications électroniques

Une vidéo deepfake annonçant la démission d’une candidate à la présidentielle irlandaise a circulé près de douze heures sur Facebook avant d’être retirée. Un délai qui interroge la responsabilité de Meta au regard du Digital Services Act et, plus largement, la capacité du droit européen à encadrer ces manipulations politiques.

Un deepfake électoral : une menace devenue récurrente en Europe

Depuis 2023, l’Europe est touchée par cette nouvelle ère de désinformation. Des contenus truqués ont circulé à la veille des scrutins, imitant voix et images de candidats. En Slovaquie, la voix du candidat progressiste Michal Šimečka avait été reproduite par un deepfake audio avant les élections législatives. En Roumanie, une vidéo manipulée du Premier ministre Marcel Ciolacu a circulé massivement au printemps 2024.

Même la France a connu ses propres mirages numériques. Des profils fictifs tels que  « Amandine Le Pen » ou « Léna Maréchal », ont inondé TikTok et X de vidéos pro-RN, semant le doute parmi les internautes. Ces illusions numériques se propagent à une vitesse vertigineuse, les progrès accomplis en la matière rendant difficile l’identification de ces contenus. Sans marquage, sans avertissement, ces vidéos troublent le débat public et mettent en péril la transparence du processus électoral.

La prolifération des deepfakes électoraux représente, par conséquent, un défi majeur pour la démocratie. Ils perturbent non seulement le déroulement des campagnes électorales, mais fragilisent aussi la confiance des citoyens dans l’information. Le danger de ces contenus tient à leur réalisme croissant, qui rend leur détection difficile. Les tentatives de régulation existent, mais elles peinent à suivre le rythme effréné des technologies. Il devient donc essentiel de renforcer l’éducation aux médias et d’équiper les électeurs d’outils pour analyser de manière critique les informations qu’ils consomment.

Un cadre juridique européen encore mis à l’épreuve

L’Irlande a tenté de répondre avec sa Online Safety and Media Regulation Act de 2023 en confiant à la Coimisiún na Meán (Commission des médias) le soin de surveiller les plateformes et de faire retirer les contenus trompeurs. Cette loi intègre également les dispositions du Digital Service Act (DSA) européen, entré en vigueur en 2024, qui impose aux « très grandes plateformes en ligne », comme Meta, des obligations spécifiques pour prévenir la diffusion de contenus trompeurs générés par IA. 

L’article 35 du DSA exige notamment la mise en place de mesures d’atténuation des risques systémiques, parmi lesquels figurent les manipulations d’informations susceptibles d’altérer des processus électoraux. Ces mesures comprennent la détection et le marquage clairs des contenus générés par intelligence artificielle, ainsi que la mise en place de procédures rapides et efficaces pour retirer les contenus signalés.

Mais aucune durée précise n’est fixée. En laissant circuler le deepfake pendant douze heures, Meta pourrait avoir contrevenu à l’esprit de ces dispositions, sans violer formellement la lettre du texte. La Commission européenne, consciente de ces limites, a publié, fin mars 2024, des lignes directrices sur les risques électoraux en ligne. Ces recommandations précisent que les plateformes doivent maintenir le marquage « généré par IA » tout au long du cycle de diffusion, y compris lors des partages par d’autres utilisateurs, un point clé déjà mis en lumière par le cas français d’« Amandine Le Pen ».

En somme, l’efficacité réelle de ces mesures dépend d’abord de la capacité des plateformes à détecter rapidement les contenus problématiques.  Le cas présent montre que respecter les obligations ne suffit pas toujours à protéger le processus électoral.  De plus, les recommandations de la Commission européenne, bien que prescriptives, restent limitées face à la vitesse et à la complexité des deepfakes. Révélant ainsi une régulation principalement réactive mais qui peine à prévenir les manipulations avant leur diffusion massive.

Deepfakes : quand la loi française tente de rattraper la réalité 

La France, de son côté, tente elle aussi de s’adapter à ces manipulations. L’article 9 du Code civil dispose que « Chacun a droit au respect de sa vie privée. ». Ce principe protège l’image et la voix de toute personne identifiable. En théorie, cela permet à une victime d’exiger le retrait d’un contenu qui la montre sans son autorisation. Mais ce droit faiblit dès lors qu’il touche à des personnalités publiques, leur image considérée comme d’intérêt général. 

Quand au Code pénal, il sanctionnait déjà l’usage non autorisé de l’image ou de la voix d’une personne. Son article 226-8 prévoiyait jusqu’à un an d’emprisonnement et 15 000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». Problème : ce texte ne ciblait qu’un type de montage très précis, hérité d’une époque où la notion de montage concernait surtout des images ou paroles préexistantes. Or, les deepfakes ne se contentent pas de modifier une vidéo existante, ils en génèrent une nouvelle. Autrement dit, il n’était pas sûr que l’article 226-8 du Code pénal puisse appréhender toutes les variantes de deepfakes.

La loi SREN a ainsi amendé cet article et ajouté l’article 226-8-1, pour inclure explicitement les contenus générés par intelligence artificielle. Mais il ne protège que les personnes identifiables. Que faire alors quand le deepfake vise une image publique, une voix recréée ou un personnage fictif, sans intention claire de nuire ? Le flou persiste. Comme en Irlande, le droit peine encore à suivre la vitesse du faux. 

Pour résumer, les lois nationales protègent les personnes identifiables, mais laissent un vide juridique pour les deepfakes de voix synthétiques ou de personnages fictifs, perturbant le débat public. Ce constat souligne que le droit, même renforcé par le Digital Services Act, reste limité pour encadrer les contenus trompeurs et protéger la sincérité des scrutins.

Meta a-t-elle agi « sans délai injustifié » ?

Le Digital Services Act impose aux grandes plateformes de retirer « sans délai injustifié » les contenus illicites portés à leur connaissance. Mais qu’est-ce qu’un délai « justifié » quand il s’agit d’une élection nationale ? La rapidité du retrait dépend du contexte, et le règlement sur les services numériques reste volontairement souple. La question reste donc entière : dans une campagne électorale, en combien de temps un deepfake peut-il circuler avant que la vérité ne reprenne ses droits ? 

Selon le DSA, la plateforme doit prouver qu’elle a mis en œuvre des moyens suffisants pour prévenir les risques systémiques. Alors, Meta a-t-elle été lente, négligente, ou simplement dépassée ? En période de campagne, le devoir de diligence est maximal, et douze heures suffisent à semer le doute. La Coimisiún na Meán pourrait alors saisir la Commission européenne, et des sanctions, jusqu’à 6 % du chiffre d’affaires mondial, pourraient frapper Meta.

Ce délai illustre une limite concrète du Digital Services Act : bien qu’il impose un retrait « sans délai injustifié », aucune durée précise n’est définie. La viralité des contenus peut dépasser la capacité des plateformes à agir efficacement, laissant un espace où la désinformation peut influencer le débat public. Cette situation montre que le respect formel de la loi ne garantit pas une protection réelle de la démocratie en période électorale, et que même des plateformes majeures peuvent être dépassées par la rapidité de diffusion des deepfakes. 

Au bout du compte, Catherine Connolly a repris sa campagne dénonçant le deepfake comme « une tentative honteuse de tromper les électeurs et de saper la démocratie ». Ses mots sonnent comme un avertissement. Parce que la prochaine fois, la victime d’un deepfake ne prendra peut-être pas la parole à temps. Et la frontière entre le vrai et le faux, déjà fragile, pourrait bien se dissoudre complètement. Entre régulation encore imparfaite et réaction tardive des plateformes, l’Europe semble courir après ses propres ombres numériques. 

Et le prochain scrutin sera l’occasion de vérifier si le droit et la technologie peuvent rattraper le mensonge avant qu’il ne s’installe.

Sources :

  • The Irish Times, « Meta removes AI video purporting to show Catherine Connolly quitting presidential race », 22 octobre 2025.
  • The Journal.ie, « FactCheck: No, Catherine Connolly did not announce her withdrawal », 22 octobre 2025.
  • Paris Match, Irlande : une vidéo deepfake annonce le retrait d’une candidate à la présidentielle et perturbe la campagne
  • Online Safety and Media Regulation Act 2022 
  • Coimisiún na Meán -Legislation explained
  • Règlement (UE) 2022/2065, dit Digital Services Act, articles 16 et 35.
  • Recommandations de la Commission européenne, « Guidelines on mitigating systemic risks affecting electoral processes », mars 2025.
  • Code pénal, articles 226-8 et projet d’article 226-8-1 (loi SREN). 
  • Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy 
  • Le Monde – Européennes : quand l’intelligence artificielle se mêle à la campagne