par Maëva IBARRA, étudiante du Master 2 Droit des communications électroniques

Fin octobre, l’influenceur Tibo Inshape, connu pour ses vidéos tournées autour du sport, a consenti à donner son image à Sora 2, une intelligence artificielle développée par OpenAI permettant de générer des vidéos très réalistes. Depuis, la toile a été envahie de vidéos mettant l’influenceur en scène dans de multiples situations, dont plusieurs dénigrantes envers des communautés précises. Se pose alors la question de l’étendue que peut prendre l’exploitation de l’image d’une personne ayant consenti à son utilisation.
Passage de l’opt-out à un régime d’autorisation préalable
La plateforme Sora 2 suscite de nombreuses polémiques depuis son apparition. Cette application permet de créer des vidéos synthétiques en utilisant l’image et la voix de personnes réelles et de les diffuser sur les réseaux sociaux. Au départ, Sora 2 était basée sur un système « d’opt-out » c’est-à-dire un système dans lequel l’image des personnes pouvait être utilisée si ces dernières n’en avaient pas refusé l’utilisation. Mais après plusieurs dérives, ce système d’opt-out a été remplacé par un régime d’autorisation préalable.
C’est dans ce contexte que le Youtubeur Tibo Inshape a consenti à l’utilisation de son image pour permettre aux utilisateurs de Sora 2 de générer des vidéos à son effigie. Mais depuis lors, des centaines de vidéos circulent sur les réseaux sociaux, certaines le mettant en scène dans des situations humoristiques, d’autres diffusant des propos plus problématiques comme des discours racistes ou misogynes.
Le droit à l’image, un consentement strictement limité
En droit français, l’image d’une personne ne peut être exploitée sans son accord, comme le dispose l’article 9 du Code civil. La jurisprudence rappelle par ailleurs que ce consentement doit répondre à plusieurs exigences cumulatives : il doit être spécifique, limité dans le temps et dans l’objet, donné en connaissance de cause et révocable. Cela signifie que si une personne publique consent à donner son image à une intelligence artificielle, cela ne vaut pas renonciation générale.
La diffusion de deepfakes plaçant une personne dans une situation dégradante, mensongère ou portant atteinte à sa réputation peut constituer une atteinte à la vie privée ou à l’image. La victime peut alors obtenir la suppression des contenus et une indemnisation du préjudice subi. De plus, si les vidéos générées véhiculent des propos diffamatoires, des injures ou des contenus incitant à la haine, la loi du 29 juillet 1881 s’applique (article 29 et article 24). Le consentement initial donné par une personne ne neutralise donc en rien la responsabilité civile ou pénale de ceux qui produisent ou diffusent des vidéos illicites.
À ce stade, Tibo Inshape s’est déjà exprimé et estime que l’utilisation de son image dans des contextes variés est « drôle » et qualifie ces mises en scène racistes et misogynes d’ « humour noir ». Cette position n’a toutefois rien de définitif, son consentement demeurant révocable à tout moment. Reste alors une question centrale : quelle responsabilité pour les plateformes qui laissent prospérer ces contenus sans les modérer ?
La responsabilité des plateformes
La diffusion massive des deepfakes de Tibo Inshape n’engage pas seulement la responsabilité de leurs auteurs. Depuis l’entrée en vigueur du Digital Services Act (DSA), les plateformes peuvent aussi être tenues pour responsables. En effet, les réseaux sociaux sont soumis à des obligations de régulation des contenus illicites ou trompeurs. Ils doivent mettre à disposition des outils de signalement (article 16) et retirer promptement les contenus illicites (article 17). De plus, les très grandes plateformes comme X ou TikTok sont soumises à une obligation d’identifier les risques systémiques et mettre en place des mesures pour les réduire directement sans même attendre le signalement d’utilisateurs (article 34 et 35).
Enfin, le règlement européen sur l’intelligence artificielle introduit une obligation de marquage des contenus générés par intelligence artificielle (article 50). Ainsi, les plateformes doivent indiquer explicitement lorsqu’une image, une voix ou une vidéo est générée artificiellement. Mais cette obligation reste limitée dans sa portée puisque de nombreux utilisateurs la contournent en recadrant les images ou en effaçant le marquage au montage.
Pour l’heure, aucune action des plateformes n’a été constatée pour limiter la circulation de ces contenus.
Maëva IBARRA
Master II droit des communications électroniques
Faculté de droit et de science politique
Aix-Marseille université, IREDIC