Navigation : IREDIC / 2025 / novembre / 28 / Consentement et deepfakes : jusqu’où peut aller l’usage de l’image de Tibo Inshape par l’intelligence artificielle Sora 2 ? 

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2025 / novembre / 28 / Consentement et deepfakes : jusqu’où peut aller l’usage de l’image de Tibo Inshape par l’intelligence artificielle Sora 2 ? 

Consentement et deepfakes : jusqu’où peut aller l’usage de l’image de Tibo Inshape par l’intelligence artificielle Sora 2 ? 

Publié par Maeva Ibarra le 28 novembre 2025 dans Données numériques : Actualités, Internet / Numérique : Actualités | Consulté 7 Fois

par Maëva IBARRA, étudiante du Master 2 Droit des communications électroniques

Fin octobre, l’influenceur Tibo Inshape, connu pour ses vidéos tournées autour du sport, a consenti à donner son image à Sora 2, une intelligence artificielle développée par OpenAI permettant de générer des vidéos très réalistes. Depuis, la toile a été envahie de vidéos mettant l’influenceur en scène dans de multiples situations, dont plusieurs dénigrantes envers des communautés précises. Se pose alors la question de l’étendue que peut prendre l’exploitation de l’image d’une personne ayant consenti à son utilisation. 

Passage de l’opt-out à un régime d’autorisation préalable 

La plateforme Sora 2 suscite de nombreuses polémiques depuis son apparition. Cette application permet de créer des vidéos synthétiques en utilisant l’image et la voix de personnes réelles et de les diffuser sur les réseaux sociaux. Au départ, Sora 2 était basée sur un système « d’opt-out » c’est-à-dire un système dans lequel l’image des personnes pouvait être utilisée si ces dernières n’en avaient pas refusé l’utilisation. Mais après plusieurs dérives, ce système d’opt-out a été remplacé par un régime d’autorisation préalable. 

C’est dans ce contexte que le Youtubeur Tibo Inshape a consenti à l’utilisation de son image pour permettre aux utilisateurs de Sora 2 de générer des vidéos à son effigie. Mais depuis lors, des centaines de vidéos circulent sur les réseaux sociaux, certaines le mettant en scène dans des situations humoristiques, d’autres diffusant des propos plus problématiques comme des discours racistes ou misogynes.

Le droit à l’image, un consentement strictement limité 

En droit français, l’image d’une personne ne peut être exploitée sans son accord, comme le dispose l’article 9 du Code civil. La jurisprudence rappelle par ailleurs que ce consentement doit répondre à plusieurs exigences cumulatives : il doit être spécifique, limité dans le temps et dans l’objet, donné en connaissance de cause et révocable. Cela signifie que si une personne publique consent à donner son image à une intelligence artificielle, cela ne vaut pas renonciation générale. 

La diffusion de deepfakes plaçant une personne dans une situation dégradante, mensongère ou portant atteinte à sa réputation peut constituer une atteinte à la vie privée ou à l’image. La victime peut alors obtenir la suppression des contenus et une indemnisation du préjudice subi. De plus, si les vidéos générées véhiculent des propos diffamatoires, des injures ou des contenus incitant à la haine, la loi du 29 juillet 1881 s’applique (article 29 et article 24). Le consentement initial donné par une personne ne neutralise donc en rien la responsabilité civile ou pénale de ceux qui produisent ou diffusent des vidéos illicites. 

À ce stade, Tibo Inshape s’est déjà exprimé et estime que l’utilisation de son image dans des contextes variés est « drôle » et qualifie ces mises en scène racistes et misogynes d’ « humour noir ». Cette position n’a toutefois rien de définitif, son consentement demeurant révocable à tout moment. Reste alors une question centrale : quelle responsabilité pour les plateformes qui laissent prospérer ces contenus sans les modérer ?

La responsabilité des plateformes 

La diffusion massive des deepfakes de Tibo Inshape n’engage pas seulement la responsabilité de leurs auteurs. Depuis l’entrée en vigueur du Digital Services Act (DSA), les plateformes peuvent aussi être tenues pour responsables. En effet, les réseaux sociaux sont soumis à des obligations de régulation des contenus illicites ou trompeurs. Ils doivent mettre à disposition des outils de signalement (article 16) et retirer promptement les contenus illicites (article 17). De plus, les très grandes plateformes comme X ou TikTok sont soumises à une obligation d’identifier les risques systémiques et mettre en place des mesures pour les réduire directement sans même attendre le signalement d’utilisateurs (article 34 et 35). 

Enfin, le règlement européen sur l’intelligence artificielle introduit une obligation de marquage des contenus générés par intelligence artificielle (article 50). Ainsi, les plateformes doivent indiquer explicitement lorsqu’une image, une voix ou une vidéo est générée artificiellement. Mais cette obligation reste limitée dans sa portée puisque de nombreux utilisateurs la contournent en recadrant les images ou en effaçant le marquage au montage. 

Pour l’heure, aucune action des plateformes n’a été constatée pour limiter la circulation de ces contenus. 

Maëva IBARRA
Master II droit des communications électroniques
Faculté de droit et de science politique
Aix-Marseille université, IREDIC 

Publié dans Données numériques : Actualités, Internet / Numérique : Actualités | Tag(s) : droit à l'image, intelligence artficielle, responsabilité, sora 2, vidéos

Rechercher une publication

Catégories

Travaux récents

  • Consentement et deepfakes : jusqu’où peut aller l’usage de l’image de Tibo Inshape par l’intelligence artificielle Sora 2 ? 

    28 novembre 2025 / Maeva Ibarra
  • L’UNESCO face aux neurotechnologies

    28 novembre 2025 / Alicia.Seuanes-Pereira
  • Le Studio Ghibli à l’épreuve de l’IA : enjeux juridiques d’une création assistée

    27 novembre 2025 / Marie Tinard
  • De la hype à la controverse : la Karmine Corp au cœur d’un séisme médiatique

    27 novembre 2025 / Sofiane Kobbane
  • La validation du Data Privacy Framework : entre équivalence substantielle et incertitudes du contrôle américain – TUE, 3 SEPTEMBRE 2025, n° 2023/1795, Philippe Latombe c./ Commission européenne

    27 novembre 2025 / Raniya Said Mansoib

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.