Navigation : IREDIC / 2025 / octobre / 27 / Sora 2 : quels enjeux pour les réseaux sociaux ?

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2025 / octobre / 27 / Sora 2 : quels enjeux pour les réseaux sociaux ?

Sora 2 : quels enjeux pour les réseaux sociaux ?

Publié par Manon Villanova le 27 octobre 2025 dans Droit d'auteur: Actualités, Internet / Numérique : Actualités | Consulté 21 Fois

par Manon VILLANOVA, étudiante du Master 2 Droit des communications électroniques

La startup américaine OpenAI fondée par Sam Altman en 2015, a présenté récemment sur son site web sa nouvelle application “Sora 2” destinée à remplacer sa première version, sortie en février 2024. Cette application s’inscrit dans la continuité de Tiktok en proposant à ses utilisateurs de publier des vidéos courtes. Mais qu’est-ce qui se cache réellement derrière Sora 2 ?

L’utilisation d’un générateur de vidéos par IA

OpenAI s’est fait connaitre du grand public grâce à son intelligence artificielle “Chatgpt” capable de générer du texte à l’aide de prompts plus ou moins précis et, plus récemment, des images. Or, il est nécessaire de prendre en compte le fait que pour générer de telles images, l’IA s’entraine sur des œuvres qui existent déjà et s’en inspire afin de générer l’image demandée par l’utilisateur.

L’application Sora sortie en février 2024 s’était déjà illustrée par le fait que l’utilisateur pouvait générer une vidéo montrant des gestes simples ou des objets. Or, comme l’a évoqué OpenAI, les développeurs ont depuis lors cherché à perfectionner la génération de vidéos pour qu’elles soient plus proches de notre environnement réel en entrainant l’IA sur des vidéos préexistantes.

Sora 2 représente une nouvelle façon de percevoir les réseaux sociaux et les contenus qui y sont publiés quotidiennement. En effet, bien qu’il existe déjà une quantité de plus en plus importante de vidéos générées par IA notamment sur Tiktok, le fait de consacrer le fonctionnement entier d’une application à la diffusion de tels contenus peut aboutir à une tentation de ne publier que du contenu artificiel et non plus créé par notre propre esprit.

L’utilisation de l’IA et la propriété intellectuelle

En France, les œuvres de l’esprit sont protégées comme le dispose le Livre 1er du Code de propriété intellectuelle (CPI). Cette protection légale s’applique dès lors que l’auteur de l’œuvre a initié une réflexion intellectuelle, peu importe que l’œuvre ait été achevée ou non. De cette manière, les œuvres de l’esprit considérées comme telles ne peuvent être utilisées sans autorisation que dans des situations prévues par la loi, ce que l’on nomme les exceptions, prévues en grande partie par l’article 122-5 du CPI : exception pédagogique, courte citation ou encore copie privée. En dehors de ces exceptions, toute utilisation d’une œuvre de l’esprit qui n’a pas été autorisée par l’auteur est qualifiée de contrefaçon au sens de la loi.

Bien que le droit d’auteur soit facilement reconnu aux États-Unis, et ce sans forcément passer par un dépôt auprès du Copyright Office, il semble que l’utilisation d’œuvres protégées par Sora 2 soit encore problématique. En effet, bien que l’application ne soit accessible qu’à un nombre restreint d’utilisateurs, plusieurs vidéos circulent déjà sur les réseaux sociaux. Ces dernières montrent notamment des personnages bien connus du grand public en train de réaliser des actions parfois immorales. Par exemple, il est possible de tomber sur une vidéo d’un Pikachu en train d’être cuit au barbecue ou encore Bob l’éponge en train de fabriquer de la méthamphétamine.

Mais comment se fait-il que de telles vidéos puissent être générées ? Tout simplement car le fonctionnement de Sora 2, en ce qui concerne l’utilisation d’œuvres protégées, est basé sur la notification du refus d’utilisation des œuvres de la part des titulaires de droits. Autrement dit, il s’agit d’un système d’opt-out. Ainsi, si Nintendo souhaite que ses personnages (Mario, Pikachu, etc.) ne soient pas utilisés dans les vidéos générées par cette intelligence artificielle, l’entreprise doit signaler sa volonté à OpenAI pour que cela soit effectif.

Cependant, suite aux nombreux scandales découlant de l’utilisation immorale de tels personnages, en plus des problèmes liées aux droits de propriété intellectuelle, il semble que OpenAI fasse machine arrière et renforce la protection des œuvres vis-à-vis d’une utilisation par l’intelligence artificielle. Dorénavant, il faut que l’entreprise donne son accord et à défaut, Sora 2 ne pourra générer de vidéos comprenant telle ou telle œuvre et affichera un message indiquant que cela pourrait contrevenir à leur politique d’utilisation.

Enfin, il faut rappeler que la Commission européenne a établi un code de bonnes pratiques en juin 2025 portant notamment sur l’utilisation de l’IA, code signé par OpenAI. Il est demandé aux fournisseurs d’intelligence artificielle de fournir un résumé suffisamment détaillé du contenu utilisé pour l’entrainement des systèmes. Est-ce que ces recommandations seront étendues aux contenus générés ? OpenAI devrait néanmoins s’y soumettre dans la mesure où certains contenus protégés d’auteurs européens peuvent être utilisés pour l’entrainement de cette IA.

L’utilisation banalisée des deepfakes

Sora 2 se distingue de sa version précédente pour une autre raison, peut-être plus inquiétante : l’utilisation encouragée des deepfakes, appelés par OpenAI des “caméos”.

Cette pratique consiste à utiliser son propre visage ou celui de quelqu’un d’autre et de l’apposer sur un autre corps. Ces vidéos sont alors utilisées pour faire circuler des fake news, comme ça a été le cas avec une vidéo montrant Volodymyr Zelensky annonçant la reddition de l’Ukraine. Cette technologie peut aussi être utilisée pour créer du contenu dégradant pour la personne, du contenu à caractère pornographique ou encore véhiculer des fausses informations. De ce fait, bien que la pratique semble au premier abord être anodine voire même drôle, l’usage de ce type de vidéos n’est pas sans danger et peut créer un effet boule de neige selon les propos tenus.

Or même le leader de OpenAI, Sam Altman, s’est prêté au jeu et a ainsi permis l’utilisation de son visage dans les vidéos générées par son intelligence artificielle. Néanmoins, cela s’est vite retourné contre lui quand des utilisateurs ont généré des vidéos de lui en train de voler par exemple. Alors bien que cet exemple puisse faire sourire, l’utilisation des deepfakes reste cependant une problématique récurrente vis-à-vis des intelligences artificielles et est au cœur de l’utilisation même de Sora 2 qui encourage les utilisateurs à partager ainsi leur visage.

Il est à noter qu’OpenAI semble prendre conscience des problématiques que cela peut engendrer et a ainsi annoncé sur le compte X d’une des têtes pensantes de Sora (Bill Peebles) des changements à venir concernant l’utilisation des visages entrés dans l’application.

Quels sont les enjeux liés au fait de pousser les utilisateurs à faire des “caméos” ? Tout d’abord, avant d’être une pratique problématique, il est question de droit à l’image et du droit des personnes de décider de comment sera communiquée, publiée ou utilisée leur image. Or, si Sora 2 utilise les visages comme une banque d’images et que ces derniers peuvent être réutilisés par d’autres utilisateurs, où est le contrôle de sa propre image ? Quid du respect du consentement de la personne ? Ensuite, comme cela a déjà été évoqué ci-dessus, l’image d’une personne peut être détournée de différentes façons et peut faire jouer cette image dans un contexte qui est totalement étranger à la personne. Il est donc aussi question du respect de la dignité de la personne.

Les deepfakes apparaissent régulièrement sur les réseaux sociaux et sont parfois difficiles à détecter si l’on ne fait pas attention à des détails parfois minimes. La démocratisation d’une telle technologie interroge sur la place de l’information vérifiée sur ces plateformes et les moyens d’écarter le vrai du faux quand on fait face à un deepfake d’une qualité impressionnante. En Europe, le Règlement du 13 juin 2024 relatif à l’intelligence artificielle prévoit notamment dans son article 50 que les contenus générés par IA doivent être marqués et identifiés comme tel. Or, Sora 2 n’étant pas encore accessible en France, OpenAI doit-elle se soumettre à cette obligation dès à présent ou seulement lorsque le lancement mondial sera achevé ?

De cette manière, l’utilisation du deepfake par Sora 2 soulève de nombreuses problématiques et il sera intéressant de suivre l’évolution de la pratique au fil de son accessibilité mondiale. Est-ce qu’OpenAI va limiter certains mots dans l’écriture des prompts ? Est-ce que les conditions générales d’utilisation vont être modifiées pour s’adapter à ces problématiques ?

Sora 2 : le futur des réseaux sociaux ?

Il faut rappeler que Sora 2 est avant tout un réseau social. Il est question de poster du contenu sur une plateforme afin de le partager à un public plus ou moins restreint, peut-être assorti d’un système de “like” et d’un espace commentaire. La particularité de Sora 2 est de permettre aux utilisateurs de publier du contenu vidéo généré par l’intelligence artificielle. De ce fait, cela peut soulever plusieurs problématiques. Tout d’abord, quelle sera la place du contenu authentique si ce type d’application venait à se généraliser ? Est-ce que les œuvres protégées le seront toujours efficacement face autant de risque potentiel ? Est-ce notre image ne sera définitivement plus qu’un produit commercial destiné à distraire le plus grand nombre ?

Le développement de Sora 2 est un bon exemple pour ce qui est de la démonstration du développement rapide de l’intelligence artificielle et des progrès qu’elle a fait durant ces dernières années. Le succès que rencontre déjà cette application, alors qu’elle n’est disponible pour le moment qu’aux États-Unis et au Canada, montre bien à quel point l’intelligence artificielle attire à l’international, surtout quand on promet des contenus fictifs s’approchant dangereusement du réel. De plus, l’application serait accessible en Europe via l’utilisation d’un VPN, ce qui interroge sur les obligations exigées par l’Union Européenne qui peuvent ou non s’appliquer à OpenAI en tant que société américaine évoquées précédemment.

Les réseaux sociaux évolueront nécessairement avec le temps et s’adapteront à ce qui attirera l’attention du plus grand nombre. Ainsi, il est important de surveiller l’évolution future de Sora 2 et comment OpenAI va gérer les nombreuses problématiques qui y sont liées.

Publié dans Droit d'auteur: Actualités, Internet / Numérique : Actualités | Tag(s) : Chatgpt, contrefaçon, Deepfake, droit d'auteur, intelligence artficielle, réseaux sociaux

Rechercher une publication

Catégories

Travaux récents

  • Est-ce que les comédiens de doublage vont se faire remplacer par l’intelligence artificielle, comme l’a déclaré Christian Clavier ? 

    27 octobre 2025 / Fanny Parazines
  • L’usage des lunettes IA : l’avenir du smartphone, comme l’affirme Mark Zuckerberg, ou une menace pour notre vie privée ?

    27 octobre 2025 / Laure Montigneaux
  • Sora 2 : quels enjeux pour les réseaux sociaux ?

    27 octobre 2025 / Manon Villanova
  • Les contenus humiliants en ligne : entre liberté d’expression et protection de la dignité humaine

    24 octobre 2025 / Jean Jardine
  • Data Protection Law in EU, USA, UAE and ASEAN – A Comparative Perspective

    24 octobre 2025 / Philippe Mouron

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.