Par Romane GRILLET, étudiante du Master 2 Droit des communications électroniques

Taylor Swift, la chanteuse américaine à succès, fait une nouvelle fois l’objet d’une controverse liée à l’intelligence artificielle. En 2024, la popstar avait déjà été victime de deepfakes à connotation pornographique et de désinformation massivement diffusés sur les réseaux sociaux. Ces évènements l’ont amenée à exprimer ses inquiétudes quant à l’utilisation de l’IA, déclarant : « Cela a vraiment réveillé mes craintes concernant l’IA et les dangers de la diffusion de fausses informations. J’en ai conclu que je devais faire preuve d’une grande transparence quant à mes projets électoraux. La manière la plus simple de combattre la désinformation est de dire la vérité ». Une déclaration qu’elle ne semble pas appliquer à ses projets professionnels.
En effet, depuis le début du mois d’octobre, la chanteuse fait face à une nouvelle controverse dans le cadre de la promotion de son nouvel album « The Life of a Showgirl ». Album le plus streamé en une journée sur Spotify, c’est pourtant sa campagne marketing qui est au cœur du débat : ses fans l’accusent d’avoir eu recours à l’intelligence artificielle.
Sa campagne marketing, innovante, consistait en une chasse au trésor numérique réalisée en collaboration avec Google pour débloquer le clip de sa nouvelle chanson « The Fate of Ophelia ». Ce sont les indices, de courtes vidéos, qui ont agacés les fans, convaincus qu’elles avaient été générées à l’aide de l’IA. Ces soupçons s’expliquent par la présence de lettres manquantes, de formes douteuses ou d’éléments disparaissant en plein milieu d’une vidéo. Pourtant, aucun marquage, ni label n’indique que ces vidéos auraient été réalisées à l’aide d’un système d’intelligence artificielle. Pour l’instant, ni Google ni Taylor Swift ne se sont exprimés sur la véracité des faits.
Ce fait d’actualité ravive ainsi le débat sur l’utilisation de l’IA dans la création artistique, et plus particulièrement la question sur la question de la transparence des contenus générées ou réalisés à l’aide d’un système d’intelligence artificielle lorsque la création artistique est mise au service du marketing.
Un renforcement des règles de transparence et de labellisation pour les contenus générés ou manipulés par l’intelligence artificielle
Tandis que la Chine opte pour une transparence absolue des contenus générés par IA (Interim measures for the management of Generative AI Services) et que les États-Unis connaissent une régulation fragmentée avec, pour l’heure, un seul projet californien visant à encadrer ces contenus dans les communications politiques et publicitaires (California AI Transparency Act), le règlement européen « AI Act » du 13 juin 2024 vient poser un cadre légal pour les contenus générés ou manipulés par l’IA.
L’article 50, paragraphe 2, impose une obligation de transparence renforcée à l’égard des fournisseurs de systèmes d’IA, tandis que le paragraphe 4 du même article étend cette obligation aux déployeurs lorsque le contenu constitue une contrefaçon profonde ou un deepfake. Ces dispositions visent principalement à renforcer la confiance numérique des utilisateurs et à lutter contre la désinformation.
Cette obligation de transparence se matérialise par le marquage et l’étiquetage des contenus IA. Pour l’heure, les mécanismes tels que la métadonnée signée avec la norme C2PA, qui attache des informations de provenance grâce à une signature cryptographique, ou le watermaking invisible, qui encode dans le fichier une signature détectable, constituent les débuts pratiques de la mise en œuvre de cet article 50.
La campagne promotionnelle est certes innovante, mais s’il s’avérait que l’IA a été utilisée, l’absence de labellisation pourrait être considérée comme un manquement à cette obligation de transparence.
IA et exception de création artistique : un mauvais mélange appliqué au marketing ?
Dans l’Union européenne, la suite du paragraphe 4 de l’article 50 de l’IA Act prévoit une exception à la labellisation pour les contenus artistiques, créatifs, satiriques ou fictifs, dès lors que leur nature ne prête pas à confusion. Cette exception fait écho à la liberté de création artistique garantie par l’article 13 de la Charte des droits fondamentaux de l’UE. La chanteuse pourrait tenter de soutenir que les vidéos suspectées visent à plonger son public dans un univers imaginaire propre à son album pour justifier du caractère « manifestement artistique ». Cependant, cet argument semble juridiquement fragile, surtout en raison de la finalité promotionnelle de la campagne.
En effet, même lorsqu’un contenu relève de l’exception de création artistique, il doit encore respecter l’obligation de loyauté de la communication envers le public et les utilisateurs lorsqu’il s’inscrit dans un cadre commercial et marketing. Par conséquent, l’absence de mention de l’origine artificielle peut être perçue comme une omission trompeuse (article L.121-2 du Code de la consommation) ou comme un manque de transparence publicitaire au sens de la directive UE 2005/29 relative aux pratiques commerciales déloyales. Dans les faits, cette absence peut conduire à une confusion quant à l’origine et au mode de fabrication des vidéos promotionnelles, justifiant leur éventuelle prohibition.
Transparence imposée, responsabilité croisée : nouveau dilemme de l’IA
Cette affaire met également en lumière la problématique liée à la répartition des responsabilités dans la chaîne de création, de diffusion et de promotion des contenus générés par ou à l’aide de l’IA en l’absence de labellisation. Dans un contexte comme celui de la campagne marketing de Taylor Swift, la pluralité d’acteurs rend floue l’identification de la personne responsable du marquage. Google, en tant que partenaire technique, pourrait être considéré comme fournisseur ou co-déployeur aux côtés de la chanteuse ou de sa maison de disques, ces derniers ayant décidé de diffuser les contenus en cause.
De plus, l’environnement dans lequel les contenus se déploient et se reproduisent à grande vitesse interroge également la responsabilité des très grandes plateformes au regard de leurs obligations de vigilance renforcée, notamment la prise de mesures d’atténuation des risques systémiques prévue à l’article 35 du DSA, qui pourrait à termes inclure la détection et le signalement des contenus générés par IA non étiquetés.
L’affaire Taylor Swift démontre ainsi que la question de la transparence ne peut être dissociée de celle de la responsabilité : rendre visible l’usage de l’IA ne suffit pas si l’on peine à déterminer qui doit en assumer les conséquences juridiques.
En définitive, le cas Swift montre que le véritable sujet n’est plus la création, mais la transparence. Dans la sphère artistique comme dans le marketing, la loyauté envers le public devient le nouveau terrain d’affrontement entre innovation et droit. En comparaison des différents systèmes juridiques, le droit cherche encore à fixer les règles du jeu et si la transparence s’impose aujourd’hui comme une exigence, elle ne vaudra que si elle s’accompagne d’une responsabilité clairement identifiable.
Sources utilisées :
- https://techcrunch.com/2025/10/06/taylor-swift-fans-accuse-singer-of-using-ai-in-her-google-scavenger-hunt-videos/
- https://artificialintelligenceact.eu/fr/article/50/
- https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32022R2065
- https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000000703029/
- https://www.sorbonne-universite.fr/dossiers/intelligence-artificielle/quand-lart-rencontre-lintelligence-artificielle
- https://www.ddg.fr/actualite/taylor-swift-google-et-lintelligence-artificielle-la-labellisation-des-contenus-au-coeur-des-divergences-internationales
- https://www.imatag.com/fr/blog/la-chine-encadre-les-contenus-generes-par-lia-vers-une-nouvelle-norme-mondiale-de-transparence
- https://www.imatag.com/fr/blog/mise-a-jour-ai-act-nouvelles-exigences-watermarking-contenus-generes-par-ia
- https://www.mayerbrown.com/en/insights/publications/2025/10/new-obligations-under-the-california-ai-transparency-act-and-companion-chatbot-law-add-to-the-compliance-list