par Mathis LECLERC, étudiant du Master 2 Droit des médias électroniques
Les intelligences artificielles (IA), nées dans les années 1940-1960 dans le cadre de recherches sur la cybernétique, ont connu une évolution majeure au cours du XXIème siècle. À l’origine essentiellement utilisées par des entreprises, elles font l’objet d’une démocratisation sans précédent depuis 2022 avec l’arrivée d’un nouveau modèle d’IA : les intelligences artificielles dites “génératives” (IAG).
Qu’est-ce qu’une intelligence artificielle générative ?
L’appellation “intelligence artificielle générative” désigne les systèmes d’intelligence artificielle capables de générer du contenu, tels que des images, des textes ou d’autres médias en fonction de nos demandes.
De nombreux modèles de ce genre ont récemment vu le jour et sont venus bouleverser de nombreux domaines dans la création.
Parmi les plus connues, on peut notamment citer ChatGPT, développée par la société OpenAI, qui permet de générer du texte sur le sujet de son choix. D’autres, comme Midjourney ou DALL-E, permettent la création d’images en fonction de nos idées.
Désormais, n’importe qui peut donc à partir de l’écriture de quelques mots retranscrivant une idée, ou à partir d’une photographie déjà existante générer du contenu en masse.
Si l’apparition et la démocratisation de cette nouvelle technologie semble avoir dans l’ensemble des conséquences plus que positives dans le domaine de la création, son modèle technique et son utilisation entraîne des problématiques d’ordre juridique liées aux droits d’auteur, au traitement des données ou encore à la désinformation.
Un autre problème bien moins médiatisé, mais tout aussi grave est né : celui du détournement des IAG par les pédocriminels afin de générer du contenu à caractère pédopornographique.
Le détournement des IAG à des fins de création de contenus pédopornographiques : une étude de l’Internet Watch Foundation (IWF) alarmante
Désormais facile d’accès, il n’était qu’une question de temps avant que cette technologie ne tombe entre les mains de malfaiteurs : c’est notamment le cas des pédocriminels qui vont façonner leurs propres IA à partir de modèles dits “open source” afin de générer du contenu à caractère pédopornographique.
Une récente étude de l’Internet Watch Foundation (IWF), parue le 25 octobre 2023, démontre la réalité de cette dérive : en explorant un forum du dark web (aussi appelé web caché), les enquêteurs ont pu trouver des milliers d’images générées par IA représentant des enfants se faisant abuser sexuellement, violer ou torturer.
Pour en arriver à de tels résultats, l’IWF explique que ces IA ont été entraînées à partir de vraies images d’enfants, dont certaines montrant des scènes de viols.
Si l’on pourrait croire que ces images générées par des IA, bien qu’entraînées à partir de vraies photographies ne représentent pas des personnes existantes, la réalité est tout autre. Les pédocriminels réalisent également des « deepfakes ».
Selon Wikipedia, ce terme désigne “une technique de synthèse multimédia reposant sur l’intelligence artificielle, servant à superposer des fichiers vidéo, photo ou audio existants sur d’autres fichiers (par exemple changer le visage d’une personne sur une vidéo) ou audio (par exemple reproduire la voix d’une personne pour lui faire dire des choses inventées).”
À l’aide de cette technique, les pédocriminels peuvent à partir de la simple photographie d’un mineur, générer un contenu à caractère pédopornographique incluant leur visage ou leur corps.
Le détournement de la technologie des intelligences artificielles est donc une réalité. Susie Hargreaves, présidente et directrice générale de l’IWF appelle à une collaboration internationale afin de faire face à cette problématique.
Une problématique déjà appréhendée par le droit pénal
Il est depuis longtemps établi dans la plupart des pays du monde que la diffusion d’images à caractère pédopornographique est complètement illégale. C’est notamment le cas en France, où cette activité est est pénalement répréhensible, comme en dispose le Code Pénal :
“Le fait, en vue de sa diffusion, de fixer, d’enregistrer ou de transmettre l’image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique est puni de cinq ans d’emprisonnement et de 75 000 euros d’amende […] Les peines sont portées à sept ans d’emprisonnement et à 100 000 euros d’amende lorsqu’il a été utilisé, pour la diffusion de l’image ou de la représentation du mineur à destination d’un public non déterminé, un réseau de communications électroniques.“
Article 227-23 du Code Pénal
De plus, comme le précise la chambre criminelle de la Cour de cassation dans un arrêt du 17 septembre 2007, cet article du Code Pénal s’applique également « aux images non-réelles représentant un mineur imaginaire, telles que des dessins ou des images résultant de la transformation d’une image réelle ». Une décision permettant aux dispositions pénales de s’appliquer aux images générées par IA.
Cependant, même si un cadre juridique existe permettant de sanctionner de telles activités, aucune solution technique ne semble envisageable afin d’arrêter la génération et la diffusion de ces contenus.
Pouvons-nous réellement arrêter la génération et la diffusion de ces contenus ?
De nos jours, les intelligences artificielles sont faciles d’accès. Il est désormais possible pour tout individu de créer son propre modèle, notamment grâce aux travaux dits “open-source“. De nombreux particuliers ont aujourd’hui la possibilité de l’entraîner dans le domaine qu’il souhaite : par exemple, certains s’amusent à créer des IA capables de battre les humains sur les jeux vidéo.
Même dans l’hypothèse où une “collaboration internationale” se met en place et établit une réglementation et un régime d’autorisation à l’utilisation des intelligences artificielles, l’outil est déjà bien trop accessible et répandu. Des solutions, même drastiques et susceptibles de porter atteinte à des droits fondamentaux, comme la mise en place d’un système de surveillance ou de traçabilité, ne pourraient être totalement efficaces face à cette technologie dès lors que son utilisation ne nécessite même pas de connexion Internet.
Au-delà de cette facilité d’accès, l’évolution des intelligences artificielles permet aujourd’hui de générer du contenu en quelques secondes. Dès lors, rien ne peut réellement empêcher un pédocriminel de générer une infinité d’images ou vidéos à caractère pédopornographique à lui seul. Une telle capacité de production, mêlée aux nombreuses possibilités permettant de diffuser du contenu de manière anonyme sur Internet, empêche alors toute chance de remédier à cette problématique sans, encore une fois, compromettre des droits fondamentaux.
SOURCES :
- Article 227-23 du Code Pénal
- Cour de Cassation, Chambre criminelle, du 12 septembre 2007
- Étude de l’Internet Watch Foundation “How AI is being abused to create child sexual abuse imagery”, octobre 2023
- Définition du terme “deepfake” par Wikipédia
- Définition du terme “open-source” par Wikipédia
- Histoire de l’intelligence artificielle, par le Conseil de l’Europe