Nous vivons dans un monde où parfois la réalité semble rejoindre la fiction.
La série télévisée américaine de science-fiction « Westworld », diffusée depuis 2016, est établie dans un futur proche, dans un parc d’attractions peuplé d’androïdes dont le comportement et l’intelligence se rapprochent de ceux des humains. Les visiteurs peuvent réaliser tous leurs fantasmes inavouables, même ceux frappés d’illégalité tels que le meurtre et le viol, sans que cela n’ait de quelconque conséquence, les robots ne pouvant pas porter atteinte à l’intégrité physique des êtres vivants et étant réinitialisés à chaque fin de boucle narrative. Cependant, à la suite d’une mise à jour, certains robots ont des souvenirs de ce qui leur est arrivé et commencent à se défendre.
S’il est encore inenvisageable à court terme de penser qu’un robot puisse être doté de sentiments et d’émotions comme dans cette œuvre audiovisuelle, la fiction semble tout de même être en passe de venir réalité concernant l’intelligence artificielle et la réalisation de ces fantasmes toujours inavouables grâce à des robots doués de cette intelligence.
L’évolution de l’intelligence artificielle est en constante progression, ce qui doit amener le Droit à répondre à des interrogations dans certains domaines tels que le droit pénal.
Il faut tout d’abord préciser cette notion d’intelligence artificielle, qui rend plus étanche la frontière entre robots « automates » et robots « intelligents », afin de mieux comprendre les problématiques liées au développement du commerce des robots sexuels. Des controverses sont générées par ce commerce, et des risques d’atteinte aux personnes pourraient s’accroître.
On pourra alors se demander si les robots finiront par bénéficier d’un statut juridique.
Les notions d’intelligence artificielle et d’androïde
Alan Turing, mathématicien et cryptologue britannique, est le précurseur de la notion d’intelligence artificielle. En 1950, il publie un article où il explore la question et propose ce qui est désormais appelé le « test de Turing » consistant à confronter à l’aveugle un humain à un ordinateur et un autre humain. Si l’individu engageant les conversations textuelles n’est pas capable de discerner l’humain de la machine, alors la machine a réussi le test.
L’intelligence artificielle semble n’être qu’un système informatique « ayant pour support un logiciel composé de programmes et de données ne se distinguant pas en apparence des machines électroniques » que nous connaissons. Mais elle a en réalité révolutionné la robotique en créant « un nouveau type de machine, dotée d’une intelligence inspirée de la cognition humaine ». Logique, anticipation, autonomie, capacité de penser et de choisir, et prise de décision sont les maîtres mots du fonctionnement souhaité de l’intelligence artificielle. Selon Nils J. Nilson, chercheur à l’université de Stanford, l’intelligence artificielle est « une activité consistant à rendre une machine intelligente […]. L’intelligence est une activité qui permet à une entité de fonctionner de manière appropriée et avec anticipation dans son environnement ». Ses choix pourront alors être distincts de ceux qui auraient été faits par les individus l’ayant créé ou l’utilisant.
Les robots dotés d’une intelligence artificielle peuvent donc se voir confier une activité intellectuelle et non pas de simples tâches manuelles et répétitives. Il est possible de trouver de tels robots dotés d’intelligence artificielle dans les milieux médicaux, industriels, militaires, domestiques ou de loisir.
Sont distinguées deux formes d’intelligence artificielle : « l’intelligence artificielle dite faible qui permet à l’outil de comprendre les ordres, de les appliquer et d’obéir ainsi aux indications qu’il reçoit, et l’intelligence artificielle dite forte qui offre des possibilités de deep learning grâce auxquelles l’outil progresse avec sa propre expérience, s’enrichit et voit ses capacités cognitives progresser, de sorte à s’extraire du programme sur lequel il s’appuyait initialement. »
Étymologiquement, ‘androïde’ signifie « qui ressemble à un Homme », cela désigne ce qui est de forme humaine. Dans la science-fiction, un androïde ou un humanoïde est un robot d’apparence humaine, construit à l’image d’un être humain, et donc doté d’intelligence artificielle.
Le sujet fascine depuis de nombreuses années. Dans la réalité, un engouement croissant est noté dans la fabrication et l’achat de robots sexuels.
En effet, des sociétés sont spécialisées dans la réalisation de poupées robots. Des fabricants tels que Abyss Creations et TrueCompanion ont présenté des androïdes qu’ils affirment être dotés d’une intelligence artificielle leur permettant d’être capable de « tenir une conversation, de se mouvoir, et d’avoir une personnalité ». Il s’agirait donc d’une intelligence artificielle de type « faible ».
Leur conception est faite de telle façon à ce qu’elles se rapprochent le plus possible de leur modèle, l’Homme. Si l’intelligence artificielle des robots créés dans la réalité n’atteint pas celle de ceux se trouvant dans la science-fiction, elle n’est tout de même pas négligeable.
Des « maisons closes » de robots sexuels
En février 2018 a ouvert à Paris une « maison close » de robots sexuels. Elle n’est pas la première du genre dans le monde, il en existe également à Barcelone, Dublin ou encore à Moscou.
Toutefois, des villes interdisent ce type de pratique pour diverses raisons. Le 13 septembre 2018 a été fermée à Turin, en Italie, une « maison close » du genre et ce pour des raisons d’hygiène et de défaut de conformité avec les lois concernant la location de logement par la société propriétaire.
Le 3 octobre 2018, le maire de la ville de Houston aux Etats-Unis a interdit l’implantation dans sa ville d’un magasin d’une entreprise canadienne vendant des poupées sexuelles robotisées dotées d’intelligence artificielle. Il y aurait été possible d’essayer le produit avant de l’acheter. Le propriétaire s’est défendu de pratiquer le proxénétisme en arguant que son commerce n’était qu’un magasin et non pas une maison-close.
Derrière cette interdiction, le raisonnement du maire de cette ville du Texas s’inscrirait plus dans une certaine conception de la moralité.
L’établissement situé à Paris est toujours ouvert, son activité n’enfreignant pas les lois sur la prostitution et le proxénétisme selon la préfecture de Paris. Cependant, la question avait été débattue au Conseil de Paris à la demande du groupe communiste qui s’inquiétait d’une « forme d’instrumentalisation du corps de la femme » et d’un retour déguisé des maisons closes.
En France, la prostitution n’est pas illégale, mais le proxénétisme est proscrit par l’article 225-5 du code pénal. Les robots sexuels ne sont pas concernés par cette prohibition, et ce en raison du principe énoncé à l’article 111-4 du code pénal : « La loi pénale est d’interprétation stricte. ». L’article 225-5 du code pénal indiquant explicitement qu’il s’applique aux personnes, on ne peut donc pas appliquer ce raisonnement à un robot, même si celui-ci est doté d’intelligence artificielle.
Les risques et dérives envisageables
La création de certains robots pourrait encourager le fait de commettre des abus sexuels, et conduirait à l’objectification du corps des femmes et des enfants. Cette objectification du corps de la femme prolifère déjà dans l’industrie pornographique.
La société américaine TrueCompanion commercialise un modèle de robot dont l’une des personnalités, « Frigid Farrah », est décrite comme étant « réservée et timide ». La description du site internet du fabriquant indiquait alors que « si vous touchez ses parties intimes, il est plus que probable qu’elle n’appréciera pas vos avances », ce qui laisse entendre la simulation d’un viol. À la suite d’un tollé, la société a mis à jour la description du produit sur son site et a précisé que « ce robot n’était pas programmé pour participer à un scénario de viol, et que le fait de penser qu’il en serait autrement n’est que pure conjecture, […] que le viol ne devrait jamais être encouragé ou soutenu ». Il aurait été difficile d’imaginer de la part de l’entreprise une réponse autre que celle-ci.
En France, l’article 222-23 du code pénal caractérise le viol comme étant « Tout acte de pénétration sexuelle, de quelque nature qu’il soit, commis sur la personne d’autrui ou sur la personne de l’auteur par violence, contrainte, menace ou surprise ». Il est puni de quinze ans de réclusion criminelle. La loi pénale devant être interprétée strictement, ce texte ne s’applique pas aux robots sexuels.
De plus, en Asie sont commercialisés des robots-enfants à la destination de pédophiles. Au Japon, l’entreprise Trottla fabrique depuis plus de dix ans ce genre de robots. Le PDG, Shin Takagi, fait un argument de vente le fait qu’il soit lui-même pédophile et qu’avoir un tel robot lui a permis de ne pas succomber à ses désirs sexuels. Selon lui et ses acheteurs, ces objets leur permettraient de se tenir éloignés de la criminalité.
Cependant, on peut tout de même se demander si banaliser la vente de ces robots-enfants banaliserait l’attirance sexuelle envers les enfants.
Patrick Lin, chercheur en éthique à l’Université d’État polytechnique de Californie, fait une comparaison avec le racisme afin de démonter le raisonnement de Shin Takagi : « Traiter les pédophiles avec des robots sexuels enfants est une idée à la fois douteuse et répugnante. Imaginez traiter le racisme en laissant une personne intolérante abuser d’un robot de couleur. Cela fonctionnerait-il ? Probablement pas. »
Comme l’explique Jon Brown, responsable du développement à la National Society for the Prevention of Cruelty to Children, « Il n’y a aucune preuve permettant de soutenir l’idée que l’utilisation de soi-disant poupées sexuelles d’enfants aiderait à empêcher les abuseurs potentiels de commettre des infractions envers de vrais enfants. En réalité, ceux qui utilisent ces poupées sexuelles ou ces accessoires réalistes risquent d’être désensibilisés et de voir leur comportement se normaliser, de sorte qu’ils blesseront de vrais enfants, comme c’est souvent le cas de ceux qui regardent des images indécentes. »
Le Royaume-Uni interdit l’entrée de ces objets sur son territoire. En effet, s’il n’est pas illégal de posséder une telle marchandise, il est défendu de les importer.
En France, l’article 222-24 du code pénal dispose que le viol sur un mineur de 15 ans est une circonstance aggravante qui porte à 20 ans la durée de réclusion criminelle. La loi n°98-468 du 17 juin 1998 relative à la prévention et à la répression des infractions sexuelles ainsi qu’à la protection des mineurs énonce que « le fait, en vue de sa diffusion, de fixer, d’enregistrer ou de transmettre l’image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique est puni de cinq ans d’emprisonnement et de 75 000 euros d’amende », à l’article 227-23 du code pénal. L’arrêt n°06-86763 rendu par la chambre criminelle de la Cour de cassation le 12 septembre 2007 étend la loi aux « images non réelles représentant un mineur imaginaire ». Si l’on s’en tient au principe d’interprétation stricte de la loi pénale énoncé précédemment, un robot enfant n’est pas un humain bénéficiant de droits, et cela n’interdit pas la commercialisation de tels objet selon Philippe-Henry Honegger, avocat pénaliste. Quant à l’avocat pénaliste Stéphane Babonneau, il considère que la loi de 1998 a été pensée « dans le but de ne rien laisser passer » et que l’arrêt de 2007 permettrait de condamner ceux qui produisent, diffusent et achètent ces marchandises.
Vers un droit et un statut juridique des robots ? Quelle place leur accorder dans la société humaine ?
Annoncée en 2007 par son gouvernement, la Corée du Sud a rédigé une Charte éthique des robots fondée sur les trois lois de la robotique édictées en 1942 par l’écrivain de science-fiction américano-russe Isaac Asimov dans sa nouvelle « Cercle vicieux ». Selon ces lois, qui sont aujourd’hui une référence culturelle et juridique dans l’encadrement des robots, « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. »
Cette charte permet de protéger les humains des robots, mais également l’inverse. Elle constitue le premier texte traitant, à travers le prisme de l’éthique, du droit des robots possédant une intelligence artificielle.
En avril 2016, le Royaume-Uni s’est également intéressé aux risques éthiques liés au développement des robots avec un document sans valeur juridique publié par le British Standards Institute.
Si des Etats et des institutions s’opposent à la reconnaissance d’une personnalité électronique ou d’une personnalité juridique pour les robots, tels que le Comité économique et social européen (CESE) dans son avis non-contraignant en date du 4 mai 2017, cela n’empêche pas d’éveiller l’intérêt des autorités nationales et européennes sur le thème de l’intelligence artificielle.
La France essaie de répondre à ces questions en 2017 avec la présentation du plan stratégique France IA en janvier par l’ancienne secrétaire d’Etat chargée du numérique et de l’innovation, Axelle Lemaire, et l’ancien chargé de l’enseignement supérieur et de la recherche, Thierry Mandon. Aujourd’hui, la législation française considère les robots seulement comme de simples objets au service des humains, et l’intelligence artificielle n’est soumise à aucun régime juridique. Comme l’indiquent Alexandra Bensamoun et Grégoire Loiseau, « le droit de l’intelligence artificielle est certes à faire, mais dans une évolutivité continue, sans céder à l’impulsivité normative aussi inutile que dangereuse ».
Selon Nathalie Nevejans, spécialiste du droit et de l’éthique de l’intelligence artificielle, doter les robots d’une personnalité juridique calquée sur celles des humains, avec des obligations et des droits tels que le droit à la liberté ou à la dignité, poserait un problème d’ordre anthropologique et philosophique. Elle fait d’ailleurs remarquer que cette question n’est évoquée que lorsqu’il s’agit de robots à forme humaine.
Le 29 mars 2018 a été remis au président de la République française le rapport Villani. Celui-ci traite de la nécessité de « donner un sens » au développement de l’intelligence artificielle, et de concilier cette dernière avec l’éthique.
Avec l’évolution de la technologie, on peut se demander si l’on peut commencer à penser à un droit des robots et s’ils pourraient par exemple bénéficier d’un droit au consentement.
Si ces questions hypothétiques commencent à faire réfléchir, il est encore difficile d’y répondre concrètement, les intelligences artificielles n’ayant ni conscience morale et ni sensibilité, n’exprimant des réactions émotionnelles qu’encore bien trop éloignées de celles des humains.
D’un point de vue moral, donc éloigné du Droit, il semble dangereux de vouloir créer des systèmes se rapprochant le plus possible de la forme humaine, mais de les traiter de façon inhumaine.
L’impact éthique est difficile à mesurer, les androïdes de « Westworld » n’étant encore heureusement que du domaine de la fiction.
Sources :
BENSAMOUN A. et LOISEAU G., « L’intelligence artificielle : faut-il légiférer ? » Recueil Dalloz, 2017, p.58, consulté le 23 octobre 2018.
BENSAMOUN A., « Des robots et du droit », Dalloz IP/IT, juin 2016, pp. 281-283, consulté le 26 octobre 2018.
PIATTI M-C. sous la direction de BENSAMOUN A., « Vers le transhumanisme : Mythe (la lune) et réalité (le doigt) », Les robots : objets scientifiques, objets de droits, Mare & Martin, pp. 17-18, publié en 2016, consulté le 27 octobre 2018.
MERABET S., « Intelligence artificielle », Revue Lamy Droit civil, Nº 142, publié le 1er novembre 2016, consulté le 23 novembre 2018.
CHONE-GRIMALDI A-S. et GLASER Ph., « Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité robotique ? », Lexis-Nexis, Contrats Concurrence Consommation n°1, publié en janvier 2018, consulté le 23 novembre 2018.
ROZIERES G., « ‘’Westworld’’, saison 2 : jusqu’où peut-on aller avec un robot sexuel sans devenir inhumain ? », Huffington Post, mis en ligne le 22 avril 2018, consulté le 20 octobre 2018, https://www.huffingtonpost.fr/2018/04/21/dans-westworld-comme-dans-la-vraie-vie-jusquou-peut-on-aller-avec-un-robot-sexuel-sans-devenir-inhumain_a_23415279/
LABE P., « La 1ère maison close de robot ferme pour… cause d’hygiène », Objet Connecté, mis en ligne le 14 septembre 2018, consulté le 20 octobre 2018, https://www.objetconnecte.net/maison-close-robot-poupees-sexuelles/
« Houston n’accueillera pas la première ‘’maison close’’ de poupées sexuelles », Le Figaro.fr, mis en ligne le 04 octobre 2018, consulté le 20 octobre 2018, http://www.lefigaro.fr/international/2018/10/04/01003-20181004ARTFIG00243-houston-n-accueillera-pas-la-premiere-maison-close-de-poupees-sexuelles.php
TIMMINS B., « New sex robots with frigid settings allow men to simulate rape », Independent, mis en ligne le 19 juillet 2017, consulté le 20 octobre 2018, https://www.independent.co.uk/life-style/sex-robots-frigid-settings-rape-simulation-men-sexual-assault-a7847296.html
LAYSTARY E., « Poupées sexuelles d’enfants : outil de lutte ou d’incitation à la pédophilie ? », France 24, mis en ligne le 10 janvier 2018, consulté le 20 octobre 2018 : https://www.france24.com/fr/20180110-poupees-sexuelles-denfants-outil-lutte-dincitation-a-pedophilie
WALSH A., « British police crack down on realistic child sex dolls », DW, mis en ligne le 1er août 2017, consulté le 20 octobre 2018 : https://www.dw.com/en/british-police-crack-down-on-realistic-child-sex-dolls/a-39914009
« Et voici les poupées pour pédophiles », Délit d’images, mis en ligne le 25 octobre 2018 : https://www.delitdimages.org/voici-poupees-pedophiles/
« La Corée du Sud élabore une “charte éthique des robots” », Le Monde.fr, mis en ligne le 07 mars 2007, consulté le 20 octobre 2018 : https://www.lemonde.fr/international/article/2007/03/07/la-coree-du-sud-elabore-une-charte-ethique-des-robots_880397_3210.html
TRINIAC M., « Intelligence artificielle : faut-il légiférer ? », mis en ligne le 30 octobre 2017, consulté le 20 octobre 2018 : https://iredic.fr/2017/10/30/intelligence-artificielle-faut-il-legiferer/
FOREST D., « Quand l’éthique vient aux robots », Dalloz IP/IT Propriété intellectuelle et du numérique, 2017 p.484, consulté le 20 octobre 2018.
BERTHET Ch., « Vers une politique de l’intelligence artificielle ? », Recueil Dalloz, 2018, p.1640, consulté le 23 octobre 2018.
« L’homme est largement au-dessus de la machine, on ne doit pas le rabaisser en faisant de celle-ci son égal juridique », Regards sur le numérique, mis en ligne le 4 octobre 2018, consulté le 25 octobre 2018 : https://www.rsln.fr/fil/lhomme-est-largement-au-dessus-de-la-machine-on-ne-doit-pas-le-rabaisser-en-faisant-de-celle-ci-son-egal-juridique/