Le 14 février 2022, le ministre de l’Économie des Finances et de la Relance, la ministre de la Culture ainsi que le Secrétaire d’État chargé de la Transition numérique et des Communications électroniques ont souhaité la mise en place d’une mission exploratoire sur le développement des métavers à travers une lettre de mission. Cette dernière a pour objectif de prévenir sur les enjeux soulevés par ces univers virtuels pour la France.
Elle propose d’adapter l’application des cadres juridiques existants au sujet. Cela passe, notamment, par l’anticipation des cadres de régulations adaptés à travers le RGPD, DSA et DMA. La mission instaure une distinction. En effet, au moment de définir les métavers, elle s’attache à distinguer d’une part les éléments essentiels et constitutifs, et d’autre part les modalités possibles d’expression de ces métavers.
Les éléments essentiels qui les constituent sont « des mondes virtuels, en 3D, en temps réel, immersifs, persistants et partagés ». Les modalités possibles d’expression concernent la possibilité d’y accéder avec ou sans visiocasques, d’y utiliser ou non des avatars, d’y échanger avec ou sans technologies de registres distribués. Une telle distinction permet de mieux appréhender les différents enjeux des métavers. Comme il apparait dans la mission dans son volet « Par de là le RGPD, le DSA, le DMA », nous prendrons l’hypothèse du visiocasque et de l’avatar comme moyen d’expression des métavers. Même si la mission exploratoire a une portée plus large, il s’agira ici de s’intéresser aux enjeux que posent les métavers à l’égard des nouvelles données qu’il pourra collecter.
Une technologie toujours plus performante capable de collecter de nouvelles données comportementales.
L’immersion totale que sont capables d’offrir les métavers représente un véritable nid d’information. Plus l’immersion est intense, plus la perception de la nuance entre monde réel et virtuel s’atténue. Ainsi, notre comportement à travers ce monde s’apparentera à celui que l’on a adopté dans la vie réelle. Mais, contrairement à la vie réelle, le monde virtuel, notamment à travers le casque, pourra collecter nos paroles, nos mouvements, la façon dont ils seront réalisés. La mission explique que l’analyse de la gestualité, pourrait informer sur notre état émotionnel, voire médical.
Aussi, pourront être identifiés « les endroits où se portent nos yeux, les expressions de nos visages, les inflexions, les textures de nos voix ». Ces éléments, sont autant de données pouvant faire l’objet d’un traitement algorithmique d’analyse de nos comportements et de nos émotions. Ainsi, nos espaces mentaux et les nouvelles données qu’ils comportent représentent, à n’en pas douter, un grand intérêt. Les capteurs biométriques, outils essentiels dans la collecte de telles données, devront faire l’objet d’une réglementation dans le cadre de la protection de nos données personnelles. De telles mesures ont déjà vu le jour, à travers le quantified self qui mesure des données de santé tel que la vitesse de battement du cœur, la variation du diabète, la position des yeux et du corps permettant déjà de tirer des analyses. Ces mesures n’ont pas la popularité que peuvent représenter les métavers et ne visaient pas la collecte de données mentales ni les états d’esprit d’une personne.
Une technologie toujours plus performante capable de collecter de nouvelles données dites mentales.
Deux chercheurs, Marcello Ienca et Gianclaudio Malgieri, définissent les données mentales comme « toute donnée qui peut être organisée et traitée pour inférer l’état d’esprit d’une personne, soit ses états cognitifs, affectifs et conatifs ». Cela comprend les images cérébrales, les émotions, les souvenirs, les intentions. Ces données restent aujourd’hui encore très difficiles à récolter. Il n’en reste pas moins, que dans un futur proche, à travers les métavers, de telles données pourront l’être. Quid de leur nature juridique ? Les données personnelles ont pour caractéristique d’identifier et de singulariser un individu. Nos données mentales, notre activité cognitive peuvent, évidemment, présenter de telles caractéristiques de sorte que le RGPD soit applicable. Mieux encore, ces données pourraient bénéficier du régime particulier des données à caractère sensible. Aujourd’hui, tel n’est pas le cas. Les données sensibles ne comprennent pas, dans leur champ, des données dites mentales. Selon deux professeurs de droit, Judith Rochfeld et Célia Zolynski : « face à de tels défis, on peut se demander s’il ne faudrait pas basculer vers une appréhension de ce type de situation en termes de traitements sensibles plutôt que de données sensibles ». Cela permettrait de réguler ces traitements particulièrement intrusifs. Le bioéthicien, Marcello Ienca, évoque la création d’un « neuro-droit ». Leur titulaire pourrait décider qui est autorisé ou non à surveiller ou lire leur cerveau. Bien qu’un tel projet semble lointain, le Chili a déjà mis en place une régulation spécifique aux neuro droits via un amendement à la Constitution Chilienne.
Les solutions envisageables pour lutter contre le traitement inapproprié de ces nouvelles données.
Encore une fois, les normes juridiques ont parfois du mal à suivre la cadence et le rythme effréné qu’impose le développement des nouvelles technologies. En effet, si la loi Informatique et libertés et le règlement européen protègent contre les collectes illicites de données personnelles, il en va autrement des enjeux d’intégrité mentale. Face aux nouvelles technologies capables de collecter de nouvelles données, notre intégrité devra être protéger. L’article 3 de la Charte des droits fondamentaux est rattaché à cette intégrité « chacun a droit à son intégrité physique et mentale ».
Face à une telle disposition, le Digital Services Act proscrit les interfaces truquées, afin de préserver les utilisateurs face à la manipulation de comportements par des interfaces non transparentes et déloyales. Ces dispositions s’inscrivent dans un objectif de lutte contre les « dark patterns » afin de limiter l’impact des traitements algorithmiques agissant sur les utilisateurs pour exploiter leur vulnérabilité. Ainsi, les professeurs de droit Judith Rochfeld et Célia Zolynski soutiennent l’interdiction des systèmes de reconnaissance et de manipulation émotionnelle. Selon elles, il faudrait mettre en place une inscription légale du principe d’autodétermination cognitive face aux risques de manipulations que ces systèmes représentent. C’est d’ailleurs dans cette direction que le Conseil de l’Europe se dirige. En effet, ce dernier considère que les outils d’apprentissage automatique avaient une influence sur les émotions, les pensées et pouvaient ainsi modifier le déroulement d’une action de façon subconsciente. Ces considérations posent des questions sur l’autonomie cognitive des utilisateurs et sur les manipulations qu’il pourrait subir.
Sources :
–https://web.lexisnexis.fr/LexisActu/Mission%20exploratoire%20sur%20les%20m%C3%A9tavers.pdf