Au commencement de l’ère de l’intelligence artificielle et à l’heure où les réseaux sociaux remplacent le traditionnel journal intime dans la vie des adolescents, Facebook nous propose de se servir de l’un pour améliorer l’autre. En effet, le créateur de Facebook tente avec son nouvel algorithme de replacer l’intelligence artificielle dans les bonnes grâces des utilisateurs en s’engageant dans la lutte contre le suicide. Initiative opportune dans un contexte de recrudescence du taux de suicide chez les moins de 18 ans et des ingérences produites par ces incidents au sein des réseaux sociaux. Cependant, cette technologie ne semble pas être appropriée aux « susceptibilités européennes » et ne sera donc pas déployée, en l’état, dans les pays membres de l’Union…
Les réseaux sociaux et l’augmentation du taux de suicide chez les jeunes : un lien qui interroge
En Suisse, au Japon, en Espagne ou aux Etats-Unis, le lien entre les suicides, touchant la jeunesse, et l’utilisation des réseaux sociaux, inquiète. On constate alors que les réseaux sociaux sont porteurs de divers maux relatifs au suicide. Tantôt simple vecteur d’un mal-être existant où les jeunes se livrent et expriment leurs intentions, les réseaux sociaux peuvent aussi permettent l’organisation du passage à l’acte. Pire, ils sont parfois la scène sur laquelle les adolescents deviennent spectateurs du passage à l’acte. C’est par exemple le cas au Japon avec des suicides collectifs ou encore des mises en relation avec des intermédiaires proposant leurs services d’aide au suicide. Dans le même temps, les réseaux sociaux sont parfois clairement identifiés comme étant eux-mêmes les coupables, vecteurs de haine et de cruauté anonymisées, ponctuellement ou sous forme de cyberharcèlement, les actions de certains utilisateurs vont en pousser d’autres au suicide.
Aux Etats-Unis, le taux de suicide chez les 13-18 ans étant reparti à la hausse depuis 2010, une équipe de psychologues des universités de San Diego et de Floride, s’est penchée sur la question. Ainsi, dans cette étude, parue le 14 novembre dans la revue Clinical Psychological Science, il nous est rapporté que pour les adolescents connectés plus de 5 heures par jour aux réseaux sociaux, le risque d’apparition de symptômes dépressifs, pouvant conduire au suicide, est augmenté de 66%. Ainsi, l’augmentation du taux de suicide chez les moins de 18 ans serait en corrélation avec la démocratisation du smartphone et l’augmentation de son utilisation chez les jeunes. Pour tenter d’expliquer comment les réseaux sociaux peuvent avoir ce pouvoir néfaste sur la jeunesse, cette étude fait également lien avec la « théorie interpersonnelle » du suicide. Ainsi, à la lecture de cette dernière, le fait de se percevoir comme un poids ainsi que la sensation d’être mis à l’écart, sont souvent à l’origine d’idées suicidaires. Les spécialistes de la question en sont donc arrivés à la conclusion que ces sentiments sont particulièrement relayés et engendrés par les réseaux sociaux. Tout ceci sans compter sur les challenges, souvent dangereux, parfois mortels, diffusés et partagés en masse, comme l’illustre malheureusement le Blue Whale challenge. Né il y a deux ans en Russie, ce challenge consiste à relever un défi par jour, plus ou moins dangereux, pendant 50 jours pour en arriver au dernier défi : se donner la mort.
Face à ce constat amer, Facebook nous propose de détecter les comportements suicidaires et d’y apporter rapidement l’aide nécessaire. Une intelligence artificielle serai donc capable de repérer et d’identifier les appels au secours qui, trop souvent, passent inaperçus sur les réseaux et ce dans le monde entier, ou presque.
L’intelligence artificielle de Facebook : une contre-attaque technologique qui dérange le droit de l’Union Européenne
Lancé en mars 2017, ce nouveau logiciel d’identification de comportements suicidaires ne semble pas être en capacité de s’intéresser aux vidéos Live et se concentre pour l’instant sur les conversations, les commentaires ou autres manifestations écrites. Expérimenté, dans un premier temps, exclusivement aux Etats-Unis, Facebook a déclaré vouloir étendre cet outil à d’autres pays, tenant toutefois l’Union Européenne en dehors de cette expérimentation. En effet, l’intelligence artificielle développée semble se heurter à la législation européenne en matière de protection de la vie privée et des données personnelles.
Avec l’entrée en vigueur du Règlement Européen sur la protection des données personnelles (RGPD) en mai 2018, certains traitements informatiques prévus par l’intelligence artificielle ne pourraient être légalement exécutés en Europe. Le réseau social a cependant affirmé être entré en négociation avec des experts et des acteurs européens afin de pouvoir établir un traitement des données en conformité avec les nouvelles normes et pouvoir ainsi déployer son outil de prévention des tendances suicidaires. Bien que la société ne dévoile pas les mécanismes pouvant effectivement entrer en contradiction avec les obligations de traitements imposées par le RGPD, il apparait très clairement que c’est, notamment, la question du consentement de l’utilisateur qui se situe au cœur du problème. En effet, cette technologie implique une ingérence sensible au sein des conversations privées des utilisateurs, mais aussi une collecte de données personnelles dont le but, apparemment louable, vient une nouvelle fois relancer le débat quant à la protection que Facebook offre aux données de ses usagers. Ces informations éminemment sensibles, touchant à la vie privée et particulièrement au domaine de la santé mentale, font l’objet d’une protection particulière, qu’elle se situe sur le fondement de la vie privée (CEDH, LL c/ France, 10 octobre 2006) ou sur celui de la protection des données personnelles. En effet, le RGPD réaffirme le régime particulier des données dites sensibles que sont « les informations concernant l’origine raciale ou ethnique, les opinions politiques […] la santé ou la vie sexuelle » (Article 8, Loi du 6 janvier 1978) puisque par principe ces traitements sont interdits en l’absence de consentement exprès (article 9, RGPD). Or, la difficulté de recueillir le consentement sur internet n’est pas nouvelle, d’autant qu’ici il faut y ajouter les problématiques liées à l’utilisation des réseaux sociaux par des mineurs, le RGPD fixant également des conditions particulières pour les enfants de moins de 13 ans, dans son article 8.
Les moyens juridiques et technologiques déjà engagés dans la lutte contre le suicide : un aveu d’impuissance ?
Si aujourd’hui des systèmes de signalements sont déjà mis en place par les réseaux sociaux et les plateformes de partage, ces mécanismes restent passifs puisqu’ils nécessitent l’action d’une personne physique. Les réseaux sociaux fournissent également des outils de prévention et de soutien avec des relais vers des services spécialistes de la question. Cependant, jusqu’à présent, cette action reste soumise à la démarche de l’internaute en danger. C’est également le cas de l’application STOPBLUES qui a été développée récemment pour permettre un accès rapide à des informations et des conseils pour les personnes en difficulté. Il apparait donc clairement que l’atout majeur de l’intelligence artificielle de Facebook réside dans son autonomie de réactivité, ne nécessitant pas l’intervention humaine d’un tiers pour signaler le comportement, ni de manifestation de la volonté de la personne sujette aux idées suicidaires. Ainsi, imposer le recueillement du consentement de l’usager à ce traitement de données, pourrait alors vider le mécanisme de tout intérêt.
En parallèle de ces moyens techniques mis en œuvre par les plateformes et réseaux pour prévenir et repérer ces comportements, il est nécessaire de prendre en compte les enjeux juridiques liés aux actions ou inactions des internautes. En effet rappelons que, même si le suicide n’est plus pénalement réprimé depuis la Révolution Française et qu’ainsi sa complicité ne peut être poursuivie devant la loi, la provocation au suicide, elle, fait l’objet d’une incrimination à l’article 223-13 du code pénal. Cette condamnation pourrait d’ailleurs être retenue pour les jeux dangereux, comme le Blue Whale Challenge, ou pour des cas de cyberharcèlements. Mais une autre incrimination pourrait être applicable aux utilisateurs témoins de comportements suicidaires ou de propos non équivoques : il s’agit du délit de non-assistance à personne en danger. En effet, ce délit est constitué dès lors qu’une personne « s’abstient volontairement de porter à une personne en péril l’assistance que, sans risque pour lui ou pour les tiers, il pouvait lui prêter soit par action personnelle, soit en provoquant un secours » (article 223-6 alinéa 2 Code pénal). Bien que cette infraction soit compliquée à établir, elle a déjà été retenue par le tribunal correctionnel de Guingamp le 8 décembre 2008, et confirmée par la Cour d’appel de Rennes le 23 juin 2010, pour un internaute mis au courant sur un forum des intentions et de la planification du suicide d’une jeune fille avec laquelle il discutait.
Toutefois, il apparait évident que tous ces moyens ne sont pas aussi efficaces que souhaité et que le droit pénal n’a pas la portée dissuasive nécessaire pour stopper ou, le cas échéant, mobiliser les internautes. N’est-ce pas ici un aveu d’impuissance que de déléguer à une intelligence artificielle la mission de nous sauver de nous-même ?
SOURCES :
- France Inter, « Facebook veut aider à la prévention du suicide », mercredi 29 novembre 2017, https://www.franceinter.fr/societe/la-prevention-du-suicide-selon-facebook-peut-elle-marcher
- ADAM (L.), « Facebook : un dispositif pour prévenir les suicides incompatible avec le RGPD », mardi 28 novembre 2017, http://www.zdnet.fr/actualites/facebook-un-dispositif-pour-prevenir-les-suicides-incompatible-avec-le-rgpd-maj-39860778.htm
- LADEPECHE.fr « Suicide : les réseaux sociaux, un nouveau facteur de risque ? », 08/09/2017, https://www.ladepeche.fr/article/2017/09/08/2641477-suicide-les-reseaux-sociaux-un-nouveau-facteur-de-risque.html
- SASTRE (P.), « Les réseaux sociaux sont-ils en train de pousser les ados au suicide ? », 16/11/2017, https://www.slate.fr/story/153873/reseaux-sociaux-adolescents-suicide