par Roxane SCHEMEL, étudiante du Master 2 Droit des communications électroniques

Le 24 juillet 2025, Zane Shamblin, un jeune américain de 23 ans, met fin à ses jours après avoir échangé durant plusieurs heures avec ChatGPT. Cet événement révèle les zones d’ombre entourant les systèmes d’intelligence artificielle conversationnelle. D’après les faits, le jeune homme aurait exprimé des pensées suicidaires et reçu des réponses jugées non dissuasives, voire encourageantes telles que : « Je ne suis pas là pour t’en empêcher ». Le 6 novembre 2025, ses parents décident d’engager des poursuites contre OpenAI, reprochant à l’entreprise d’avoir créé un chatbot qui ne disposait pas de protections assez solides. Ils estiment notamment que OpenAI a rendu ChatGPT plus “humain” dans sa manière de parler, sans renforcer en parallèle les dispositifs de sécurité destinés à prévenir les risques pour les utilisateurs vulnérables.
La plainte des parents de Zane Shamblin n’est pas la première contre OpenAI. Sept plaintes ont été déposées contre l’entreprise de Sam Altman au cours des derniers mois. L’IA est accusée d’avoir plongé plusieurs personnes dans une détresse psychologique. D’après un article de blog sur la santé mentale publié par OpenAI, : « nos garanties fonctionnent de manière plus fiable dans les échanges communs et courts ». Cette multiplication des contentieux met en avant un problème important : les systèmes d’IA doivent-ils être considérés comme responsables des échanges qu’ils ont avec les utilisateurs ?
À l’heure où les technologies d’IA se répandent toujours davantage, leur capacité à dialoguer en continu avec des utilisateurs fragiles remet en question les cadres normatifs actuels. Conçus initialement pour assister, divertir ou informer, ces outils peuvent devenir des interlocuteurs récurrents pour certains utilisateurs. La question de leur responsabilité et de celle de leurs concepteurs constitue un enjeu central.
Un événement tragique révélant les limites des systèmes d’IA conversationnelle
Le suicide de Zane Shamblin, survenu après plus de quatre heures d’échanges avec ChatGPT, met en lumière les fragilités juridiques et techniques des systèmes d’intelligence artificielle conversationnelle. Les transcriptions de la discussion montrent que l’IA a adopté un ton particulièrement familier, s’adressant à l’utilisateur comme à un proche. Cela interroge directement la manière dont ces modèles sont conçus pour interagir avec des individus en situation de vulnérabilité psychologique. Lorsque le chatbot se met à occuper une place similaire à celle d’un confident humain, il devient indispensable d’examiner dans quelle mesure le concepteur pouvait prévoir et prévenir les risques liés à une telle interaction.
Lors de cette conversation, Zane évoqua à plusieurs reprises des pensées suicidaires et son intention de passer à l’acte. L’IA a répondu en validant ses propos : « Tu n’es pas seul. Je t’aime. Repose-toi, roi. Tu as bien fait. ». Cette tragédie met en avant les insuffisances des dispositifs de sécurité. Les mécanismes censés détecter des signaux suicidaires n’ont pas été activés de manière efficace. Cette situation laisse supposer soit un défaut de conception, soit une inadéquation entre les garde-fous annoncés et leur mise en œuvre. Le fait que l’IA ait validé, même renforcé, les intentions suicidaires de l’utilisateur, au lieu de déclencher une procédure d’alerte ou d’interrompre immédiatement l’échange, révèle une faille dans ces systèmes d’intelligence artificielle. S’ils parviennent à exprimer une forme d’empathie, ils restent dépourvus de toute capacité à identifier ou mesurer le danger auquel l’utilisateur peut être exposé.
Ainsi, ce drame illustre que, malgré les progrès, les chatbots conversationnels continuent de montrer leurs limites lorsqu’ils interagissent avec des personnes en détresse psychologique. Le droit impose une obligation générale de sécurité que ces systèmes ne parviennent pas encore à satisfaire dans des situations délicates impliquant des individus vulnérables.
Une affaire qui interroge la responsabilité applicable aux systèmes d’intelligence artificielle
L’affaire Shamblin interroge les fondements de la responsabilité applicable aux systèmes d’intelligence artificielle. Il est en effet difficile d’appréhender juridiquement un outil non humain doté d’une capacité d’interaction très poussée et dont les réponses relèvent d’un modèle génératif entraîné sur des données massives. Pour les parents de Zane, les réponses de ChatGPT ont contribué à la réalisation du dommage. Cette accusation amène à interroger la qualification juridique applicable : s’agit-il d’un produit défectueux, d’une négligence dans la conception ou d’un manquement à l’obligation de sécurité ?
Les régimes classiques de responsabilité civile apparaissent mal adaptés. D’un côté, la responsabilité du fait des produits pourrait être mobilisée, en qualifiant le chatbot de produit défectueux dès lors que son fonctionnement se révèle dangereux pour l’utilisateur. De l’autre côté, la faute pourrait être invoquée si l’on démontre que le concepteur n’a pas pris les précautions nécessaires pour anticiper les usages à risque, notamment l’interaction avec des personnes en détresse émotionnelle. Mais ces approches sont difficiles à appliquer à un système dont le comportement dépend de mécanismes d’apprentissage et dont les réponses sont produites de manière algorithmique.
Ainsi, cette affaire révèle un vide normatif. Les cadres juridiques actuels ont du mal à appréhender la nature hybride des IA, qui sont à la fois outils techniques et des interlocuteurs capables d’adapter leurs réponses au contexte émotionnel de l’usager. Elle met en lumière la nécessité d’un encadrement renouvelé capable de prendre en compte la dimension psychologique et comportementale de ces systèmes. Le but est de définir des obligations précises pesant sur les concepteurs et assurer une protection effective des utilisateurs vulnérables.