par Yanis IDRI, étudiant du Master 2 Droit des médias électroniques
L’évolution rapide des technologies d’intelligence artificielle (IA) a suscité un intérêt croissant dans le domaine juridique, notamment en ce qui concerne les implications légales associées à ces outils.
La responsabilité juridique en cas de préjudice lié à l’IA
La question de la responsabilité juridique en cas de préjudice lié à l’IA est complexe. Une conception largement partagée considère que « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] ce droit est fondé sur la liberté de choix de l’individu. Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine ». La responsabilité du fait des choses place l’IA sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle. Lorsque l’IA se trouve impliquée dans un fait dommageable, la responsabilise ce celui qui la supervise est mise en jeu. Par exemple, un individu qui utilise un système d’IA pour prendre une décision importante sans vérifier les résultats peut être tenu responsable des conséquences préjudiables.
La proposition de la Comission européenne sur la responsabilité en matière d’IA cherche à équilibrer la charge de la preuve et à faciliter la divulgation d’éléments de preuve par les fournisseurs d’IA ce qui apporte une garantie supplémentaire aux utilisateurs finaux pour faire valoir leurs droits devant les juridictions.
La Commission a également proposé de nouvelles règles en matière de responsabilité, applicables aux produits et à l’IA. Dans certains cas, une présomption de causalité sera introduite en matière de dommage causé par une intelligence artificielle. Les nouvelles règles garantiront que les victimes bénéficient d’une protection efficace lorsqu’elles sont lésées par des produits ou services d’IA par transposition du régime de responsabilité sans faute.
Issue du droit administratif, la responsabilité sans faute est une responsabilité pécuniaire des personnes publiques dans laquelle les victimes ont seulement à prouver le lien de causalité entre l’activité administrative et le dommage qu’elles ont subi. Le législateur a bien évidemment considéré d’une part la difficulté de l’utilisateur final à fournir des éléments de preuve tout en cherchant à responsabiliser les fournisseurs d’IA.
Le régime de responsabilité sans faute permet de mettre en jeu la responsabilité d’une personne physique ou morale sans qu’il soit nécessaire de prouver une faute de sa part. En d’autres termes, la simple constatation d’un dommage suffit à engager la responsabilité de l’individu ou de l’entreprise qui fourni une solution d’IA ou qui l’utilise.
Il est donc important que les entreprises qui utilisent l’IA prennent des mesures pour minimiser les risques juridiques. Cela peut inclure la mise en place de procédures de test rigoureuses pour s’assurer que l’IA fonctionne correctement, la formation des employés sur l’utilisation de l’IA et la mise en place de mécanismes de contrôle pour surveiller l’utilisation de l’IA.
L’AI Act pionnier en matière de régulation
L’AI Act est un règlement européen sur l’intelligence artificielle qui vise à promouvoir l’innovation tout en garantissant la sécurité et les droits des utilisateurs. Il s’agit d’une première mondiale issu des travaux de la Commission européenne. Le texte finalisé en décembre 2023 est destiné à réguler les systèmes d’IA en fonction de leur niveau de risque.
Parmi les catégories de systèmes d’IA prohibées, on trouve ceux qui sont discriminatoires, les systèmes de notation citoyenne, la surveillance de masse à la manière chinoise, ainsi que l’identification biométrique à distance des individus dans des espaces publics. Les parlementaires européens ont réussi à inclure des interdictions supplémentaires, notamment celle de la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, ainsi que l’utilisation de logiciels de police prédictive mobilisant des données personnelles et l’extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale.
Il convient de souligner que l’AI Act proscrit également les systèmes d’IA dépourvus de transparence, incontrôlables ou peu fiables. Les entreprises utilisant l’IA sont tenues de se conformer aux dispositions de l’AI Act, ce qui peut inclure la mise en place de mécanismes de protection des données afin d’assurer la sécurisation adéquate des données personnelles, prévenant ainsi leur utilisation à des fins illégales.
Sources
- Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union (europa.eu)
- Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle (europa.eu)
- Intelligence artificielle : qui est responsable ? (murielle-cahen.com)
- Quelle conformité pour votre IA dans l’attente de l’IA Act ? (haas-avocats.com)