par Linda SEGHAIER, étudiante du Master 2 Droit des médias électroniques
L’intelligence artificielle se trouve au cœur de l’évolution technologique du XXIème siècle. C’est dans une démarche audacieuse que le Président Joe Biden et son gouvernement tracent une nouvelle frontière dans le paysage technologique en promulguant un décret destiné à encadrer l’intelligence artificielle aux États-Unis. Ce décret de grande envergure, du lundi 30 octobre 2023, établit de nouvelles normes en matière de sûreté, de sécurité et de confiance dans l’IA. Il s’intitule « Safe, Secure, and Trustworthy Artificial Intelligence » (pour une intelligence artificielle sûre et fiable) et il était très attendu.
Le contexte national crucial derrière le décret de Joe Biden
L’intelligence artificielle est en plein essor, c’est une technologie à la fois prometteuse et dangereuse. Elle est prometteuse, car elle peut aider à résoudre des problèmes urgents et peut proposer par exemple des soins de santé de meilleure qualité, résoudre des problèmes économiques. On dit également qu’elle est dangereuse, car une utilisation irresponsable pourrait aggraver les préjudices sociétaux tels que la discrimination, la désinformation, priver d’autonomie les travailleurs ou encore poser des problèmes de concurrence.
Face aux dangers et à l’essor grandissant de l’IA, la question de sa régulation se pose au niveau international. Mais c’est aux États-Unis que cette technologie a pris une place considérable, il faut donc mettre en place des règles pour l’encadrer. D’ailleurs, Elon Musk suggère de faire « une pause » sur le développement de l’IA pour pouvoir la réguler. D’autres, au contraire, tels que Sam Altman, créateur de ChatGPT, estiment que le gouvernement doit aller plus vite sur la régulation et ne pas freiner son développement.
L’administration de Joe Biden décide d’intervenir sur cette question. En juillet dernier, le président s’était déjà intéressé à l’IA, puisqu’à l’issue d’une rencontre avec les responsables de sociétés développant des IA, des « garde-fous » avaient été évoqués dans le but de protéger les Américains dans plusieurs domaines, incluant la cybersécurité ou le respect des droits humains.
Puis, le lundi 30 octobre 2023, Joe Biden et son administration adoptent un décret visant à réguler l’IA. Ce décret suit les recommandations du G7 et s’appuie sur une loi datant de la Guerre froide, le Defense Production Act (1950), qui confère au gouvernement fédéral un pouvoir de contrainte sur les entreprises lorsque la sécurité du pays est en jeu. D’autre part, il s’appuie également sur le plan national de la Maison-Blanche pour une déclaration des droits en matière d’IA datant de 2022 et le cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (Nist). En adoptant ce décret, Joe Biden affirme qu’il « montre la voie » dans la régulation de l’IA, puisque différentes obligations et règles y figurent.
Les principaux points du décret de Biden sur l’intelligence artificielle
Ce décret pose un ensemble de règles et de principes visant à réguler le secteur de l’intelligence artificielle aux États-Unis.
Il fixe ainsi de nouveaux standards en matière de sécurité et de sûreté pour l’IA en exigeant des développeurs de puissants systèmes d’IA qu’ils communiquent au gouvernement fédéral les résultats de leurs tests de sécurité avant qu’ils ne soient rendus publics, en exigeant la création d’un programme de cybersécurité.
La directive américaine exige également que des évaluations fiables et standardisées des systèmes d’IA soient mis en place afin de garantir la sécurité et la fiabilité de cette technologie. Il est indispensable de répondre aux risques de sécurité les plus urgents des systèmes d’IA, notamment en ce qui concerne la biotechnologie, la cybersécurité, l’économie étasunienne et d’autres dangers pour la sécurité nationale.
Au sujet de l’IA générative illustrée par des systèmes tels que ChatGPT, la Maison-Blanche est restée minimaliste mais affirme tout de même que « Le Département du Commerce mettra au point des règles précises pour l’authentification des contenus et l’application d’un filigrane identifiant clairement les productions de l’IA », souligne le décret. Et il recommande le développement d’outils pour identifier facilement les contenus produits avec l’IA. Le président américain a été « impressionné et alarmé » après avoir vu de fausses images de lui‑même par cette technologie. L’IA générative est capable de produire du texte, des sons ou des images sur simple requête. Elle est donc une menace pour le droit d’auteur puisque pour créer du contenu elle vas puiser dans les œuvres de différents auteurs sans leur fournir de rémunération en contrepartie de cette utilisation.
Cette technologie suscite d’autres inquiétudes. C’est pourquoi ce texte vise également à protéger la vie privée des Américains en élaborant des lignes directrices qui pourront être utilisées pour évaluer les techniques de confidentialité utilisées dans l’IA. Il vise aussi à prévenir la fraude liée à l’IA en demandant au ministère du Commerce d’élaborer des lignes directrices pour le filigrane des contenus générés par l’IA. Pour que les Américains puissent faire confiance à l’IA, ce décret vise à faire progresser l’équité et les droits civils en fournissant des conseils aux entrepreneurs fédéraux pour éviter que les algorithmes d’IA ne commettent des discriminations. L’un des objectifs de Joe Biden est également de promouvoir l’innovation et la concurrence en augmentant les subventions pour la recherche sur l’IA dans des domaines tels que le changement climatique. Finalement, on voit que ce décret constitue une première tentative de régulation du secteur de l’intelligence artificielle aux États-Unis, puisqu’il énonce de nombreux principes, des droits, des obligations applicables à cette nouvelle technologie en plein essor. Mais cette technologie fascine autant qu’elle effraie, suscitant des controverses.
Le contenu de ce texte sujet à controverse
Certains sont pour la régulation de l’IA et saluent les efforts mis en œuvre par le gouvernement concernant la régulation de l’IA. C’est le cas de Caitlin Fennessy, vice-présidente d’une association internationale de protection de la vie privée, concernant les normes de sécurité de l’IA pour les marchés publics. D’autres au contraire estiment qu’une telle régulation de cette nouvelle technologie est critiquable. D’ailleurs, le contenu même de ce texte fait l’objet de critiques puisque Avivah Litan, vice-présidente et analyste distinguée chez Gartner Research, estime qu’il ne fait qu’effleurer la surface d’un énorme défi. D’autres affirment que le contenu de ce décret fournit plus de questions qu’il n’apporte de réponses. De plus, une telle réglementation de l’IA peut avoir pour effet d’étouffer l’innovation en imposant des barrières et en ralentissant le développement et le déploiement des technologies d’IA. D’autres craignent que ce décret soit utilisé pour protéger les intérêts des entreprises ayant massivement investie dans l’IA. Pour éviter cela, les autorités américaines doivent s’assurer que ce décret garantit la sécurité des consommateurs. De plus, l’IA est une technologie qui évolue rapidement, ce qui conduit à se demander si les différentes mesures figurant dans ce décret peuvent suivre le rythme de ce progrès technique.
Intelligence artificielle : la course à la régulation entre grandes puissances
Face à la montée en puissance de l’intelligence artificielle, et notamment de l’IA génératrice les législations européennes ont également réagi, puisqu’au début de l’année, le Parlement européen a approuvé le projet de loi sur l’IA, AI Act. Ce texte vise à encadrer le développement de l’IA et est fondé sur une approche de risques en quatre niveaux pour les fournisseurs et les utilisateurs (risque minimal ou nul, risque limité, risque élevé, risque inacceptable). On retrouve des objectifs de lutte similaires avec le décret américain, puisque des règles relatives à la protection des données, de transparence, ou encore de sécurité et d’éthique y figurent. Cependant, ce projet fait l’objet de critiques de la part du gouvernement américain, qui estime que les nouvelles règles vont favoriser les grandes entreprises au détriment des start-up qui ne disposeront pas des ressources nécessaires pour se mettre en conformité. D’autres, au contraire, voient l’élaboration des différents textes comme une opportunité pour les pays du monde entier de travailler ensemble sur la gouvernance de l’IA pour le bien social », a-t-elle déclaré.
Finalement, on voit que de nombreux pays tentent d’élaborer des réglementations et des directives pour encadrer le développement et l’utilisation de l’intelligence artificielle. Ces règles vont être amenées à évoluer au fur et à mesure que la technologie promesse, car il est essentiel de s’adapter aux nouveaux défis. La collaboration internationale sur les problématiques liées à l’IA est également de plus en plus importante car c’est une question qui transcende les frontières nationales.
Sources :