Le 30 août 2022, le Conseil d’État a finalisé un rapport, sur demande du Premier ministre, concernant l’usage de l’Intelligence artificielle dans la sphère des administrations publiques et des services publics.
Le concept d’intelligence artificielle (IA) fait référence à des technologies multiples, nées dans la seconde moitié du XXe siècle, qui reposent sur l’utilisation d’algorithmes. Selon le Parlement européen « l’IA désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité. L’IA permet à des systèmes techniques de percevoir leur environnement, gérer ces perceptions, résoudre des problèmes et entreprendre des actions pour atteindre un but précis. » Ces technologies, dont l’évolution est croissante, constituent un bouleversement profond à l’égard de notre société et de notre économie. En effet, aucun secteur n’est épargné par l’efficacité que peut représenter l’IA.
Le rapport “Pour une intelligence artificielle maîtrisée, utile et démystifiée” fournit un état de la recherche en intelligence artificielle et fait un compte rendu sur de nombreux autres rapports parus récemment en la matière.
Le rapport entend « alimenter la réflexion sur les concepts, les usages, les enjeux juridiques et éthiques et plus largement, les conditions d’un déploiement pertinent et réussi des outils s’y rattachant au sein de la sphère publique, tant de l’État que des collectivités territoriales et des établissements publics, au service des citoyens et des agents publics ».
L’apport de l’IA dans l’efficacité de l’administration
D’abord, le Conseil d’État constate que la France n’a pas de stratégie nationale propre aux systèmes d’intelligence artificielle (SIA). Pour pallier ce manque, le Conseil d’État dresse un panorama illustratif des usages de l’IA publique.
L’utilisation de l’IA dans les services publics ne se limite pas aux activités de contrôle et de lutte contre les infractions ou dans la fourniture de renseignements aux citoyens. L’usage des SIA est bien plus large, il peut permettre d’automatiser des tâches répétitives ou fastidieuses et de gagner ainsi du « temps public ». En effet, l’usage de l’IA permet d’automatiser des tâches répétitives (Parcoursup, pour l’orientation des élèves à titre d’exemple). Elle permettra de répondre aux questions les plus fréquentes des usagers et des agents publics concernant leur carrière (chatbots et voicebots). Les SIA pourront aussi aider à la décision publique pour gérer les territoires et les réseaux, pour aider au diagnostic en santé ou encore, pour évaluer l’impact d’une politique publique.
De manière plus générale, les SIA améliorent le contenu de la décision : ils permettent l’exploitation massive des données et offrent une adaptation optimale. La neutralité supposée de l’algorithme est censée garantir l’égalité de traitement. Aussi, les SIA sont censés augmenter la vitesse de prise de décision, grâce à l’automatisation des processus.
Les moyens de mise en œuvre face à l’arrivée massive de l’IA dans l’administration
Il existe deux alternatives en ce qui concerne les ressources humaines et techniques pour la mise en place de l’IA publique. Un arbitrage devra être fait dans le développement des SIA par l’administration. Opter pour un développement interne à l’administration ou recourir à un prestataire externe. Quoi qu’il advienne, un recours à l’externalisation n’écarte pas la question des ressources humaines propres de l’administration. L’externalisation nécessite des ressources humaines internes suffisamment compétentes en la matière pour définir le cahier des charges et contrôler l’exécution du travail par le prestataire.
Pour ce faire, le rapport propose une mutualisation des moyens entre les différentes administrations. La formation apparait comme une notion clef pour assurer cette transition massive vers les SIA. En effet, les dirigeants et les agents publics doivent être formés à la culture du numérique et aux enjeux de l’IA. Aussi, l’objectif et de renforcer les capacités de recherche initialement dotées de près de 1,5 milliard d’euros sur la période 2018-2022. L’ambition est de positionner la France comme l’un des leaders mondiaux dans le domaine de l’IA, notamment à travers le financement de programmes doctoraux et l’investissement dans les capacités de calcul de la recherche publique. En France, en 2021, il existait déjà 81 laboratoires d’IA, 502 startups spécialisées en IA, 13 459 personnes qui travaillaient dans les start-ups de l’IA. Ces chiffres sont encourageants au regard de l’Union européenne et leur croissance sur les années à venir est nécessaire pour assurer une mise en œuvre efficace de l’utilisation massive des SIA dans l’administration.
Les enjeux juridiques et éthiques de l’arrivée massive de l’IA dans l’administration
Une première approche de ces enjeux a été faite en avril 2022 par la Commission nationale consultative des droits de l’homme (CNCDH). Elle met en évidence que la réglementation actuelle demeure insuffisante pour répondre aux atteintes aux droits fondamentaux.
La CNCDH recommande de proscrire certains usages de l’IA jugés trop attentatoires aux droits fondamentaux, tels que le scoring social ou l’identification biométrique à distance des personnes dans l’espace public. Elle recommande aussi de faire peser sur les responsables d’un SIA des exigences en mesure de garantir le respect des droits fondamentaux : une étude d’impact (comme c’est déjà le cas en matière de traitement de données personnelles) et une supervision du système tout au long de son cycle de vie. La CNCDH tend à reconnaître des droits aux personnes ayant fait l’objet d’une décision via un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d’IA.
Pour pallier ces potentielles atteintes, le rapport répertorie les conditions essentielles pour qu’une IA publique digne de confiance puisse prospérer. Il pose des principes généraux afin de « structurer la réflexion stratégique ». Il est instauré un principe de primauté humaine qui suppose que l’IA fonctionne en faveur de l’être humain. La ligne directrice de l’IA doit être de répondre à l’intérêt général et « l’ingérence dans les droits et libertés fondamentaux qui résulte de sa mise en œuvre » ne doit pas être « disproportionnée au regard des bénéfices qui en sont attendus ». La primauté humaine suppose aussi une « indépendance » contrôlée de la part de l’IA. L’humain doit pouvoir être en mesure de superviser l’activité de l’IA.
Aussi est évoqué la performance des SIA. Ces derniers doivent faire preuve d’une exactitude des informations et des résultats qu’ils génèrent.
L’équité et la non-discrimination font aussi l’objet d’une grande attention. Aux États-Unis un logiciel évaluait la probabilité de récidive d’individu condamné. Certains professionnels de justice s’appuyaient sur ce logiciel, alors même que celui-ci s’est avéré discriminatoire envers les personnes noires. L’algorithme augmentait la probabilité de récidive en défaveur des personnes noires. Le Conseil met en garde sur ces dérives algorithmiques.
La transparence est aussi un principe évoqué. Il comprend le droit d’accès à la documentation du SIA ainsi que l’exigence de loyauté, qui signifie que la personne qui a fait l’objet d’un traitement en soit informée.
Les derniers principes concernent la cybersécurité, la soutenabilité environnementale et l’autonomie stratégique. Pour les mettre en œuvre, le Conseil prévoit la mise en place de lignes directrices, qui s’ajouteraient aux dispositions juridiques déjà applicables en France. Cette stratégie nécessite des ressources et une gouvernance adaptée. Pour ce faire, le rapport conseille une consolidation du rôle d’Etalab (un département de la direction interministérielle du numérique) ainsi qu’un renforcement des prérogatives de la CNIL, qui deviendrait l’autorité de régulation des SIA.