par Florian MESTRES, étudiant du Master 2 Droit des communications électroniques
L’usage des algorithmes et de l’intelligence artificielle (IA) par les services publics, oui, mais avec parcimonie et discernement. C’est en substance de cette façon que la Défenseure des droits conçoit l’utilisation des procédés automatiques décisionnels par l’administration, dans un rapport du 13 novembre 2024 intitulé « Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? Points de vigilance et recommandations ».
De par la récente montée en puissance de l’IA générative, en particulier depuis le lancement de ChatGPT fin 2022, le contexte technologique paraît favorable aux questionnements relatifs à ces outils numériques de plus en plus présents dans la vie professionnelle, tant des entreprises privées que des administrations.
Une place toujours plus prégnante de l’IA et des algorithmes
Sans doute, la médiatisation de multiples cas de recours à l’encontre de décisions administratives prises partiellement ou en totalité sur la base d’un traitement algorithmique explique également en partie la rédaction de la présente étude.
Il est vrai que les exemples de tels procédés automatiques ne manquent pas. Sélection d’étudiants, affectation d’élèves, calcul de l’imposition, attribution d’allocations sociales, question à une administration, l’utilisation des algorithmes et de l’IA occupe une place de plus en plus prégnante dans les rapports entre les services publics et leurs usagers.
Avant d’aborder la réglementation applicable en la matière, il apparaît opportun de préciser l’acception des termes susmentionnés. S’agissant d’ « algorithme », la Défenseure des droits met en exergue dans son rapport la définition de la Commission nationale de l’informatique et des libertés (CNIL) : « Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée ». Et d’ajouter, « Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique, sous la forme d’un logiciel (souvent aussi appelé ‘‘application’’). » Quant à l’IA, la CNIL la définit comme : « un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies. »
Potentialité d’absence d’intervention humaine
En raison du phénomène de l’apparition des données massives (parfois désigné sous la locution « big data »), les traitements automatisés de telles quantités de données présentent de nombreux avantages. D’une part, ils constituent en effet un gain de temps non négligeable pour les agents de l’administration, leur permettent en outre parfois de se détourner de tâches répétitives (calcul, tri, classement) pour se concentrer sur les tâches qui nécessitent réellement une intervention humaine. Du côté des usagers, ces traitements automatisés peuvent notamment servir à réaliser des simulations rapides afin d’être informés sur leurs droits, ou encore d’accélérer la rapidité des procédures en lien avec les administrations.
Si ces technologies offrent des bénéfices, elles exposent également à des risques, en particulier lorsque le traitement algorithmique des données est réalisé sans intervention humaine. À ce propos, la Défenseure des droits cite en guise d’illustration le cas de la procédure de sélection de candidats sur Parcoursup. Les établissements d’enseignement supérieur passant par cette plateforme peuvent user d’un algorithme, lequel peut consister soit en un outil d’aide à la décision (OAD) fourni par le ministère, soit en un algorithme autonome (dit « algorithme maison »).
Quelle que soit l’option choisie, les décisions de classement ne peuvent être prises exclusivement sur la base d’un algorithme. Or, il ressortait des travaux de la Commission de la culture, de l’éducation et de la communication du Sénat en 2019, concernant l’université Paris Descartes, qu’une part importante de dossiers avait été instruite sans intervention humaine, sur la base de traitement entièrement automatisés, comme l’évoque le rapport.
Dans le même sens, la Défenseure des droits mentionne le cas d’une élève de troisième qui s’est vu refuser tous ses vœux sur la plateforme Affelnet, en raison d’une erreur de l’algorithme. La valeur « zéro » apparaissait en effet injustement sur la totalité de ses évaluations scolaires. Cette bévue de l’administration a pu être identifiée lorsque les parents ont demandé à consulter les informations sur la base desquelles les décisions de refus avaient été prises.
Risque de discrimination des usagers
Le rapport aborde par ailleurs le cas de la polémique, en 2019, autour du « score d’employabilité » des personnes au chômage, calculé par l’agence nationale pour l’emploi (dite AMS) en Autriche. Celle-ci évaluait au moyen d’un algorithme les chances d’un individu de revenir plus ou moins promptement sur le marché de l’emploi. À la suite d’un calcul de probabilité, les personnes étaient classées en trois catégories avec, pour celles ayant la plus basse employabilité, un accompagnement et des aides moindres de la part de l’AMS.
L’analyse des résultats, après avoir été rendue publique par une enquête de l’association AlgorithmWatch, a montré que plusieurs catégories de la population se trouvaient alors discriminées par l’algorithme, notamment : les femmes ayants des enfants, les personnes en situation de handicap ou encore les individus de plus de 30 ans. La Défenseure des droits rappelle sur ce sujet que si le procédé en cause avait tout d’abord été déclaré illégal par l’équivalent autrichien de la CNIL, il avait toutefois été admis en appel. Ce n’est qu’en raison des vives réactions dans l’opinion publique que l’AMS a renoncé à ce dispositif automatisé.
Que ce soit au travers de la loi Informatique et Libertés, du Code des relations entre le public et l’administration (CRPA), du Règlement général sur la protection des données (RGPD) ou, plus récemment du règlement de l’Union européenne (UE) sur l’intelligence artificielle, des garde-fous ont d’ores et déjà été posés et font partie du droit positif. À titre d’exemple, l’article 22 du RGPD dispose en outre que toute « personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage ». Ce principe connaît néanmoins des exceptions, en particulier si la décision est fondée sur le consentement explicite de la personne.
Droit à l’explication et critères d’intervention humaine
La transparence de l’administration demeure fondamentale en matière de traitement algorithmique. On retrouve cette exigence déclinée au sein des articles 12, 13, 14 et 15 du RGPD. L’article 47 2° de la loi « Informatique et Libertés », permet aux usagers d’être informés, « à peine de nullité », d’une décision administrative automatisée les concernant.
Sur ce sujet, en conformité avec la décision du Conseil constitutionnel du 12 juin 2018 et les dispositions du règlement de l’UE sur l’intelligence artificielle (pour les systèmes d’IA à haut risque), la Défenseure des droits propose au gouvernement de consacrer un « droit à l’explication » pour « toutes les décisions administratives individuelles partiellement et entièrement automatisées ».
Sachant qu’il reste parfois difficile de quantifier la part prise par l’humain dans une décision administrative partiellement automatisée, le rapport susvisé recommande également d’édifier « des critères et des modes opératoires obligatoires, alternativement ou cumulativement, pour qualifier plus précisément ‘‘l’intervention humaine’’ ».
Nul doute que si l’accroissement annoncé de la place de l’intelligence artificielle et des algorithmes dans la vie quotidienne se confirme, les contours des décisions humaines au sein des administrations, comme dans le reste de la société, vont continuer de se redessiner. La vigilance sera alors de mise pour garantir aux usagers une action qualitative des services publics.
Sources :
-Rapport de la Défenseure des droits du 13 novembre 2024 : Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? Points de vigilance et recommandations | Défenseur des Droits
–La Défenseure des droits appelle à la vigilance sur l’usage des algorithmes par les services publics