Le développement de l’intelligence artificielle et les progrès faits chaque année en la matière alimentent le débat public sur les conséquences de sa création pour nos sociétés. Si à l’origine ce sujet semble relever plus du domaine de la science-fiction, on pensera notamment aux lois de la robotique d’Asimov, les progrès techniques et scientifiques posent de réelles questions pratiques notamment d’un point de vue juridique. Même si les systèmes d’intelligence artificielle sont loin de ressembler aux « répliquants » de Blade runner, il convient néanmoins de s’interroger sur le cadre éthique et juridique existant. C’est ce qu’a fait l’entreprise DeepMind le mardi 3 octobre 2017 en annonçant la création de leur nouvelle unité de recherche Deepmind Ethic&Society.
Une démarche éthique mise en place majoritairement par des acteurs privés
Cette société londonienne, rachetée en 2014 par l’actuel groupe Alphabet (conglomérat des sociétés détenues par Google), énonce sa volonté de rassembler des chercheurs de tout horizon dédiés à la recherche éthique dans le domaine de l’intelligence artificielle. Selon eux, l’intelligence artificielle sera extrêmement profitable pour l’humanité mais à condition de respecter de hauts standards en matière d’éthique. « Technology is not value neutral, and technologists must take responsability for the ethical and social impact of their work ». Dans le manifeste de l’entreprise se trouvent les principes sur lesquels se basent leurs recherches. Certains sont orientés sur la manière dont ces recherches seront menées (transparence, interdisciplinarité, collaboration et rigueur scientifique), d’autres concernent la finalité de cette recherche : l’intelligence artificielle doit être conçue pour le bien être de la société.
Cette volonté de transparence et d’inclure les citoyens au débat scientifique provient notamment des critiques que peuvent recevoir les systèmes d’intelligence artificielle mis au point aujourd’hui. Sur le site internet de Deepmind, dans la section « Why we launched Ethics & Society ? » certaines de ces critiques sont évoquées. Par exemple y est référencée celle de Julia Angwins dans son étude du racisme dans les algorithmes de la justice. Elle met en avant le fait que les logiciels utilisés pour calculer le taux potentiel de récidive d’une personne avaient tendance à émettre un taux plus haut pour une personne afro-américaine que pour une personne blanche. Cela peut avoir de graves conséquences étant donné que ces taux de récidive (ou « risk assessments ») sont utilisés tout au long du processus judiciaire. Les enjeux éthiques de l’intelligence artificielle ont donc déjà, dans un pays comme les Etats-Unis, un impact important.
Ce mouvement d’éthique concerne l’ensemble des acteurs de l’intelligence artificielle notamment les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et l’entreprise IBM. Ces entreprises ont fondé le partnership on AI to benefit people and society, une organisation dont le but est également la recherche éthique. Ces initiatives des acteurs privés de se questionner sur la morale et les valeurs sur lesquelles fonder le développement l’intelligence artificielle sont soutenues par les institutions publiques.
Une démarche éthique soutenue par les autorités publiques européennes et françaises
Au niveau européen, le Parlement a adopté une résolution le jeudi 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique. Une charte sur la robotique figure à l’annexe de cette résolution. Cette dernière regroupe des codes de conduite ou de déontologie, ainsi que deux « licences », une pour les concepteurs, une pour les utilisateurs.
L’idée de ce rapport est d’intégrer les valeurs universelles et humanistes européennes dans le processus de recherche ainsi que dans le processus de fabrication. En effet, étant donné que la plupart des entreprises leaders de ce marché sont des entreprises américaines ou japonaises, il convient d’affirmer dès à présent la place de l’Europe dans ce secteur. Le texte évoque la possibilité d’une véritable révolution technologique qui pourrait impacter l’ensemble de nos sociétés.
Le CESE (Comité Economique et Social Européen) s’est également saisi de la question. Le comité souhaite qu’une approche interdisciplinaire soit prise en matière d’intelligence artificielle. Il convient, pour réfléchir à la dimension morale de mêler autant une approche juridique, que philosophique, sociale, qu’économique. Mais la transversalité de la réflexion se fait également sur le type d’acteurs qui y participent : les chercheurs, les politiques ou les ingénieurs. Parmi les principes éthiques développés figurent celui de human-in-command, littéralement « l’humain aux commandes ». L’idée est de limiter l’impact de l’intelligence artificielle sur le cadre juridique de la responsabilité. Si cette technologie est développée pour être utilisée sous le contrôle d’une personne cela permet d’éviter la création d’un statut juridique pour les robots. On conserverait ainsi le système de responsabilité des personnes physiques et en cas de défaillance de la machine on se placerait sous le régime de responsabilité du fait des produits défectueux. En effet, la possibilité de créer un régime de responsabilité spécifique aux intelligences artificielles fait débat car cela implique de leur donner une personnalité juridique. Ce n’est pas la voie prise par le CESE pour l’instant.
Au niveau national, l’Office parlementaire d’évaluation des choix scientifiques et technologiques a adopté le 29 mars 2017 le rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». Ce texte souligne le fait que la course technologique sera plus européenne et internationale que française. Cependant il est mis en avant qu’il est nécessaire que la France se dote d’une charte éthique sur la robotique et l’intelligence artificielle. On trouve dans le texte, entre autres, la volonté d’intégrer des cours d’éthique dans les cursus des formations concernées. Il est par ailleurs évoqué qu’une législation stricte en la matière sera moins bénéfique à ce secteur économique en pleine expansion. Il est préférable d’envisager une approche fondée sur l’éthique afin de ne pas freiner l’innovation en cours. Néanmoins, opter pour une démarche juridique plus souple pose de nombreuses questions.
Une démarche éthique supplantant la démarche réglementaire ?
L’éthique est la science de la morale et des bonnes mœurs. S’il semble louable que les acteurs privés engagent dès à présent une réflexion sur les critères moraux mis en œuvre, l’élaboration d’un cadre juridique plus strict ne doit pas être écartée pour autant. Il est important de préserver ce dialogue entre les institutions publiques et privées sur la question afin de ne pas ralentir l’innovation. Cependant dans ce système la norme est essentiellement élaborée par des privés. Cela soulève des problèmes car il ne faut pas oublier que ces entreprises fonctionnent dans un système de profit et dans un état de concurrence. Leur intérêt n’est pas nécessairement identique à l’intérêt général. Un autre problème soulevé par le recours à des comités ou des chartes éthiques est celui de la sanction. Dans cette approche plus régulatrice que réglementaire, les acteurs sont libres d’adhérer ou non aux valeurs et en cas de non-respect de ses principes il n’y a pas de mécanisme de sanction possible.
Il est important de souligner que ce mouvement éthique ne se limite pas au domaine de l’intelligence artificielle. L’ampleur du phénomène internet, par exemple, ne permet pas aux juges de pouvoir étudier tout le contentieux qui s’y crée. C’est pour cette raison que la collaboration avec les géants de l’internet est indispensable pour essayer d’endiguer des phénomènes d’atteintes aux droits de la personnalité, dont notamment les atteintes au droit à la protection des données personnelles. Ainsi le principe de privacy-by-design développé pour la protection des données, trouve son homologue en matière d’intelligence artificielle : le ethics-by-design.
La légitimité de ces principes éthiques développés est donc fragile. Il est alors souhaitable que les institutions européennes et françaises s’inspirent des normes créées par ces nouveaux comités d’éthique pour construire pas-à-pas un droit contraignant. Anticiper juridiquement un cadre pour l’intelligence artificielle semble être une solution biaisée étant donné la rapidité des changements et innovations de ce secteur. En revanche intégrer progressivement les normes éthiques élaborées en accord avec les entreprises dans le droit positif est une solution qui peut permettre de garantir leur effectivité.
SOURCES :
BENSAMOUN (A.), LOISEAU (G.), « L’intelligence artificielle à la mode éthique », D 2017, 6 juillet 2017, p.1371
BENSAMOUN (A.), LOISEAU (G.) « L’intelligence artificielle : faut-il légiférer ? » D. 2017, 16 mars 2017, p.581
ANONYME « Intelligence artificielle : Google Deepmind se dote d’une unité de recherche sur l’éthique », www.lemonde.fr, mis en ligne le 4 octobre 2017, consulté le 10 octobre 2017
HARDING (V.), LEGASSICK (S.), « Why we launched DeepMind Ethics & Society », www.deepmind.com, mis en ligne le 3 octobre 2017, consulté le 10 octobre 2017
ANGWIN (J.) « Machine Bias », www.propublica.org, mis en ligne le 23 mai 2016, consulté le 10 octobre 2017