par Ellie SOKOLO-KACOU, étudiante du Master 2 Droit des communications électroniques
Récemment, plusieurs articles ont révélé que la CIA, en collaboration avec des entreprises technologiques de la Silicon Valley, utilise l’intelligence artificielle (IA) pour créer des avatars numériques de dirigeants mondiaux. Ces doubles numériques, conçus à partir de données massives, servent à anticiper les comportements de ces personnalités et à préparer des stratégies de politique internationale. L’intérêt est double pour la CIA. Non seulement le chatbot aide les analystes à « digérer l’avalanche d’informations » recueillies par ses services en un rien de temps, mais il lui permet aussi de rester compétitive face aux services secrets chinois qui ont d’ores et déjà investi dans l’IA. Si cette technologie offre des avantages en matière de prévention des crises tout en marquant une avancée stratégique majeure, elle soulève des questions fondamentales au croisement du droit du numérique et de l’éthique.
En effet, l’utilisation de ces données interpelle au regard de la protection de la vie privée. Les dirigeants, bien que figures publiques, restent soumis aux garanties juridiques prévues pour la collecte, le traitement et l’exploitation de leurs données personnelles. Le cadre juridique européen, régi par le RGPD, impose des obligations strictes en matière de transparence, de proportionnalité et de limitation des finalités. De plus, l’accès et l’usage éventuel de données confidentielles par la CIA suscitent ainsi de potentielles violations du droit international et une relecture des obligations transfrontalières en matière de données personnelles.
Par ailleurs, des préoccupations émergent concernant le droit à l’image et la propriété intellectuelle. Les avatars imitent des caractéristiques distinctives des dirigeants (gestuelle, discours, etc.), soulevant des interrogations quant à leur reproduction sans consentement. Dans un contexte où les avatars pourraient servir à influencer des événements réels via des stratégies manipulatrices ou biaisées, la question de la transparence des outils technologiques se fait impérative. De même, ces pratiques renforcent l’idée d’une militarisation rampante de l’IA, accentuant une compétition technologique mondiale susceptible d’intensifier les tensions internationales.
Enfin, la question de la responsabilité des acteurs impliqués demeure cruciale. La CIA collabore étroitement avec des entreprises technologiques, souvent situées dans la Silicon Valley, pour développer ces outils. En cas de dérives, qu’elles soient liées à des biais intégrés dans l’IA ou à des usages détournés, où se situe la frontière de la responsabilité entre les développeurs, les fournisseurs de données et les utilisateurs finaux de la technologie ? La question reste encore en suspens.
À l’heure où l’intelligence artificielle atteint des capacités prédictives sans précédent, il devient urgent de réfléchir à une réglementation claire encadrant son usage à des fins sécuritaires. Si cette technologie semble prometteuse pour la prévention des conflits et la prise de décision stratégique, elle ne doit pas compromettre les droits fondamentaux ou les équilibres internationaux. Ce cas illustre à quel point le dialogue entre juristes, ingénieurs et décideurs politiques est indispensable pour prévenir les dérives d’un outil aussi puissant qu’ambigu.
Bien que l’on ne dispose pas d’informations supplémentaires concernant les conditions du déploiement de ce chatbot ou les personnes impliquées dans sa conception, la CIA semble plus que ravie de sa création. « C’est un exemple fantastique d’une application que nous avons pu déployer rapidement et mettre en production de manière moins coûteuse et plus rapide », s’est réjoui le directeur de la technologie Nand Mulchandani, dans les colonnes du New York Times.
Affaire à suivre…
Sources :