Les dernières élections présidentielles aux Etats-Unis ont mis en avant l’incapacité de Facebook à bloquer la diffusion sur sa plateforme de fausses informations, dans certains cas plus partagées que des articles authentiques de grands médias. Il s’agit de la situation ou la désinformation est devenue une véritable stratégie politique. Fortement critiqué pour son traitement jugé laxiste de la désinformation, Facebook veut s’appuyer desormais sur l’intelligence artificielle pour mieux prévenir le phénomène ce qui a été déclaré par Mark Zuckerberg. D’ailleurs, la politique de Facebook est celle de sensibiliser ses utilisateurs à l’intelligence artificielle en comparant celle-ci au systèmes de fonctionnement des smartphones, ou des banques. Et pourtant, ces exemples ne lèvent pas le voile sur la façon dont le réseau social préviendrait effectivement la diffusion de fausses nouvelles.
Comme d’autres géants du Web, Facebook investit beaucoup dans ses technologies. Selon le directeur de la recherche en intelligence artificielle, le réseau social utilise déjà “un algorithme qui détecte la nudité, la violence ou toutes autres choses qui ne respectent pas nos politiques. Ce n’est pas de la magie, c’est du code “. Cet algorithme est ainsi déjà mis à contribution pour contrôler les contenus vidéo échangés via Facebook Live et ainsi détecter les contenus “offensants”. Des dizaines de millions de cas sont identifiés chaque semaine. Facebook utilise aussi l’intelligence artificielle pour détecter certains mots susceptibles d’alimenter des histoires qui se révèlent être des pièges à clics. Mais discerner les faits de la fiction est un défi plus difficile à relever. Et le risque d’évincer trop de contenu avec un filtre intelligence artificielle est élevé. Il se pose ainsi la question sur la limite entre le filtrage des contenus par les plateformes et la censure. « Code is law », le code informatique est la loi – telle est la formule issue des réflexions de Lawrence Lessig dans son ouvrage « Code and Other Laws of Cyberspace » sur le droit d’auteur. L’auteur souligne que ce code ne se résume pas à un simple outil technique neutre et qu’il est un instrument de régulation des droits susceptible de servir les intérêts de ceux qui l’ont programmé et qui en tirent parti. On peut conclure ainsi que le problème de transparence de la part des plateformes sur le traitement de leurs contenus au moyen des algorithmes prend de plus en plus d’importance. L’enjeu juridique émergé était l’élaboration des normes juridiques encadrant l’utilisation des algorithmes. D’ailleurs, un algorithme, que représente-t-il techniquement ?
Les algorithmes : quelques aspects techniques
L’algorithme est défini par le Larousse comme un « ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur ». On désigne aujourd’hui par le mot « algorithme » une pluralité de créations immatérielles développées par les acteurs de l’économie numérique. On peut penser en premier lieu aux «majors» de l’Internet, avec en tête Google, que l’on associe fréquemment à ces fameux algorithmes. À chaque modification ou perfectionnement que Google apporte à son algorithme, c’est tout le Web qui tremble des conséquences en termes de référencement. Les changements de l’algorithme effectués entre 2010 et 2013 (Panda, Penguin) ont diminué la visibilité des comparateurs de prix, avec un fort impact sur leur chiffre d’affaire. A la même époque, Google a introduit son propre service Google shopping, ce qui a conduit au dépôt de plusieurs plaintes, en cours de traitement par la Commission européenne, qui a publié au printemps 2015 une communication de griefs. Que ce soit Facebook avec ses algorithmes permettant d’améliorer la qualité de l’affichage du fil d’actualités, ou encore Amazon à travers ses algorithmes de recommandation de produits, jusqu’aux algorithmes développés par des start-up innovantes apportant des outils vitaux, comme telle que la publicité ciblée à cette économie moderne, la quasi-totalité des acteurs fondent leur modèle sur la performance de leurs algorithmes. Il s’agit des algorithmes utilisés sur le web pour filtrer des contenus, ordonner des réponses à une recherche, sélectionner les informations pertinentes, faire des recommandations, calculer un score, prédire un évènement ou un risque. À l’heure de la révolution du Big Data, il ne fait aucun doute que les entreprises qui tireront leur épingle du jeu seront celles ayant développé les algorithmes les plus performants et les plus à même d’exploiter cette immense quantité de données. Les mécanismes de traitement des contenus par les plateformes réalisé au moyen des algorithmes restent opaques : que fait l’algorithme, où et quand il intervient. S’il propose un résultat personnalisé, à partir de quelles données personnelles ? En quoi cette personnalisation produit-elle un résultat différent? Quel encadrement juridique permettera de gérer tous ces enjeux ?
L’encadrement juridique des plateformes est-il suffisant ?
En effet, l’enjeu juridique principal de l’utilisation des algorithmes dans le monde économique est lié à la capacité de contrôler les résultats produits par ces algorithmes. Pour mieux comprendre le rôle joué par ces algorithmes de traitement des contenus et mieux concevoir l’encadrement de leur utilisation, il devient nécessaire de pouvoir contrôler les résultats qu’ils produisent. En ce qui concerne les pouvoirs publics, il s’agit de détecter l’existence de discriminations illicites et plus généralement de vérifier la conformité aux lois et règlements. En cas de présomption de non-conformité, se posera la question du lien avec la justice et de la valeur probante des contrôles.
Avec la loi pour une République numérique de 7 octobre 2016, la France a pris une position en pointe sur la régulation, notamment des plateformes. Concernant les algorithmes proprement dits, la loi a institué une exigence de transparence des algorithmes publics, qui prend sa place, au côté de la mise en libre accès des données publique (open data) comme un axe de « l’open government ». C’est dans le cadre international de « l’open government » qu’ est promue cette notion de transparence des algorithmes publics et les modalités de son application.
Conformément à la loi, tous les types de plateformes numériques, dans leur grande diversité, sont concernés par la qualification de plateformes en ligne: les marketplace, les sites comparateurs ainsi que toutes les plateformes d’intermediation dites « collaboratives » tant B to C (mise en relation d’un professionnel et d’un consommateur) que C to C (mise en relation de particuliers). D’ailleurs, on retrouve les statuts suivants : les FAI (fournisseurs d’accès à internet), les hébérgeurs, les éditeurs et nouvellement, les operateurs de plateforme en ligne. Le même article L.111-7 du code de la consommation donnant la definition aux operateurs de plateforme en ligne, instaure le principe de loyauté à l’egard des consommateurs et prévoit que tout opérateur de plateforme en ligne est tenu de délivrer au consommateurs une information loyale, claire et transparente sur :
– les conditions générales d’utilisation du service et sur les modalités de référencement, de classement des contenus ;
– l’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémuneration a son profit, des lors qu’ils influencent le classement ou le référencement des contenus mis en ligne ;
– la qualité de l’annonceur et les droits et obligations des parties en matière civile et fiscale, lorsque des consommateurs sont mis en relation avec des professionnels ou des non-professionnels.
Enfin, l’article L.111-7-1 du code de la consommation prévoit que les opérateurs de plateforme en ligne au-dela d’une certaine importance devront élaborer et diffuser des bonnes pratiques visant à renforcer le principe de loyauté et d’information des consommateurs.
D’ailleurs, grâce à la loi tous types de plateformes : des moteurs de recherche génériques (par exemple, Google, Bing) et spécialisés (Google Shopping, Kelkoo, Twenga, TripAdvisor), géolocalisation (Google ou Bing Maps), fils de nouvelles (Google News), sites de vente en ligne (Amazon, eBay, Allegro, Booking), films et musique (Deezer, Spotify, Netflix, Apple TV), partage de vidéo (YouTube, Dailymotion), systèmes de paiement (PayPal, Apple Pay), réseaux sociaux (Facebook, Linkedin, Twitter, Tuenti), app stores (Apple App Store, Google Play), plateformes collaboratives (AirBnB, Uber, TaskRabbit, Bla-bla car), sont responsabilisés vis-à-vis leurs utilisateurs en ce qui concerne le résultat d’utilisation des algorithmes et certes, à mon avis, le mouvement vers la confusion entre la censure et filtrage des contenus par le réseau social Facebook persiste toujours et donc le risque de tomber dans la censure cachée derrière le filtrage reste un peu minimisé mais actuel.
Les Sources:
Conseil Général de l’économie, de l’industrie, de l’énergie et des technologies, Rapport de 13.05.2016 « Modalités de régulation des algorithmes de traitement des contenus »
Les Sources Internet :