par Emma GARRIC, étudiante du Master 2 Droit des communications électroniques

« Le premier risque se présente dès lors que l’IA vous connait mieux que vous ne vous connaissez vous-même » cite Kaï-Fu Lee, spécialiste en intelligence artificielle. En effet, l’intelligence artificielle peut représenter un risque à partir du moment où elle prend la place de l’humain.
La gestion de flotte automobile connait aujourd’hui une transformation profonde avec l’effet de la digitalisation et de l’explosion des données. Longtemps cantonnée à des tâches classiques comme l’entretien, l’assurance et la gestion des contrats, elle entre dans l’ère du numérique avec l’intelligence artificielle. Son intégration dans la gestion de flotte automobile permet d’analyser un volume plus conséquent de données, la position GPS, les habitudes de conduite, la consommation de carburant ou encore le temps d’immobilisation du salarié afin de générer un pilotage prédictif et optimisé des véhicules. Ce système permet d’identifier les conducteurs présentant un risque. Cette transformation permet à l’IA de devenir un copilote pour les gestionnaires de flotte.
Cependant, il ne faut pas que ce système dépasse les limites imposées par le Règlement général sur la protection des données et dérive vers un véritable outil de surveillance continue ou un instrument de contrôle individuel.
Le secteur le plus impacté est celui des flottes d’entreprises utilisant des véhicules thermiques ou électriques. En effet, l’IA prédictive est utilisée pour planifier les itinéraires en temps réel, minimiser la consommation de carburant, elle anticipe les besoins de maintenance en analysant les données des capteurs. Ce mode de maintenance prédictive réduit les temps d’immobilisation et allège les coûts pour les employeurs.
Dès lors, il convient de se demander dans quelle mesure l’intelligence artificielle peut-elle devenir un copilote pour la gestion de flotte automobile sans compromettre la protection des données des salariés ?
La mise en place de nouveaux usages : la surveillance algorithmique
De nouveaux usages sont apparus avec l’intégration de l’intelligence artificielle dans la gestion des flottes automobiles, parmi lesquels la surveillance algorithmique des conducteurs. Les systèmes d’IA permettent désormais de collecter et analyser des données en continue comme les trajets, la vitesse, les freinages brusques, la consommation ou encore les périodes d’immobilisation.
Cette surveillance a pour objectif principal d’optimiser les performances des véhicules et permettre d’améliorer la sécurité du conducteur. Elle présente des avantages multiples, elle permet d’identifier rapidement les pratiques à risque, de prévenir les accidents et d’anticiper la maintenance des véhicules avant l’apparition de pannes critiques.
Cependant, elle permet également à l’employeur de reconnaître les employés présentant un risque. Elle modifie radicalement les relations entre employeur et salarié puisqu’elle introduit un suivi permanent et automatisé. Ce nouvel usage pose la question du contrôle excessif et de la surveillance intrusive, notamment quand elle est automatisée et permanente. Les entreprises se voient donc dans l’obligation de définir avec précision les usages autorisés de ces outils, en établir les limites claires sur les types de données collectées et veiller à ce que la surveillance algorithmique ne devienne pas un outil de contrôle excessif mais seulement un outils d’aide à la décision. La rédaction d’une charte d’usage est une mesure nécessaire pour prévenir les éventuels conflits.
Il est donc nécessaire que cette introduction d’IA ait un encadrement légal clair afin de ne pas être disproportionnée et de ne pas porter atteinte à la protection des données des salariés.
Les limites imposées par le RGPD : une obligation de protection des données personnelles
Les entreprises en collectant et en analysant des données issues des trajets ou des comportements de conduite deviennent des responsables de traitement; les éditeurs de solution, eux, deviennent des sous-traitants selon le RGPD.
Le RGPD entrée en vigueur le 25 mai 2018 encadre strictement le traitement de données personnelles, en particulier celui du salarié en matière de géolocalisation. Il impose aux entreprises une protection rigoureuse des données personnelles des conducteurs. Le suivi continu est prohibé, l’employeur peut seulement suivre un salarié à des fins précises et seulement pendant ses heures de travail. En effet, la CNIL a publié l’interdiction d’un suivi permanent en dehors des heures de travail.
Concernant les données personnelles, toute information permettant d’identifier directement ou indirectement un salarié, qu’il s’agisse par exemple de son emplacement, de ses habitudes de conduite ou encore de son temps de travail est considérée comme une donnée personnelle.
Le recours à cette solution impose pour l’employeur d’informer les salariés de manière claire et continue sur les finalités de la collecte, de limiter la durée de la conservation des données, de garantir que le traitement repose sur une base légale appropriée. Cela signifie que l’IA utilisée pour la gestion de flotte doit être configurée de manière à minimiser les risques : pseudonymisation des données, chiffrement, accès restreint aux seules personnes autorisées et traçabilité des actions.
Le salarié doit également être informé de l’existence du dispositif, des objectifs et de ses droits d’accès, de rectification ou encore d’opposition. Il est recommandé de mettre en place une politique d’habilitation pour cet usage. Il est également possible d’effectuer une analyse d’impact.
La cour de cassation a pu se prononcer sur le sujet en affirmant que la collecte continue de données de localisation peut être disproportionnée.
Ces contraintes légales peuvent représenter un frein opérationnel pour l’intégration de l’IA mais elles restent essentielles afin d’équilibrer l’efficacité des systèmes d’IA et le respect des libertés individuelles des salariés.
La responsabilité de l’employeur face au double numérique
L’IA copilote pourrait évoluer vers un double numérique, un profil virtuel du salarié alimenté par les données collectées en temps réel. Cependant, le conducteur réel peut diverger de son double algorithmique.
Cette situation entraine directement la responsabilité de l’employeur qui doit vérifier que l’IA ne soit pas utilisée de manière abusive. Les décisions prises à partir de ces données doivent respecter le droit du travail et les principes de proportionnalité. L’IA doit seulement avoir un rôle de conseil en cas de décision et non un rôle décisionnaire.
En application de l’IA Act, il incombe aux employeurs d’être vigilants en intégrant des critères de sécurité, de transparence et de supervision humaine. De plus, il est possible que l’IA soit considérée à haut risque si elle a des effets significatifs sur les salariés au sens de l’IA Act. Les plateformes qui proposent un score de conduite ou une notation comportementale pour prendre des décisions individuelles peuvent également entrer dans la catégorie d’IA à haut risque. Dans ce cas, l’employeur devra documenter la logique de notation et les critères, garantir la possibilité d’un recours humain en cas de contestation et évaluer l’impact des décisions automatisées.
En cas d’accident ou de manquement à la sécurité, l’entreprise peut voir sa responsabilité civile ou pénale engagée si l’outil algorithmique n’a pas été correctement paramétré ou si les mesures de protection des données ont été insuffisantes.
Sources :
https://www.cnil.fr/sites/cnil/files/2025-03/cahiers_2024_tables_informatique_et_libertes.pdf?
https://www.cnil.fr/fr/la-geolocalisation-des-vehicules-des-salaries