Le PDG d’Airbnb, Brian Chesky, avait annoncé à l’occasion d’une conférence qui s’est déroulée à New York le 6 novembre dernier, la mise en place d’une série de mesures ayant pour objectif de renforcer la sécurité des utilisateurs, tant au niveau des propriétaires, que des locataires.
Une politique plus restrictive face aux comportements délictueux
Cette annonce fait en réalité écho aux nombreux dérapages ayant eu lieu dans des logements loués via la plateforme de réservation en ligne.
Initialement, Airbnb s’était placé sur le marché de la location comme un concurrent redoutable pour les hôtels en permettant à des particuliers de rentabiliser leur logement principal, ou secondaire, lorsqu’ils ne l’occupent pas, et de permettre à tout individu de louer des biens à moindre coût.
Mais cette logique du « gagnant-gagnant » semble s’amenuiser avec le temps. La plateforme s’est en effet, révélée être un excellent intermédiaire pour les réseaux de proxénétisme et de trafic de drogues, qui ont pris d’assaut les logements proposés sur la plateforme afin d’y mener leur activité en toute discrétion.
Craignant pour sa réputation, et à la suite du dépôt de nombreuses plaintes, Airbnb vient de breveter un logiciel pouvant établir, à partir du croisement de diverses données, si une personne souhaitant louer un bien via la plateforme est digne de confiance.
Une technologie capable d’identifier des individus instables
Tout comme les applications de rencontres, la plateforme a elle aussi décidé de recourir à un algorithme afin de créer des “matchs” entre propriétaires et locataires.
Airbnb a, en effet, élaboré un logiciel qui va prendre en considération les personnalités des propriétaires et des locataires inscrits et qui calculera un taux de compatibilité entre les deux. Mais, à la suite de nombreuses déconvenues relatées par des propriétaires ayant proposé leur bien à la location par l’intermédiaire de la plateforme, on peut se demander si la finalité du logiciel n’est pas plutôt d’établir un pourcentage de « risque de dégradation » du bien.
Il va analyser les traits de comportement et de personnalité des locataires potentiels en se basant sur leur « personnalité en ligne » pour en déduire leur fiabilité et leur aptitude à louer et garder un bien en état.
Cette innovation s’inscrit dans la continuité des travaux de la start-up Trooly, rachetée par Airbnb en 2017, qui avait développé un système similaire de vérification d’antécédents sur les réseaux sociaux.
Si cette technologie est déjà protégée aux États-Unis, elle n’a fait l’objet d’une demande de protection auprès de l’Office européen des brevets (OEB) qu’en décembre 2019. Cette demande vient d’être acceptée.
Le logiciel est capable d’analyser de nombreux sites internet, principalement les profils Facebook, les tweets, les articles de presse en ligne, dans lesquels serait mentionnée l’identité de la personne.
Seront pris en considération par le logiciel, les images, les vidéos et des mots-clés pour déterminer si la personne est digne de confiance. Les mots-clés type tels que « drogue », « alcool », « prostitution », feraient ainsi chuter un taux de compatibilité.
S’il ressort de cette analyse de la personnalité en ligne, que l’individu qui souhaite louer s’avère avoir un comportement anti-social, qu’il est impliqué dans le milieu de la pornographie, ou qu’il a déjà fait l’objet d’un signalement pour avoir publié un contenu à caractère haineux, alors il sera reconnu comme étant instable et inapte à louer.
Seront également « blacklistés », les individus rattachés à de faux-profils sur les réseaux sociaux ou ayant communiqué de fausses informations sur eux lors de leur inscription sur la plateforme.
Novateur ou dangereux ?
Le recours à l’intelligence artificielle permet ici d’anticiper, grâce au croisement de données, la survenance dans les logements proposés sur la plateforme de comportements délictueux, voir criminels.
Mais cela reste tout de même une forme d’intrusion dans la vie privée. Or, le groupe Airbnb s’est défendu en affirmant qu’il s’agissait d’un simple dépôt de brevet afin de protéger son invention et qu’il n’avait, pour le moment, pas recours à l’algorithme décrit dans la demande de brevet.
Le groupe a donc gardé ses méthodes de filtrage classiques. A savoir la vérification automatique des pièces d’identité, d’un justificatif de domicile et de la comparaison des identités collectées avec des fichiers afférant à des infractions pénales comme celle, entre autres, d’apologie du terrorisme.
Sources :
- VITARD (A.), « Airbnb conçoit un logiciel capable de détecter et d’évincer les “mauvais” locataires», 6 janvier 2020, L’Usine Digitale
- FABRION (M.), « Comment Airbnb veut détecter les utilisateurs dangereux», 8 janviers 2020, FrenchWeb.fr
- FOURNIER (G.), « Airbnb prétend pouvoir anticiper les comportements dangereux grâce à l’IA», 8 janvier 2020, Siècle Digital