Airbnb utilise l’IA pour détecter “les fauteurs de troubles potentiels”

Pour protéger ses utilisateurs et leurs logements, Airbnb a mis au point un logiciel intelligent capable de détecter les signes annonciateurs d’une location… peu louable. Une nouveauté qui s’inscrit dans la lutte active contre les “fauteurs de troubles potentiels”, leur cheval de bataille depuis 2020.

Anniversaires, nouvel an, projets X… Pendant la crise sanitaire (mais pas que), les logements locatifs rendus sens dessus dessous ont été légion et les plaintes des propriétaires n’ont pas tardé à suivre. Le géant de la location touristique a donc réagi, promettant de “faire tout [son] possible” pour empêcher ces dérives.

Dans un premier temps, ce sont des punitions a posteriori qui ont permis de calmer le jeu, notamment en interdisant les nouvelles locations des contrevenants, ou en limitant les locations des jeunes utilisateurs avec trop de mauvais avis.

Désormais, c’est une mesure préventive qui fait son apparition. Comme l’a rapporté la BBC dans un article du 25 octobre dernier, Airbnb a développé un logiciel “basé sur l’IA” pour détecter les profils douteux. Ce dernier analyse tout un tas d’informations, et signale celles qui peuvent être mauvais signe : date de création du compte relativement récente ; réservation souhaitée dans la même ville que sa ville de résidence ; durée du séjour limitée à une nuit ; coïncidence avec des périodes de fêtes comme Halloween ou le Nouvel An…

Si quelqu’un réserve une chambre pour le réveillon du Nouvel An pour une nuit seulement et qu’il vient de la même ville que l’hôte, il s’agira probablement d’une fête.”, explique Naba Banerjee, responsable de la sécurité et de la confiance chez Airbnb.

Le hic, comme l’a souligné Edward McFowland III, professeur adjoint de technologie et de gestion opérationnelle à la Harvard Business School, c’est que la machine peut aussi épingler quelqu’un de bien intentionné qui ne cocherait pas toutes les bonnes cases.

Après tout, une récente étude a montré que le fonctionnement d’une IA est comparable à celui d’un pigeon. Comme l’a rapporté le média Usbek&Rica, les auteurs de cette étude racontent que “les pigeons n’ont pas besoin de règle logique [comme les êtres humains], mais apprennent des essais précédents et de leurs erreurs”, conformément au principe des algorithmes. Cela leur permettrait “de se souvenir des visages, de voir le monde avec des couleurs vives ou de parcourir des itinéraires complexes”, mais aussi, logiquement, de répéter bêtement ce qu’on leur apprend.

https://www.francesoir.fr/societe-science-tech/airbnb-utilise-l-ia-pour-detecter-les-fauteurs-de-troubles-potentiels

 897 total views,  2 views today

image_pdf

1 Commentaire

Les commentaires sont fermés.