La qualité des données d’une plateforme : un vecteur de confiance.
Comment contrôler les données que l’on affiche sur son site afin de gagner et de préserver la confiance des utilisateurs ? Dans Platform Strategy, Launchworks & Co décrit le “Trust” comme un enabler de plateforme. À un niveau de scale-up, qui correspond au stade de vie de Meilleurs Agents, il est nécessaire de fixer des règles d’accès et d’engagement sur la plateforme et de déployer un cadre de confiance et de sécurité. Ces changements bâtissent les piliers de la confiance, nécessaire aux interactions sur une plateforme.
Voilà un retour d’expérience, un an après la mise en place de ce système vertueux qui favorise la confiance des utilisateurs en s’assurant de la qualité des données sur la plateforme.
1. Le problème de qualité de la donnée, criticité et exploration des causes
La prise de conscience d’un problème
Sur une plateforme, deux populations qui ont du mal à se trouver sont amenées à se rencontrer sur un lieu tiers. Ce lieu tiers, pour accomplir sa mission, doit créer des conditions différentes de celles dans lesquelles ces populations ont des difficultés à se rencontrer : pour cela il faut créer de la confiance. Pour commencer il faut connaître les peurs de ces populations, comprendre leurs problèmes et leurs besoins. Ainsi les conditions de la confiance seront différentes d’une plateforme à l’autre : sur Airbnb les photos sont essentielles, elles le sont moins sur Uber. On retrouve cependant des invariants, comme les avis clients. Blablacar s’est notamment illustré sur ce sujet avec son framework DREAMS, qui détaille la façon dont la confiance en ligne est créée sur les plateformes d’échange entre individus.
Chez Meilleurs Agents, nous avons d’un côté les particuliers qui ont pour objectif de vendre leur bien immobilier ; leur projet est long, souvent stressant et ils ont besoin d’être rassurés à la fois sur l’estimation du prix et sur l’agence qui sera en charge de la vente. De l’autre côté, nous avons des agences immobilières qui cherchent à être visibles auprès de ces vendeurs et à se démarquer des autres agences. Notre parti pris, notre ambition même, est donc d’apporter plus de transparence sur le marché immobilier, en donnant aux particuliers les meilleures informations sur les prix, les ventes et les agences. Concrètement, cela se traduit par un outil d’estimation en ligne, une carte des prix immobiliers, un explorateur des ventes réalisées, une recommandation d’agences. Au coeur de ces outils, les données de ventes saisies par les agences présentes sur Meilleurs Agents sont essentielles car elles contribuent à la fois à améliorer notre outil d’estimation et à recommander au particulier les agences les plus pertinentes pour son projet. Nous avons donc eu pendant longtemps pour objectif d’avoir le plus de données de ventes possible.
Or il y a un an, nous avons lancé un produit destiné aux agences immobilières qui leur permet d’explorer les ventes dans un secteur afin d’affiner leurs estimations. Cet outil a mis en lumière certains problèmes de qualité sur nos données de ventes : des doublons, des caractéristiques inexactes ou incomplètes sur les biens et des fausses ventes.
Le problème est que cette donnée de mauvaise qualité :
- nous empêche de fournir des outils de bonne qualité aux agences
- met en péril la confiance du particulier dans la plateforme et donc dans les agences immobilières que nous recommandons.
Compréhension du problème
Pour améliorer la qualité globale de nos données de ventes, la première action a été de comprendre les différentes causes du problème. Pour cela, nous avons analysé les données problématiques et échangé avec les commerciaux, pour creuser à la fois les causes du problème et l’impact sur les utilisateurs. Voilà les différents problèmes que nous avons alors identifié :
- Problèmes de configuration des logiciels qui importent les données de ventes de l’agence sur l’espace pro Meilleurs Agents.
- Problèmes d’organisation interne à l’agence : un employé saisit une vente au moment de la promesse de vente et un autre la re-saisit au moment de l’acte de vente, ne voyant pas qu’elle existait déjà.
- Problèmes de saisie et de gestion des données sur nos interfaces : absence de fonctionnalités de base permettant de supprimer, filtrer ou répartir facilement des ventes entre plusieurs agences.
- Problème de compréhension des données à saisir : quel prix (prix de vente net ou frais inclus par exemple), quelle date de vente (compromis ou signature de l’acte), présence de photos.
- Problèmes de discours : il était acceptable pour un réseau d’agences de mettre toutes les ventes du réseau sur chaque vitrine d’agence, ou pour une vente d’une maison avec parking de saisir une vente de maison et une vente de parking.
- Plus rares : partage de mandat entre deux agences (la vente est donc faite par les deux) et cas de ventes fictives.
Nous avons réalisé à ce moment l’ampleur de la tâche : cette situation était le résultat de tout un système et de toute une organisation dont le but a été pendant longtemps la quantité plus que la qualité des données. Les solutions devaient alors être à la fois techniques, humaines, organisationnelles et le changement devait commencer en interne.
2. Amélioration de la qualité de la donnée = règles + people + process
Mise en place des règles en interne
Pour sensibiliser toute l’équipe Produit à ces problématiques, j’ai organisé un atelier dans lequel nous nous sommes mis dans la peau d’une agence qui utilisait nos outils en comptabilisant chaque fois qu’une vente apparaissait en doublon. Non seulement cet atelier nous a donné une estimation du pourcentage de fausses données, mais il a aussi permis d’impliquer tout le monde sur ces questions. Il a ensuite fallu aligner les différentes équipes de l’entreprise sur les règles à définir pour mettre en place les actions les plus efficaces. Nous nous sommes donc lancés sur la rédaction d’une Charte des Biens Vendus, en co-conception entre les équipes Produit, Marketing et Opérations, afin de réunir les grands principes de qualité de nos données de ventes. Il a fallu pour cela identifier clairement toutes les habitudes qu’il fallait changer : par exemple, pour un groupement de quelques agences, nous autorisions chaque agence à afficher toutes les ventes du groupe, ce qui créait des affichages multiples à certains endroits du site. Les décisions ont été compliquées à prendre car nous étions à l’intersection entre des intérêts très différents, nous avons donc point par point établi l’impact de chaque cas afin de délimiter ce qui était acceptable ou non à la fois d’un point de vue commercial et d’un point de vue utilisateur du site. Nous avons ensuite intégré cette charte à la trame des commerciaux, nous avons communiqué largement à nos clients par différents moyens et de façon répétée. Cette première étape a été cruciale pour la suite.
Mise en place d’un process de gestion des signalements
Une fois ces principes de qualité édictés, nous avons voulu mettre en place un pôle Modération et l’outiller. L’analyse des données nous a permis de comprendre que nous ne pouvions pas détecter automatiquement tous les doublons et que les fausses ventes étaient indétectables. L’action humaine paraissait donc indispensable pour traiter ces données, or nous n’avions personne dédié à cette tâche. S’agissant d’un nouveau poste, au contenu encore peu défini, nous avons lancé une période de tests sur la modération afin d’itérer rapidement sur le process. Lorsque sur notre site une vente était signalée par un utilisateur comme fausse ou en doublon, j’envoyais d’abord un email à cet utilisateur en lui confirmant la prise en charge. J’envoyais ensuite un email à l’agence signalée, avec une demande de justificatif de vente. En l’absence de réponse, la donnée est masquée puis supprimée. Ces différentes étapes étaient notées dans une simple spreadsheet, sur laquelle il était très simple de modifier les étapes et les champs en fonction des apprentissages sur l’efficacité du process. Cette période m’a permis d’avoir une estimation du temps de traitement d’un signalement et de la charge de travail que représenterait ce poste : à l’issue de cette phase j’étais en mesure de valider le besoin d’un poste à temps plein.
Mise en place d’un pôle Modération
S’est ensuite posée la question de l’équipe à laquelle ce modérateur reporterait car le terme de modération regroupe des réalités très différentes d’une entreprise à l’autre. Cette question a été tranchée en étudiant les causes de l’apparition de fausses données : ce poste exigeait une connaissance du business et de l’entreprise ainsi qu’un accompagnement et de la pédagogie envers nos agences clientes. Nous avons donc créé un pôle à part entière, rattaché aux équipes de Responsables Succès Client. Ce ne sont donc pas les personnes qui suivent habituellement les agences qui traitent la modération, afin d’avoir une vraie neutralité. Le recrutement s’est fait en interne, ce qui a grandement accéléré la phase d’onboarding puisque la personne connaissait déjà le business, le fonctionnement de Meilleurs Agents et les problématiques des agences immobilières. Une fois le process peaufiné et le recrutement enclenché, nous avons pu développer un outil interne permettant de gérer plus vite ces signalements. En effet, la spreadsheet utilisée pendant la période de test du process a finalement constitué le MVP de l’outil de modération que nous avons développé.
3. Détecter en amont, mesurer et traiter les récalcitrants
Agir en amont pour endosser entièrement le rôle de tiers de confiance : des algorithmes de détection
Si de nombreuses agences n’avaient aucun état d’âme à signaler les ventes de leurs concurrents, d’autres étaient assez mal à l’aise et parlaient de “délation” : nous ne répondions pas complètement au problème en nous arrêtant à la modération. La mise en place d’un pôle de Modération nous permettait de traiter les signalements faits sur le site et donc d’avoir une action réactive, mais pour plus d’impact sur la qualité des données et la confiance de nos utilisateurs, nous avons voulu concevoir des algorithmes de détection de doublons. Les quelques mois de recherche et de mise en place de nouvelles règles et de process de modération nous avaient appris beaucoup sur les causes et sur l’impact de ces doublons sur les utilisateurs. Les “doublons évidents” (mêmes photos, mêmes données à une exception près comme une surface arrondie au m2 supérieur ou une date de promesse saisie à la place de la date de vente…) représentaient alors 80% des signalements : source de frustration pour l’utilisateur qui ne comprenait pas pourquoi nous affichions ces données. Cette situation était la conséquence de problèmes de configuration ou d’organisation des agences, sans mauvaise intention. Pour agir en amont sur ces cas de figure et accompagner l’agence dans la gestion et l’affichage de ses données de ventes, nous avons mis en place un algorithme de détection des doublons “évidents” avec l’équipe Data. Ainsi ces données sont gérées par le pôle Modération, qui peut agir avant que les doublons soient signalés par un utilisateur sur notre site. Nous avons ensuite poussé encore plus loin la détection, avec la mise en place d’un algorithme utilisant la reconnaissance d’images pour détecter les logos sur les biens vendus des agences, ce que nous n’acceptons pas dans la Charte des Biens Vendus. Si pour le moment ces algorithmes sont uniquement utilisés par le pôle Modération, de nombreux usages peuvent être imaginés à l’avenir pour détecter les mauvaises données dès leur saisie dans l’espace pro de nos agences clientes.
Gérer fermement les “récidivistes” pour préserver la confiance
Si la grande majorité des mauvaises données étaient involontaires, nous avons également rencontré des cas plus compliqués de ventes fictives. Certains admettaient relativement facilement qu’ils avaient “enjolivé la situation” ; un cas classique est une agence qui publie une vente de parking et une vente de maison séparément alors qu’elle a vendu les deux ensemble, ce qui augmente son nombre total de ventes et donc améliore sa visibilité sur la plateforme. Mais d’autres cas ont été plus complexes : les récidivistes, ceux qui publient des doublons et fausses ventes et réitèrent même après l’intervention du pôle Modération. La gestion de ces cas n’a été possible que parce que nous avions mis en place tous les changements cités ci-dessus, car il est difficile d’envisager de rompre volontairement un contrat avec un client sans une profonde conscience en interne de l’importance de ces questions.
Pour démontrer l’impact des récidivistes, nous avons notamment comparé la perte que représenterait le MRR de ces agences par rapport à la somme des MRR des agences qui se plaignaient de la situation et menaçaient de résilier leur abonnement chez nous : l’argument est efficace ! À noter que les plateformes sont de plus en plus confrontées à ces questions, Uber a notamment annoncé cette année que les conducteurs les plus mal notés seraient bannis, puis que les utilisateurs subiraient le même sort. Ces dérives au sein d’une plateforme mettent en péril la confiance des utilisateurs et doivent être contrôlées, il en va de la sécurité des utilisateurs dans le cas d’Uber, et d’un projet immobilier, donc un projet de vie, chez Meilleurs Agents.
Mesurer l’amélioration et intégrer la qualité de la donnée au sein de nos projets pour plus d’impact
Ces premières mesures sont les fondements d’un système véritablement scalable, prêt à traiter toujours plus de données de qualité pour nos utilisateurs. Les prochaines étapes que l’on imagine mettre en place concernent d’autres types de données sur notre plateforme, comme les avis clients. Cependant, comment savoir que les différentes initiatives menées sont les bonnes ? Quelle mesure de ces différentes actions ? Quel impact sur l’utilisateur ? Ce sujet fait partie des exigences de base de l’utilisateur : en tant que problématique centrale de plateforme, l’ensemble des KPIs de la plateforme devraient bénéficier de l’amélioration de la qualité des données. S’il n’y a pas de doublons dans les ventes affichées sur la vitrine d’une agence, le temps passé sur la page devrait augmenter, ainsi que le taux de contact du particulier vers l’agence. Mais il s’agit d’une corrélation et non d’une causalité, un ensemble de facteurs pouvant influer ces metrics. Ainsi ce que l’on va surveiller de façon plus précise, ce sont les réactions des utilisateurs particuliers provenant de nos enquêtes qualitatives (tests utilisateurs, prises de feedbacks), les motifs de résiliation des agences ou encore les commentaires spontanés des études de satisfaction sur nos produits. Le succès est l’absence totale de mention de doublons ou de fausses ventes de la part de nos utilisateurs !
S’assurer de la qualité de la donnée au coeur d’une plateforme doit être un engagement d’entreprise, un engagement qui se ressent dans la culture, dans l’organisation interne, dans les process mis en place et dans chaque projet initié. Si chez nous tout n’est aujourd’hui pas parfait, l’essentiel pour l’avenir est que toutes les équipes aient à coeur de préserver et d’améliorer la qualité des données, mais aussi que l’organisation de l’entreprise permette de traiter ces problématiques.
Sources
https://siecledigital.fr/2019/05/29/uber-bannir-utilisateurs-mal-notes/
https://blog.blablacar.fr/blablalife/inside-story/in-trust-we-trust