Dans certains secteurs très compétitifs, la conversion est un enjeu majeur pour les équipes produits. Lorsqu’un parcours utilisateur ne parvient pas à convertir suffisamment d’utilisateurs, on peut être tenté de mettre en place des techniques d’optimisation telles que l’A/B testing. Mais pour un parcours vraiment très peu performant, une autre méthode est particulièrement puissante : les tests utilisateurs comparatifs.

En association avec Testapic, nous avons mis en place cette méthode pour un acteur du secteur bancaire. Son parcours de souscription et de demande de carte enregistrait des taux de conversion très faibles, et les équipes en charge de ce parcours souhaitaient évaluer son UX par le prisme des tests utilisateurs. Mettre en place des tests comparatifs à non seulement permis d’identifier des points de friction, mais également :

  • d’évaluer la qualité de cette expérience en comparaison de celle des 2 concurrents principaux
  • de classer les 3 acteurs selon la qualité de leur parcours utilisateur (du plus au moins performant)
  • d’identifier les bonnes et les mauvaises pratiques des concurrents afin de s’en inspirer pour l’optimisation du parcours

230

testeurs

3

sites testés

Client

Anonyme

Durée du projet

1 mois

Notre approche : diviser le panel de testeurs entre les différents acteurs et faire tester le parcours de demande de carte à chaque segment

01

Déroulé du projet

Préparation :  rédiger le protocole et structurer le plan d’analyse

L’enjeu du protocole d’analyse pour des tests comparatifs consiste à bâtir une structure commune aux différents acteurs, tout en adressant les différences fondamentales entre leurs parcours : fonctionnalités spécifiques, longueurs des parcours variables, ordres des étapes différents… L’idée est de permettre une comparaison entre les expériences sans diluer ce qui fait leur spécificité – afin d’identifier des opportunités d’amélioration à travers l’inspiration des bonnes pratiques et l’identification des mauvaises.

Le choix du parcours et des acteurs comparés a toute son importance. Ici, les parcours des différents sites possédait une ossature commune :

  • des principes de formulaire avec saisie d’informations personnelles : découpage du formulaire en étapes et sous-étapes
  • la sélection d’une offre spécifique : la carte demandée par l’utilisateur
  • l’import de documents : les pièces justificatives 
  • des process de sécurité et d’authentification : signature électronique et codes de vérification

Au sein même de cette ossature, les différents acteurs avaient des moyens différents d’organiser les étapes ainsi que des moments clés et de friction potentielle différents :

  • l’un des parcours privilégiait le découpage du formulaires en multiples étapes très courtes, là où les autres étaient fait de moins d’étapes plus longues
  • sur l’un des parcours, les pièces justificatives étaient demandées dès le début, alors que sur les autres elles étaient demandées à la fin
  • l’un des parcours comportait une étape de reconnaissance faciale pour valider l’identité de l’utilisateur

Le protocole a ainsi été construit pour que les différents segments du panel aient le même objectif (demander une carte et ouvrir un compte), le même point d’entrée (la page d’accès au tunnel de demande de carte) et le même point de sortie (la page de confirmation de la demande). L’évaluation comparative lors de l’analyse en serait alors facilitée. De plus, des questions relatives aux spécificités de chaque acteur ont été ajoutées afin de comprendre les partis pris les plus appréciés en termes d’expérience utilisateur.

Le plan d’analyse se présentait ainsi :

  1. Analyse du parcours de l’acteur principal : points forts et axes d’amélioration
  2. Analyse du parcours du concurrent n°1 : bonnes et mauvaises pratiques
  3. Analyse du parcours du concurrent n°2 : bonnes et mauvaises pratiques
  4. Comparatif global : classement des expériences, impact des spécificités de chaque parcours et récapitulatif des bonnes pratiques à implémenter
02

Analyse vidéo : identifier les points de friction et comprendre les comportements des utilisateurs 

Les enregistrements vidéos réalisés avec la plateforme Testapic nous ont permis de visualiser l’écran des testeurs en interaction avec le site ainsi que leurs explications enregistrées via le micro de leur ordinateur. Ces données qualitatives nous ont permis de suivre leur parcours du début à la fin, mais aussi et surtout leurs interactions : où cliquent-ils, où passent-ils leur souris, jusqu’où scrollent-ils, quelles sont les pages et les contenus qu’ils visitent…

Dans le cadre de ces tests, nous étions surtout particulièrement attentifs :

  • aux contenus consultés avant d’entrer dans le tunnel de demande
  • aux erreurs de saisi dans la complétion des champs de formulaires
  • à la validation des process d’authentification et de signature électronique 

Ces éléments et le reste des interactions secondaires nous ont permis de tirer des premières conclusions :

  • donner un maximum d’information sur le process et ses étapes avant d’entrer dans le tunnel de demande assurait une meilleure expérience utilisateur par une meilleure anticipation et gestion des attentes
  • la gestion des formulaires longs en micro-étapes, le regroupement des champs, l’affichage des groupes un par un et la validation des champs dès leur complétion permettait de minimiser la charge cognitive des utilisateurs 
  • les fonctionnalités de sécurité simples comme la réception d’un code par SMS étaient plus efficace car plus familières, là où des fonctionnalités comme la reconnaissance faciale généraient plus de doutes et de méfiance
  • l’ordre des étapes en tant que tel n’avait que peu d’impact 
03

Analyse écrite : évaluer le volume et l’impact des retours

L’autre partie des tests a été réalisée sous forme de questionnaires écrits / sondages. Ces données quantitatives nous ont permis de confirmer les tendances dégagées par les vidéos, et d’en évaluer le volume sur un panel plus large : les vidéos concernaient quelques dizaines de testeurs, là où les questionnaires s’adressaient à plusieurs centaines de participants.

Leur test consistait à réaliser le même parcours que les testeurs vidéos, à ceci prêt que les participants aux sondages étaient beaucoup plus guidées du fait que lors de l’analyse, on ne voit pas leur écran (il nous était donc nécessaire de baliser davantage leur parcours pour s’assurer qu’ils visitent les pages attendues).

Leurs retours nous ont permis de valider largement les constats faits sur la base des vidéos. Dans une moindre mesure, ils nous ont également permis d’évaluer la récurrence et la criticité des éléments bloquants à une plus large échelle.

04

Synthèse et restitution : transmettre la vue d’ensemble les recommandations

La restitution suivait le plan d’analyse et se présentait ainsi :

  1. Rappel de la méthodologie
  2. Parcours de l’acteur principal + recommandations
  3. Parcours du concurrent n°1 + recommandations
  4. Parcours du concurrent n°2 + recommandations
  5. Synthèse et priorisation des recommandations

Le premier objectif était de donner à l’équipe produit en charge du parcours une vision globale des enseignements et la vue macro de l’étude comparative : quel acteur est le plus performant ? De quel acteur faut-il s’inspirer ? Quel acteur est l’exemple à ne pas suivre ? Ceci dans le but de les situer par rapport à leurs concurrents et de comprendre la direction à suivre pour se rapprocher du parcours le plus efficace.

Le second objectif était de donner l’ensemble des actions précises à mettre en place pour poursuivre cette stratégie UX. Certaines recommandations relevaient de l’optimisation, rapide à mettre en place, là où d’autres impliquaient le développement de nouvelles fonctionnalités et la mise en place d’autres méthodologies de tests.

Les principaux enseignements ont été les suivants :

  • Les utilisateurs préféraient le parcours découpé en multiples petites étapes, et ce, peu importe le temps effectif pour mener à bien la mission
  • La multiplication des systèmes d’aide à la saisie dans les formulaires amélioraient considérablement le confort et la vitesse de complétion perçus par les testeurs
  • Les éléments permettant à l’utilisateur de se situer dans le parcours étaient déterminants pour l’expérience utilisateur : étapes du process en début de tunnel, étape en cours de réalisation, prochaine étape,  sous-étapes, barre de progression…
  • L’anticipation était un élément clé : prévenir les utilisateurs en amont des documents qu’ils allaient devoir importer et des informations qu’ils devraient réunir 
  • Les utilisateurs préféraient être guidés dans leur choix et avoir des options limitées plutôt que trop d’option, à condition que les choix ne soient pas orientés en faveur de l’entreprise, mais bien dans leur intérêt à eux (les tests ont démontré que les utilisateurs étaient très sensibles aux dark patterns et que leur impact sur l’image de l’entreprise était extrêmement néfaste)

L'équipe

UX Designer

Nos expertises

UX Design, User Research

Les outils

Figma, InVision, Google Doc, Maze

Une conversation est plus simple que 1.000 mots