CEM-CRO

 

Une démarche en quatre temps…

Afin de mettre en place une démarche CRO (Conversion Rate Optimization) efficace et pertinente, il ne suffit pas de lancer des tests à l’aveugle. Pour obtenir de bons résultats et avoir un véritable impact, quatre étapes clés sont à respecter.

La définition des objectifs (KPI à améliorer) :

Que cherche-t-on à atteindre ? Quelles sont les actions souhaitées pour les internautes ? S’il s’agit de télécharger un livre blanc, les objectifs sont valorisés en nombre de téléchargements sur une période donnée. S’il s’agit de diminuer le nombre de paniers abandonnés, l’enjeu sera d’augmenter le nombre d’utilisateurs qui passent à l’étape suivante… Chaque objectif business donnera lieu à une stratégie CRO adaptée. Dans tous les cas, la définition d’un objectif business sur lequel on cherche à faire de la croissance est une première étape clé dans la démarche CRO.

Le choix des optimisations à entreprendre :

Quelles sont les optimisations à développer ? En fonction des objectifs fixés et actions souhaitées, il faut définir et prioriser (à l’aide d’une démarche CEM) une roadmap d’améliorations à tester. Par exemple, pop-ups ou CTA, évolution du contenu, tunnel d’achat simplifié… Il est crucial de prioriser efficacement dans la roadmap afin de maximiser les tests « positifs » qui seront lancés. L’œil d’un expert externe à l’entreprise peut être un précieux allié.

Le lancement de tests :

La préparation de tests consiste à réaliser des versions alternatives à l’originale. Plusieurs types de test existent. D’abord, le test A/B, ou split testing, ou split URL testing, confronte deux versions d’une même page. Ceci dans le but de savoir laquelle est la plus performante et d’en améliorer l’efficacité. Il permet d’identifier ce qui fonctionne auprès des utilisateurs en créant une version modifiée de la page originale. Par exemple, modifications d’éléments tels que le contenu, l’aspect visuel, etc. Les pages sont exposées au même moment et en général au même volume de visiteurs. Ainsi, on scinde les visiteurs en deux groupes (d’où le nom A/B) et on leur affiche à chacun une version de page différente. On suit alors le parcours des deux groupes en temps réel. On regarde ensuite lequel des deux donne le meilleur résultat par rapport à un objectif donné.

Contrairement au test A/B, le MultiVariate Testing permet de tester la combinaison de plusieurs changements simultanément. Et ensuite d’évaluer les performances respectives de ces différentes versions d’une même page web. Il est ainsi possible de créer une multitude de combinaisons d’éléments sur une page web et de mesurer précisément l’impact de ces éléments de manière isolée ou combinée entre eux : les boutons, les images, un texte (titre, description…), la présence de vidéos, la couleur, la taille d’éléments, l’efficacité d’une landing page, les éléments d’une newsletter, une bannière… L’outil générera autant de variantes qu’il y a de combinaisons pour déterminer laquelle a le plus grand impact sur le taux de conversion.

Le problème de ce type de test est qu’il nécessite d’avoir un volume important de trafic pour pouvoir tester toutes les variantes et obtenir la significativité statistique qui permet de prendre des décisions informées. Une fois les tests préparés, il faut les paramétrer. Le paramétrage se fait en plusieurs étapes : paramétrage, ciblage, modulation de trafic et validation (le test doit correctement s’afficher sur tous les navigateurs et smartphones).

La mesure des résultats et des optimisations :

Un bilan est dressé à la fin des tests pour mesurer les résultats, confirmer les versions gagnantes, tirer des enseignements clés et définir les prochains tests. Les variations les plus performantes peuvent être déployées. Dans un premier temps appliquées à 100% du trafic via l’outil d’A/B test puis développées directement sur le site. L’optimisation quasi permanente permet d’atteindre des taux de conversion toujours plus performants.

Le CRO s’inscrit en effet dans une démarche d’amélioration continue. Il ne faut donc jamais s’arrêter après un test (positif ou négatif) mais au contraire s’appuyer sur les différents enseignements de chaque test pour alimenter les campagnes d’optimisation suivantes.

Marianne LAURENT, Manager UX & Alexia DUMAS, Manager Data Consulting

Un sujet à nous soumettre ?
Un projet à partager ?
Envie de rejoindre l’aventure ?