Data & Analytics Archives - abtasty https://www.abtasty.com/fr/topics/data-analytics/ Tue, 10 Dec 2024 12:47:59 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.7.1 https://www.abtasty.com/wp-content/uploads/2024/02/cropped-favicon-32x32.png Data & Analytics Archives - abtasty https://www.abtasty.com/fr/topics/data-analytics/ 32 32 Tops & Flops AB Tasty x Welyft  https://www.abtasty.com/fr/resources/tops-flops-welyft/ Wed, 25 Sep 2024 12:58:40 +0000 https://www.abtasty.com/?post_type=resources&p=154599 Et si on apprenait en s’amusant ? Participez à notre prochain webinar et plongez dans l’univers de campagnes CRO exclusives. Saurez-vous deviner lesquelles ont cartonné 💥 et lesquelles ont fait un flop 👎 ? Chez AB Tasty et Welyft, nous […]

L'article Tops & Flops AB Tasty x Welyft  est apparu en premier sur abtasty.

]]>
Et si on apprenait en s’amusant ?

Participez à notre prochain webinar et plongez dans l’univers de campagnes CRO exclusives. Saurez-vous deviner lesquelles ont cartonné 💥 et lesquelles ont fait un flop 👎 ?

Chez AB Tasty et Welyft, nous mettons en lumière nos clients, que leurs campagnes soient un franc « top » ou un véritable « flop ». L’important, ce sont les learnings avec lesquels on repart.

Rejoignez-nous pour cet événement exclusif le 10 décembre prochain à 11h30, co-organisé avec notre partenaire Welyft, expert dans le développement de stratégies CRO.

Au programme :

  • des campagnes CRO menées par des marques incontournables comme Domitys, les enseignes Bricolage du groupement des Mousquetaires et bien d’autres encore.
  • un moment amusant et instructif, lors duquel nous vous proposons de voter pour la variation que vous pensez gagnante.
  • le dévoilement des résultats et les learnings à tirer pour chacune de ces campagnes.
  • des best-practices et cas d’usages activables dès maintenant pour votre propre stratégie CRO.

À vous de voter pour découvrir les résultats et les insights cachés derrière chaque campagne : êtes-vous prêt à relever le défi ? 🫵

L'article Tops & Flops AB Tasty x Welyft  est apparu en premier sur abtasty.

]]>
Tout ce qu’il faut savoir sur AB Tasty x GA4 : tirez le meilleur parti de vos données  https://www.abtasty.com/fr/resources/ga4_gestion_donnees/ Wed, 11 Sep 2024 15:06:00 +0000 https://www.abtasty.com/?post_type=resources&p=153874 Deux solutions, un KPI, deux tendances différentes : que faire ?Vous avez expérimenté une situation similaire en mettant en parallèle les résultats des solutions GA4 et AB Tasty, et vous souhaitez en connaître la raison ? Retrouvez-nous jeudi 31 octobre […]

L'article Tout ce qu’il faut savoir sur AB Tasty x GA4 : tirez le meilleur parti de vos données  est apparu en premier sur abtasty.

]]>
Deux solutions, un KPI, deux tendances différentes : que faire ?

Vous avez expérimenté une situation similaire en mettant en parallèle les résultats des solutions GA4 et AB Tasty, et vous souhaitez en connaître la raison ? Retrouvez-nous jeudi 31 octobre à 9h pour tout savoir sur ce phénomène. 

A cette occasion, Alan Boydell, ancien membre de l’équipe en charge du premier lancement de Google Analytics et fondateur de l’agence fifty-five, reviendra sur les raisons derrière ces différences et la façon d’utiliser les deux solutions de manière efficace.

Nous reviendrons lors de ce webinar sur : 

  • Le contexte de la création et du développement de GA4, son mode de fonctionnement actuel et la corrélation entre nos deux outils. 
  • La raison derrière ces écarts de résultat, et la manière de mettre en lumière des chiffres pertinents et exploitables. 
  • Des cas d’usages et best-practices activables dès maintenant, pour tirer parti du meilleur des deux solutions.

Ne manquez pas cette opportunité d’optimiser votre propre stratégie digitale : AB Tasty et GA4 n’auront plus aucun secret pour vous !

L'article Tout ce qu’il faut savoir sur AB Tasty x GA4 : tirez le meilleur parti de vos données  est apparu en premier sur abtasty.

]]>
L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/ https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/#respond Thu, 23 May 2024 10:06:26 +0000 https://www.abtasty.com/?p=149679 AB Tasty et Google BigQuery ont uni leurs forces pour offrir une intégration fluide, permettant aux clients disposant de vastes datasets d’accéder à des informations, d’automatiser et de prendre des décisions fondées sur des données afin de faire progresser leurs […]

L'article L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty est apparu en premier sur abtasty.

]]>
AB Tasty et Google BigQuery ont uni leurs forces pour offrir une intégration fluide, permettant aux clients disposant de vastes datasets d’accéder à des informations, d’automatiser et de prendre des décisions fondées sur des données afin de faire progresser leurs efforts d’expérimentation.

Nous avons souvent discuté de la complexité de la compréhension des données pour alimenter votre programme d’expérimentation. Lorsque les entreprises ont affaire à d’énormes datasets, elles doivent trouver un moyen agile et efficace de permettre à ces informations d’enrichir leurs performances de test et d’identifier des modèles, des tendances et des idées.

Aller plus loin avec l’analyse des données

Google BigQuery est une solution d’hébergement de données cloud entièrement gérée, qui permet de stocker et d’analyser rapidement de grandes quantités de données. Cette plateforme serverless est hautement scalable, conçue pour aider les entreprises à analyser de vastes datasets afin de prendre des décisions éclairées.

Avec Google BigQuery, les utilisateurs peuvent exécuter sans effort des requêtes complexes SQL, en tirant parti de ses capacités intégrées de machine learning.

Cette intégration à la plateforme d’optimisation de l’expérience d’AB Tasty signifie que les clients disposant de grands datasets peuvent utiliser BigQuery pour stocker et analyser de grands volumes de données de test. En exploitant les capacités de BigQuery, vous pouvez rationaliser les processus d’analyse des données, accélérer les cycles d’expérimentation et favoriser l’innovation de manière plus efficace.

Voici quelques-uns des nombreux avantages de l’intégration de Google BigQuery à AB Tasty pour vous aider à mieux tester :

  • BigQuery comme source de données

Avec l’intégration BigQuery, des données spécifiques d’AB Tasty peuvent être envoyées régulièrement à votre set BigQuery. Chaque tâche de collecte de données a un nom, une requête SQL pour obtenir ce dont vous avez besoin, et une fréquence de récupération des données. Ces informations permettent d’élaborer des publicités et des messages super ciblés, ce qui permet d’atteindre plus facilement les bonnes personnes.

  • Stockage centralisé des données d’AB Tasty

L’intégration d’AB Tasty et de BigQuery simplifie également l’analyse des campagnes en éliminant le besoin d’outils BI ou SQL. Leur tableau de bord affiche une comparaison claire des métriques sur une seule page, ce qui améliore l’efficacité. Vous pouvez exploiter BigQuery pour l’analyse des expériences sans dupliquer le reporting dans AB Tasty, en tirant le meilleur des deux plateformes. Incorporez des métriques et des segments complexes en interrogeant notre ensemble de données d’événements enrichies et reliez les données d’événements à des données business provenant d’autres plateformes. Qu’il s’agisse d’expérimentation web ou de feature experimentation, cela signifie des expériences plus précises et scalable pour booster la croissance de l’entreprise.

  • Machine learning

BigQuery peut également être utilisé pour le machine learning dans le cadre de programmes d’expérimentation, ce qui vous aide à prévoir les résultats et à mieux comprendre vos objectifs. BigQuery vous offre une analyse prédictive pilotée par l’IA pour développer des campagnes multicanal personnalisées, sans complexité ni incertitude en matière d’attribution. Accédez à des segments qui s’adaptent dynamiquement au comportement des clients en temps réel, débloquant ainsi des stratégies marketing flexibles, personnalisées et basées sur les données pour alimenter vos expériences.

  • Segmentation améliorée et vision globale

La capacité de BigQuery à comprendre le comportement signifie que vous pouvez mieux segmenter. La segmentation des données permet de classer les utilisateurs en fonction de divers attributs ou de leur comportement. Grâce aux données envoyées à BigQuery par les expériences, vous pouvez créer un contenu personnalisé ou des fonctionnalités adaptées à des groupes d’utilisateurs spécifiques, ce qui permet d’optimiser les taux d’engagement et de conversion.

Enfin, l’avantage majeur de cette intégration est d’obtenir des rapports communs – des rapports entièrement automatisés et exploitables sur l’expérimentation, ainsi que la possibilité d’alimenter les données à partir d’autres sources pour obtenir une vue d’ensemble.

Un partenariat continu

Cette intégration intervient après que Google ait nommé AB Tasty partenaire officiel de Google Cloud l’année dernière, nous rendant disponibles sur Google Cloud Marketplace pour rationaliser les transactions sur la marketplace. Nous sommes également entièrement intégrés à Google Analytics 4 et nous avons été ravis d’être désignés comme l’un des fournisseurs privilégié de Google pour l’expérimentation après la fin de Google Optimize.


Nous continuons à travailler en étroite collaboration avec le géant de la technologie pour aider nos clients à toujours se développer, vous pouvez en savoir plus sur cette intégration ici.

L'article L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty est apparu en premier sur abtasty.

]]>
https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/feed/ 0
Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives https://www.abtasty.com/fr/resources/strategie-quanti-quali-leocare/ Wed, 10 Apr 2024 15:35:34 +0000 https://www.abtasty.com/?post_type=resources&p=148055 L’expérience utilisateur est un aspect incontournable de vos interfaces ou de vos parcours client. Son impact sur le taux de conversion ou la fidélité de vos clients est dorénavant fondamental et vous permet de vous démarquer de vos concurrents. Pour […]

L'article Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives est apparu en premier sur abtasty.

]]>
L’expérience utilisateur est un aspect incontournable de vos interfaces ou de vos parcours client. Son impact sur le taux de conversion ou la fidélité de vos clients est dorénavant fondamental et vous permet de vous démarquer de vos concurrents.

Pour construire une expérience utilisateur optimale, Leocare a choisi de mettre en place une stratégie à la fois quantitative et qualitative. Découvrez leur témoignage mercredi 15 mai à 11h30 lors d’un webinar co-organisé par AB Tasty et UserTesing à l’occasion duquel Lucie Deshayes (Lead UX/UI Designer) et Éric Geffray (Chef de projet marketing) prendront la parole.

Au programme, nous reviendrons sur : 

  • Les différentes sources de données récoltées et les solutions utilisées selon le cas d’usage.
  • La manière de rassembler et d’articuler efficacement ces données provenant de sources différentes. 
  • L’analyse de celles-ci pour identifier les points de friction ou d’opportunité à différents stades du parcours client.
  • Des cas concrets de campagnes de testing ainsi que les KPIs utilisés.

Retrouvez-nous pour découvrir les bonnes pratiques de Leocare et vous en inspirer pour votre propre stratégie ! 

L'article Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives est apparu en premier sur abtasty.

]]>
La culture de l’expérimentation chez les champions du digital https://www.abtasty.com/fr/resources/la-culture-de-lexperimentation-chez-les-champions-du-digital/ Tue, 05 Mar 2024 10:53:53 +0000 https://www.abtasty.com/?post_type=resources&p=145572 Le produit vise de plus en plus à accroître son efficacité et à maîtriser les risques liés à son activité. En parallèle, la démarche CRO prend toujours plus d’ampleur et dépend du produit pour influencer au maximum l’organisation. Cela implique […]

L'article La culture de l’expérimentation chez les champions du digital est apparu en premier sur abtasty.

]]>
Le produit vise de plus en plus à accroître son efficacité et à maîtriser les risques liés à son activité. En parallèle, la démarche CRO prend toujours plus d’ampleur et dépend du produit pour influencer au maximum l’organisation. Cela implique l’adoption de l’expérimentation !

Comment la validation d’hypothèses à l’aide de données tangibles peut-elle réduire les risques et guider le développement du produit vers le succès business ? Ce webinar offre une source d’inspiration pour les leaders CRO et Produit qui aspirent à instaurer une culture du « Test and Learn » en continu et à optimiser les ressources grâce à des résultats mesurables.

Durant ce webinar nous reviendrons sur :

  • L’orchestration de l’expérience digitale et l’organisation des équipes Produit et CRO
  • Les compétences fondamentales à maîtriser au sein des équipes
  • La méthodologie et le RACI de l’expérimentation

Vous n’êtes pas disponible ? Il vous suffit de vous inscrire et nous vous enverrons le replay.

L'article La culture de l’expérimentation chez les champions du digital est apparu en premier sur abtasty.

]]>
Comment faire face à un faible trafic en CRO https://www.abtasty.com/fr/blog/faible-trafic-cro/ Mon, 12 Jun 2023 10:02:36 +0000 https://www.abtasty.com/?p=118825 Si le nombre de visiteurs sur votre site web n’est pas aussi élevé que vous l’espériez, cela ne signifie pas que vous devez abandonner vos objectifs CRO. À ce stade, vous avez probablement remarqué que la plupart des conseils en […]

L'article Comment faire face à un faible trafic en CRO est apparu en premier sur abtasty.

]]>
Si le nombre de visiteurs sur votre site web n’est pas aussi élevé que vous l’espériez, cela ne signifie pas que vous devez abandonner vos objectifs CRO.

À ce stade, vous avez probablement remarqué que la plupart des conseils en matière de CRO sont adaptés aux sites web à fort trafic. Heureusement, cela ne veut pas dire que vous ne pouvez pas optimiser ce dernier, même en ayant un trafic plus faible.

La vérité est que n’importe quel site web peut être optimisé : il vous suffit d’adapter votre stratégie d’optimisation à votre situation spécifique.

Dans cet article, nous aborderons :

Commençons par une analogie

Pour faciliter la compréhension de cet article, commençons par une analogie. Imaginez : plutôt que de mesurer deux variations et de choisir un gagnant, nous mesurons les performances de deux boxeurs et plaçons des paris sur qui remportera les 10 prochains rounds.

Comment choisir sur qui parier ?

Imaginons que le boxeur A et le boxeur B soient tous les deux des débutants que personne ne connaît. Après le premier round, vous devez faire votre choix. En fin de compte, vous allez très probablement parier sur le boxeur qui a remporté le premier round. Cela peut être risqué si la marge de victoire est faible, mais en fin de compte, vous n’avez pas d’autre moyen de prendre votre décision.

Maintenant, imaginez que le boxeur A est connu comme un champion, et le boxeur B est un challenger que vous ne connaissez pas. Votre connaissance sur le boxeur A est ce que l’on appelle un « prior », à savoir des informations que vous obtenez en amont et qui influencent votre décision.

Sur la base de cette connaissance préalable, vous serez plus enclin à parier sur le boxeur A en tant que champion pour les prochains rounds, même si le boxeur B remporte le premier round avec une marge très faible.

De plus, vous ne choisirez le boxeur B comme champion prédit que s’il remporte le premier round avec une marge importante. Plus votre connaissance préalable est forte, plus la marge doit être grande pour vous convaincre de changer votre pari.

Vous suivez ? Si c’est le cas, les paragraphes suivants seront faciles à comprendre et vous comprendrez vite d’où vient ce « seuil de 95 % ».

Maintenant, passons aux conseils pour optimiser votre site web à faible trafic.

1. Résoudre le problème : « Je n’atteins jamais le seuil de certitude de 95% »

C’est le mécontentement qui revient le plus souvent concernant le CRO sur des sites web à faible trafic et sur les pages à faible trafic de plus grands sites web.

Avant d’approfondir ce problème, commençons par répondre à la question suivante : d’où vient cette « règle d’or » des 95% ?

L’origine du seuil de certitude de 95%

Commençons notre explication avec une idée très simple : que se passerait-il si les stratégies d’optimisation étaient appliquées dès le premier jour ? Si deux variantes sans historique étaient créées en même temps, il n’y aurait pas de version « originale » contestée par un nouvel arrivant.

Cela vous obligerait à choisir la meilleure dès le départ.

Dans ce cas, la moindre différence de performance pourrait être prise en compte pour prendre une décision. Après un court test, vous choisiriez la variante avec la meilleure performance. Il ne serait pas bon de choisir la variante qui a une performance inférieure et, de plus, ce serait insensé d’attendre un seuil de certitude de 95% pour choisir un gagnant.

Mais en pratique, l’optimisation est réalisée bien après le lancement d’une entreprise.

Ainsi, dans la réalité, il existe une version A qui existe déjà et un nouveau challenger (version B) qui est créé.

Si le nouveau challenger (la version B) arrive et que la différence de performance entre les deux variantes n’est pas significative, vous n’aurez aucun problème à déclarer que la version B n’est « pas un gagnant ».

Les tests statistiques sont symétriques. Donc, si nous inversions les rôles, en échangeant A et B dans le test statistique, cela indiquerait que l’original n’est pas significativement meilleur que le challenger. L’aspect « non concluant » du test est symétrique.

Alors, pourquoi orientez-vous 100% du trafic vers l’original à la fin d’un test non concluant, en déclarant implicitement A comme gagnant ? Parce que vous avez pris en compte trois connaissances préalables :

  1. La version A était le choix initial. Il a été élaboré par le créateur de la page.
  2. La version A a déjà été mise en œuvre et techniquement approuvée. La version B n’est généralement qu’une maquette.
  3. La version A dispose de nombreuses données pour prouver sa valeur, tandis que B est un challenger avec des données limitées qui ne sont collectées que pendant la période de test.

Les points 1 et 2 sont les bases d’une stratégie de CRO, vous devrez donc aller au-delà de ces deux points. Le point 3 explique que la version A dispose de plus de données pour étayer sa performance. Cela permet de comprendre pourquoi vous faites plus confiance à la version A qu’à la version B. 

Maintenant, vous comprenez que cette règle de seuil de certitude fixé à 95% est une façon d’expliquer des connaissances préalables. Et celles-ci proviennent principalement des données historiques.

Par conséquent, lors de l’optimisation d’une page à faible trafic, votre seuil de certitude devrait être inférieur à 95% car vos connaissances sur A sont plus faibles en raison de son trafic et de son ancienneté.

Ce seuil devrait être défini en fonction du volume du trafic qui a traversé le site web depuis son premier jour. Le problème avec cette approche, c’est que nous savons que les taux de conversion ne sont pas stables et qu’ils peuvent changer avec le temps. Pensez à la saisonnalité, par exemple l’afflux du Black Friday, les jours de congé, les périodes de Noël où l’activité augmente, etc. En raison de ces variations saisonnières, il n’est pas possible de comparer les performances à des périodes différentes.

C’est pourquoi les professionnels ne tiennent compte que des données pour la version A et la version B collectées pendant la même période, et ils fixent un seuil de certitude élevé (95%) pour accepter le challenger comme gagnant afin de formaliser les connaissances préalables solides en faveur de la version A.

Quel est le seuil de décision approprié lors d’un faible trafic ?

Il est difficile de suggérer un chiffre exact sur lequel se concentrer car cela dépend de votre tolérance au risque.

Selon le protocole de la méthode de  » test d’hypothèse », on doit fixer une période de collecte de données, et analyser seulement à la fin de cette période.

Cela signifie que le critère d’arrêt d’un test n’est pas une mesure statistique ou basée sur un nombre spécifique. Le critère d’arrêt devrait être une période de temps qui se termine. Une fois la période terminée, vous devez examiner les statistiques pour prendre une décision appropriée.

AB Tasty, notre logiciel d’optimisation de l’expérience client et de feature management, utilise la méthode bayésienne qui produit un indice de « chance de gagner”. Cet indice permet une interprétation directe des chances de gagner, plutôt que d’obtenir une P valeur qui elle a une signification très complexe.

En d’autres termes, l’indice de « chance de gagner » est la probabilité qu’une variation donnée soit meilleure que l’original.

Par conséquent, une « chance de gagner » de 95% signifie qu’il y a une probabilité de 95% que la variation donnée soit gagnante. Cela suppose que nous n’avons ni connaissance préalable, ni confiance spécifique dans l’original.

Le seuil de 95% lui-même est également un compromis par défaut entre la connaissance préalable que vous avez sur l’original et un certain niveau de tolérance au risque (cela aurait même pu être un seuil de 98%).

Bien qu’il soit difficile de donner un chiffre exact, voici une échelle approximative pour votre seuil :

  • Nouvelles variations A et B : si vous avez un cas où la variation A et la variation B sont toutes les deux nouvelles, le seuil peut être très bas, jusqu’à 50 %. S’il n’y a pas de données antérieures sur les performances des variations et que vous devez faire un choix pour la mise en œuvre, même une chance de gagner de 51 % est meilleure que 49 %.
  • Nouveau site web, faible trafic : si votre site web est nouveau et a très peu de trafic, vous avez probablement très peu de connaissances préalables sur la variation A (ici, la variation d’origine). Dans ce cas, fixer un seuil de 85 % est raisonnable. Cela signifie que si vous mettez de côté ce que vous savez déjà sur l’original, vous avez encore 85 % de chance de choisir le gagnant et seulement 15 % de chance de choisir une variation équivalente à l’original (avec une chance encore moindre qu’elle se comporte moins bien). Selon le contexte, un tel pari peut avoir du sens.
  • Entreprise mature, faible trafic : si votre entreprise a une longue histoire mais un trafic faible, un seuil de 90 % est raisonnable. C’est parce qu’il y a encore peu de connaissances antérieures sur l’original.
  • Entreprise mature, trafic élevé : si vous disposez de nombreuses données ou de connaissances préalables sur la variation A, un seuil de 95 % est approprié.

Le seuil d’origine de 95 % est bien trop élevé si votre entreprise a un faible trafic, car il y a peu de chances que vous l’atteigniez. Par conséquent, votre stratégie CRO n’aura aucun effet, et la prise de décision basée sur les données devient impossible.

En utilisant AB Tasty comme plateforme d’expérimentation, vous recevrez un rapport comprenant la « chance de gagner » ainsi que d’autres informations statistiques concernant vos expériences. Il inclurait également l’intervalle de confiance sur le gain estimé, qui est un indicateur important. Les limites autour du gain estimé sont également calculées de manière bayésienne, ce qui signifie qu’elles peuvent être interprétées comme le meilleur et le pire scénario. 

L’importance des statistiques bayésiennes

Maintenant que vous comprenez le sens précis du niveau de « certitude » de 95%, pourtant bien connu, vous êtes en mesure de sélectionner des seuils appropriés correspondant à votre cas particulier.

Il est important de se rappeler que cette approche ne fonctionne qu’avec les statistiques bayésiennes, car l’approche fréquentiste fournit des indices statistiques (tels que les P valeurs et les intervalles de confiance) qui ont un sens totalement différent et ne conviennent pas à la logique expliquée.

2. Les statistiques sont-elles valables avec de petits nombres ?

Oui, elles sont valables tant que vous ne mettez pas fin au test en fonction du résultat. Vous pouvez ignorer le readiness shield.

Rappelez-vous que le protocole de test indique qu’une fois que vous avez décidé d’une période de test, la seule raison de l’arrêter est lorsque ce délai est écoulé. Dans ce cas, les indices statistiques (« chance de gagner » et intervalle de confiance) sont vrais et utilisables.

Vous pensez peut-être : « D’accord, mais j’atteins rarement le seuil de certitude de 95%… »

Rappelez-vous que le seuil de 95% n’a pas besoin d’être le chiffre magique pour tous les cas. Si vous avez peu de trafic, il est probable que votre site web soit récent. Si vous vous référez au point précédent, vous pouvez consulter notre échelle suggérée pour différents scénarios.

Si vous avez peu de trafic en tant que nouvelle entreprise, vous pouvez certainement passer à un seuil plus bas (comme 90%). Le seuil est encore assez élevé car il est courant d’avoir plus confiance en une version originale qu’en une variante car elle est utilisée depuis plus longtemps.

Si vous avez affaire à deux variantes totalement nouvelles, à la fin de votre période de test, il sera plus facile de choisir la variante avec le plus grand nombre de conversions (sans utiliser un test statistique) puisqu’il n’y a aucune connaissance préalable de la performance de A ou B.

3. Faire le chemin à l’envers

Parfois, le problème de trafic n’a pas pour cause un site web à faible trafic, mais plutôt une page web. En effet, dans la plupart des cas, les pages avec un faible trafic se situent à la fin du funnel d’achat.

Dans ce cas, une excellente stratégie consiste à travailler sur l’optimisation de celui-ci. Une première solution peut se trouver en cherchant à optimiser le parcours client digital tout au long du funnel.

4. Est-ce que la technique CUPED fonctionne vraiment ?

Qu’est-ce que CUPED ?

Controlled Experiment Using Pre-Experiment Data est un terme à la mode dans le domaine de l’expérimentation. CUPED est une technique qui prétend produire des résultats jusqu’à 50% plus rapidement. Cela est très attrayant pour les sites Web à faible trafic.

Est-ce que CUPED fonctionne vraiment aussi bien ?

Pas exactement, pour deux raisons : l’une est organisationnelle et l’autre est liée à son application.

La contrainte organisationnelle

Ce qui est souvent oublié, c’est que CUPED signifie Controlled experiment Using Pre-Experiment Data.

En pratique, la période idéale pour collecter des « Pre-Experiment Data » est de deux semaines pour espérer une réduction de temps de 50%.

Ainsi, pour un test classique de 2 semaines, CUPED prétend que vous pouvez mettre fin au test en seulement 1 semaine.

Cependant, pour pouvoir observer correctement vos résultats, vous aurez besoin de deux semaines de données pré-expérimentation. En réalité, vous devez donc disposer de trois semaines pour mettre en œuvre CUPED afin d’obtenir la même précision qu’un test classique de 2 semaines.

Oui, vous avez bien lu. En fin de compte, vous aurez besoin de trois semaines pour mener à bien une expérimentation.

En d’autres termes, cette méthode n’est utile que si vous disposez déjà de deux semaines de données de trafic non exposées à une quelconque expérience. Mais si vous pouvez planifier deux semaines sans expérimentations dans votre roadmap pour collecter des données, cela bloquera le trafic pour d’autres expériences.

La contrainte d’application

En plus de la contrainte organisationnelle/liée à la période des deux semaines, il existe deux autres prérequis pour que CUPED soit efficace :

  1. CUPED s’applique uniquement aux visiteurs parcourant le site à la fois pendant la période de pré-expérimentation et la période expérimentale.
  2. Ces visiteurs doivent avoir le même comportement par rapport au KPI. Les données des visiteurs doivent être corrélées entre les deux périodes.

Vous constaterez dans le paragraphe suivant que ces deux contraintes rendent CUPED pratiquement impossible pour les sites de e-commerce et ne s’appliquent qu’aux plateformes.

Revenons à notre exemple de configuration d’expérimentation :

  • Deux semaines de données pré-expérimentation.
  • Deux semaines de données d’expérimentation (que nous espérons ne durer qu’une semaine grâce à la réduction de temps de 50% supposée).
  • L’objectif d’optimisation est une transaction : augmenter le nombre de conversions.

La contrainte numéro 1 stipule qu’il faut avoir les mêmes visiteurs pendant la période de pré-expérimentation et d’expérimentation. Or, le parcours du visiteur dans le secteur du e-commerce dure généralement une semaine.

En d’autres termes, il y a très peu de chances que vous voyiez les mêmes visiteurs dans les deux périodes. Ainsi, on ne peut s’attendre qu’à un effet très limité de CUPED (limité à la portion de visiteurs observés dans les deux périodes).

La contrainte numéro 2 stipule que les visiteurs doivent avoir le même comportement en ce qui concerne la conversion (par rapport au KPI en cours d’optimisation). Honnêtement, cette contrainte n’est tout simplement jamais respectée dans le e-commerce.

La conversion dans le e-commerce se produit soit pendant la période de pré-expérimentation, soit pendant la période expérimentale, mais pas dans les deux cas (à moins que votre client effectue fréquemment plusieurs achats pendant la période de l’expérience).

Cela signifie qu’il n’y a aucune chance que les conversions des visiteurs soient corrélées entre les périodes.

En résumé : CUPED n’est tout simplement pas applicable aux sites e-commerce pour optimiser les transactions.

Cela est clairement indiqué dans l’article scientifique d’origine, mais dans un souci de popularité, cette technique de buzzword est présentée de manière erronée dans l’industrie des tests.

En réalité, CUPED fonctionne uniquement pour les conversions multiples sur des plateformes qui ont des visiteurs récurrents effectuant les mêmes actions.

Les grandes plateformes adaptées à CUPED seraient les moteurs de recherche (comme Bing, où il a été inventé) ou les plateformes de streaming où les utilisateurs viennent quotidiennement et effectuent les mêmes actions répétées (lecture d’une vidéo, clic sur un lien dans une page de résultats de recherche, etc.).

Mais si vous essayez de trouver une application de CUPED dans le domaine du e-commerce, vous vous rendrez rapidement compte que ce n’est tout simplement pas possible.

  • On pourrait essayer d’optimiser le nombre de produits consultés, mais le problème de la contrainte 1 reste applicable : un très petit nombre de visiteurs sera présent dans les deux ensembles de données. De plus, il y a une objection encore plus fondamentale : ce KPI ne devrait pas être optimisé en lui-même, sinon vous encouragez potentiellement l’hésitation entre les produits.
  • Vous ne pouvez même pas essayer d’optimiser le nombre de produits achetés par les visiteurs avec CUPED car la contrainte numéro 2 reste valable. L’acte d’achat peut être considéré comme instantané. Par conséquent, il ne peut se produire que dans une période ou l’autre, pas les deux. S’il n’y a pas de corrélation attendue dans le comportement des visiteurs, il n’y a alors aucun effet CUPED à attendre.

Conclusion sur CUPED

En conclusion, CUPED ne fonctionne pas pour les sites de e-commerce où une transaction est l’objectif principal d’optimisation. À moins d’être Bing, Google ou Netflix, CUPED ne sera pas l’ingrédient secret pour vous aider à optimiser votre activité.

Cette technique est certainement un mot à la mode qui suscite rapidement l’intérêt. Cependant, il est important d’avoir une vision plus globale avant de vouloir ajouter CUPED à votre feuille de route. Les marques de e-commerce devront prendre en compte le fait que cette technique de test ne convient pas à leur entreprise.

Optimisation pour les sites à faible trafic

Les marques ayant un faible trafic sont toujours des candidats privilégiés pour l’optimisation de leur site web, même si elles doivent adopter une approche légèrement différente de la méthode traditionnelle.

Que cela implique de choisir une page plus haut dans le funnel d’achat ou d’adopter un seuil de certitude légèrement plus bas, l’optimisation continue est cruciale.

Vous souhaitez commencer à optimiser votre site Web ? AB Tasty est la plateforme d’optimisation de l’expérience best-in-class qui vous permet de créer une expérience digitale enrichie rapidement. De l’expérimentation à la personnalisation, cette solution peut vous aider à activer et à engager votre public pour stimuler vos conversions.

Vous pouvez trouver le lien de l’article original ici.

L'article Comment faire face à un faible trafic en CRO est apparu en premier sur abtasty.

]]>
Tag JavaScript d’AB Tasty : performance et rapport d’analyse https://www.abtasty.com/fr/blog/tag-javascript-performance/ Tue, 06 Jun 2023 08:48:47 +0000 https://www.abtasty.com/?p=118737 Bonjour, je m’appelle Léo ! En tant que Product Manager chez AB Tasty, je suis responsable, entre autres, de notre tag JavaScript qui est utilisé actuellement par nos clients, sur des milliers de sites internet. Comme vous pouvez l’imaginer, ma […]

L'article Tag JavaScript d’AB Tasty : performance et rapport d’analyse est apparu en premier sur abtasty.

]]>
Bonjour, je m’appelle Léo ! En tant que Product Manager chez AB Tasty, je suis responsable, entre autres, de notre tag JavaScript qui est utilisé actuellement par nos clients, sur des milliers de sites internet. Comme vous pouvez l’imaginer, ma roadmap est remplie de sujets liés à la collecte de données, à la confidentialité et… à la performance.

Dans cet article d’aujourd’hui, nous allons parler de la performance du tag JavaScript, de la surveillance de l’open data et de la concurrence. Allez, c’est parti !

Enquête sur la performance

Étant donné que la performance est devenue un sujet important et très discuté ces dernières années, notamment grâce à l’initiative de Google visant à déployer les Core Web Vitals, mon équipe et moi-même avons concentré nos efforts sur ce sujet. Nous avons apporté de nombreux changements, amélioré de nombreux aspects de notre tag et atteint d’excellents résultats. Beaucoup de nos utilisateurs ont témoigné de leur satisfaction à ce sujet. J’ai d’ailleurs déjà rédigé une (longue) série d’articles de blog à ce sujet ici

De temps en temps, nous sommes taquinés par nos concurrents au sujet d’un rapport sur les performances qui semble montrer que nous ne sommes pas à la hauteur de nos ambitions, selon certains indicateurs. Certains concurrents prétendent être jusqu’à 4 fois plus rapides que nous ! Et c’est vrai. Enfin, c’est ce que montre le rapport.

Vous pouvez facilement imaginer à quel point ceci peut être nocif pour notre image de marque et à quel point cela peut être difficile pour notre équipe business lorsqu’un client utilise cet argument. C’est particulièrement démoralisant pour moi et mon équipe après tout le travail que nous avons accompli sur ce sujet ces dernières années.

Bien que ce soit la première impression que j’ai eue en voyant ce rapport, je sais pertinemment que nos performances sont excellentes. Nous avons réalisé d’énormes améliorations après la sortie de plusieurs projets et optimisations. Aujourd’hui, tous les tests et audits que j’ai effectués sur les sites Web de nos clients montrent de très bonnes performances et un faible impact sur les fameux Core Web Vitals.

De plus, il est très rare qu’un client se plaigne de nos performances. Cela peut arriver, c’est certain, mais la plupart du temps, tous leurs doutes disparaissent après une courte discussion, quelques explications et des conseils sur les meilleures pratiques d’optimisation.

Mais ce rapport est toujours là, n’est-ce pas ? Alors peut-être que j’ai raté quelque chose. Peut-être que je ne regarde pas les bons indicateurs. Peut-être que j’ai uniquement audité des clients où tout va bien, mais qu’il y a une immense armée de clients qui ne se plaignent pas du fait que notre tag ralentisse considérablement leur site Web.

Le CRO, est ce que c’est la même chose que l’Analytics ?

Sur le rapport (je promets d’en parler plus en détail ci-dessous 😄), nous sommes mentionnés dans la catégorie Analytics. Cependant, l’optimisation du taux de conversion n’est pas la même chose que de l’Analytics. Un outil d’analyse ne fait que collecter des données tandis que nous activons des campagnes, mettons en place des personnalisations, implémentons des widgets, ajoutons des pop-ins et bien plus encore. Ainsi, notre impact est bien plus important.

Parlons de nos concurrents : même si nous avons la meilleure solution du marché (😇), nos concurrents font à peu près les mêmes choses que nous en utilisant les mêmes techniques, avec les mêmes limites et problèmes. Il est donc légitime de nous comparer selon les mêmes indicateurs. Il est possible que nous allions un peu plus loin qu’eux, mais cela ne devrait pas expliquer une différence de performance 4 fois supérieure.

À l’époque, et avant de me plonger dans son contenu, j’ai pris les résultats du rapport avec humilité. Par conséquent, mon ambition était d’analyser les données, d’analyser les sites Web où le tag de nos concurrents était utilisé et d’essayer de trouver ce qu’ils font de mieux que nous. Nous appelons ceci de la rétro-ingénierie, et je trouve cela sain car cela peut nous aider à garantir un Web plus rapide pour tout le monde.

Mon engagement envers ma hiérarchie a donc été de trouver les zones où nous avions des fuites de performance et de les résoudre afin de réduire notre temps d’exécution moyen et de nous rapprocher de nos concurrents.

Mais d’abord, j’ai dû analyser les données. Et, wow, je n’étais pas préparé à ça.

Le rapport en question

Le rapport est un ensemble de données généré mensuellement par The HTTP Archive. Voici ce que nous pouvons lire à propos d’eux sur leur site Web :

“Successful societies and institutions recognize the need to record their history – this provides a way to review the past, find explanations for current behavior, and spot emerging trends. In 1996, Brewster Kahle realized the cultural significance of the Internet and the need to record its history. As a result he founded the Internet Archive which collects and permanently stores the Web’s digitized content.”

“In addition to the content of web pages, it’s important to record how this digitized content is constructed and served. The HTTP Archive provides this record. It is a permanent repository of web performance information such as size of pages, failed requests, and technologies utilized. This performance information allows us to see trends in how the Web is built and provides a common data set from which to conduct web performance research.”

Chaque mois, ils effectuent un audit, grâce à Lighthouse, sur des millions de sites Web et génèrent un ensemble de données contenant des résultats bruts.

Comme il s’agit d’un projet open-source, tout le monde peut l’utiliser pour créer des visualisations de données et faciliter ensuite l’accès à ce type d’informations.

C’est ce qu’a fait l’inventeur de Google Lighthouse, Patrick Hulce. Sur son site Web, GitHub, il propose une belle visualisation de cet énorme ensemble de données et permet à quiconque d’en explorer les détails à travers plusieurs catégories telles que l’analyse, les publicités, les médias sociaux, et bien plus encore. Comme je l’ai cité auparavant, vous trouverez les outils CRO dans la catégorie Analytics .

Le site web est entièrement open-source. La méthodologie est connue et accessible.

Alors, c’est quoi le problème avec ce rapport ?

Eh bien, techniquement, rien. Nous pourrions trouver décevant que l’ensemble de données ne soit pas automatiquement mis à jour chaque mois, mais le référentiel est open-source, donc toute personne motivée pourrait le faire.

Cependant, cela se limite à afficher les données de manière attrayante et ne fournit aucune information, ni analyse approfondie. Toute faille ou incohérence restera cachée et cela pourrait conduire à une situation où une tierce partie est considérée comme ayant de mauvaises performances par rapport à d’autres acteurs. Alors que ce n’est pas nécessairement le cas.

Un problème, cependant, qui n’est pas lié au rapport lui-même, est l’oubli des informations capitales dont la moyenne, en tant que mesure statistique, ne peut rendre compte. C’est quelque chose dont nous sommes tous conscients mais que nous avons tendance à oublier. Si vous prenez 10 personnes, dont 9 gagnent 800€ par mois mais qu’une personne gagne 12 millions d’euros par mois, alors nous pourrions conclure que tout le monde gagne 1,2 million d’euros en moyenne/mois. C’est certes statistiquement correct, mais cela semble un peu faux, n’est-ce pas ? Nous y reviendrons dans un instant.

Sachant cela, il était temps de mettre les mains dans le cambouis. Avec mon équipe, nous avons téléchargé l’ensemble des données de février 2023 pour effectuer notre propre audit et comprendre où se situaient nos fuites de performance.

Notez que le téléchargement de l’ensemble des données est quelque chose que nous faisons régulièrement depuis environ un an et demi pour suivre notre tendance. Cependant, cette fois, j’ai décidé d’approfondir le rapport de février 2023 en particulier.

L’analyse

Sur cet ensemble de données, nous avons pu trouver la liste complète des sites Web utilisant AB Tasty et qui ont été analysés, ainsi que l’impact de notre tag. Pour être plus précis, nous disposons du temps d’exécution exact de notre tag, en millisecondes.

Voici ce que nous en avons extrait. La colonne pixellisée représente l’URL du site Web. La dernière colonne représente le temps d’exécution en millisecondes.

Avec les données brutes, nous avons pu calculer de nombreux indicateurs utiles.

Gardez à l’esprit que je ne suis ni mathématicien, ni expert en statistiques. Ma méthodologie peut sembler étrange, mais elle est adaptée à cette analyse.

  • Le temps d’exécution moyen

Il s’agit du premier indicateur que j’obtiens : la moyenne brute de tous les sites Web. C’est probablement très proche, voire égal, à ce qui est utilisé par le site Web thirdpartyweb.today. Nous avons déjà évoqué les inconvénients d’avoir une moyenne, cependant, c’est toujours une valeur intéressante à surveiller.

  • Moyenne de la moitié supérieure et moyenne de la moitié inférieure

Ensuite, je divise l’ensemble du jeu de données en deux moitiés. Si j’ai 2000 lignes, je crée deux groupes de 1000 lignes. La « partie supérieure » et la « partie inférieure ». Cela me permet d’avoir une vue sur les sites Web où nous avons de bonnes performances par rapport aux sites Web où nous avons les pires performances. Ensuite, je calcule la moyenne de chaque moitié.

  • L’écart entre les deux moitiés

La différence entre les deux moitiés est importante car elle montre la disparité au sein de l’ensemble de données. Plus elle est proche de zéro, moins nous avons de valeurs extrêmes.

  • Le nombre de sites Web avec une valeur supérieure à 6 000 ms

Il s’agit simplement d’un indicateur interne que nous suivons pour nous fixer un objectif à moyen terme : celui de n’avoir 0 site Web avec une valeur supérieure à cette limite.

  • L’évolution du dernier ensemble de données

Je calcule l’évolution entre le dernier ensemble de données dont je dispose et le dernier en date. Cela me permet de voir si nous nous améliorons en général, ainsi que le nombre de sites web qui quittent ou rejoignent le tableau.

Les résultats

Voici les résultats que nous avons obtenus :

Voici les graphiques correspondants :

Voici l’évolution entre octobre 2022 et février 2023 :

Attention : c’est une échelle logarithmique ! Les données sont triées par temps d’exécution en février 2023 de gauche à droite.

Les chiffres parlent d’eux-mêmes. Mais si je peux esquisser une conclusion générale, c’est que nous avons réalisé d’énormes optimisations au cours des six premiers mois, puis nous nous sommes stabilisés un peu après, au moment d’ajustements plus subtils (le fameux principe des 80/20 de Pareto).

Le gain net initial est impressionnant, néanmoins, deux chiffres clés devraient ici retenir votre attention.

Tout d’abord, la différence entre les deux moitiés se réduit considérablement. Cela signifie que nous n’avons plus beaucoup de fuites de performances potentielles (des fonctionnalités qui entraînent une augmentation anormale du temps d’exécution). C’est notre première victoire récente.

Ensuite, l’évolution montre que, en général, à l’exception des pires cas, cela reste stable ou diminue. C’est une autre nouvelle victoire.

Rentrons dans les détails

Ce que je viens de vous partager sont les résultats bruts, sans examiner les détails de chaque ligne et de chaque site Web parcouru.

Cependant, comme on dit, le diable se cache dans les détails. Creusons un peu plus.

Concentrons-nous sur les sites Web où AB Tasty met plus de six secondes à s’exécuter.

Six secondes peuvent sembler beaucoup (et c’est le cas), mais n’oublions pas que l’audit simule un processeur bas de gamme qui n’est pas représentatif de l’appareil moyen. Il montre plutôt le pire scénario possible.

Dans le rapport de février 2023, il y 33 sites Web où c’est le cas. Cela correspond à un temps d’exécution moyen de 19877 ms. J’ai rapidement identifié que :

  • 27 d’entre eux proviennent du même client AB Tasty.
  • L’un d’entre eux est abtasty.com et l’exécution totale des ressources provenant de *abtasty.com sur ce site est évidemment très élevée
  • Deux autres proviennent également d’un seul client AB Tasty.

Finalement, il n’y a que 5 clients sur cette liste (mais toujours 33 sites Web, ne vous trompez pas).

Regroupons maintenant les deux clients qui ont des doublons, pour voir l’impact sur la moyenne. Le client avec 27 doublons a également des sites Web dont le temps d’exécution est inférieur à 6 000 ms, mais je vais les ignorer pour le moment (afin de simplifier les choses).

Pour chacun des ces deux clients, je vais calculer la moyenne de tous leurs doublons. Pour le premier, le résultat est de 21 671 ms. Pour le second, le résultat est de 14 708 ms.

Je vais également supprimer abtasty.com, qui n’est pas pertinent.

Avec la nouvelle liste, nous sommes passés de 1 223 ms pour la moyenne de la liste complète à 1 005 ms. Nous venons d’améliorer notre moyenne de plus de 200 ms ! 🎉

Attendez, quoi ? Vous supprimez simplement les pires sites Web. Évidemment, vous vous améliorez…

Oui, c’est vrai. C’est de la triche, c’est sûr ! Mais l’objectif de cet article est de démontrer que les données ne disent pas tout.

Parlons d’abord de ce qui se passe avec ce client qui a 27 doublons.

Le même tag a été déployé sur plus de 50 sites Web très différents ! Vous n’êtes peut-être pas très familier avec AB Tasty, alors laissez-moi vous expliquer pourquoi c’est un problème.

Il se peut que vous ayez plusieurs sites Web qui ont la même structure (c’est souvent le cas lorsque vous avez différentes langues). Il est logique d’avoir le même tag sur ces différents domaines pour pouvoir déployer les mêmes personnalisations sur tous en une seule fois. Ce n’est pas la façon la plus optimale de le faire, mais à ce jour, c’est la façon la plus facile de le faire avec notre outil.

Cependant, si vos sites Web sont tous différents, il n’y a absolument aucun intérêt à le faire. Vous allez créer de nombreuses campagnes (dans ce cas, des centaines !) qui ne seront presque jamais exécutées sur le site Web (parce que ce n’est pas le bon domaine), mais qui seront quand même partiellement incluses dans le tag. Ainsi, celui-ci va passer son temps à vérifier des centaines de campagnes qui n’ont aucune chance de s’exécuter car l’URL sera rarement valide.

Bien que nous travaillions sur un moyen de bloquer ce comportement (car nous avons des alternatives et de meilleures options), il faudra des mois avant que ces données ne disparaissent du rapport.

Note : si vous commencez à utiliser AB Tasty, on ne vous conseillera pas de faire cela et par conséquent, les performances de votre tag seront bien meilleures que celles-ci.

Encore une fois, je n’ai pas pris le temps de regrouper tous les domaines dupliqués car cela n’a pas de sens, le but étant de démontrer qu’il est facile d’améliorer les performances en excluant des anomalies qui ne sont pas représentatives. En ne conservant qu’un seul domaine dans le cas cité précédemment, nous pourrions imaginer une amélioration de plus de 200 ms de nos performances globales.

J’ai pris le cas le plus évident, mais un rapide examen du reste des données m’a montré d’autres exemples.

Les résultats de nos concurrents

Ayant en tête ce que nous avons évoqué précédemment et comment notre score peut sembler pire que ce qu’il est réellement à cause d’une seule anomalie, j’ai commencé à examiner les chiffres de nos concurrents pour voir s’ils ont le même type de problème.

Je le répète : je n’essaie pas de dire que nous sommes meilleurs (ou pires) que nos concurrents, ce n’est pas mon propos. Je cherche simplement à vous montrer pourquoi les statistiques doivent être analysées en profondeur pour éviter toute erreur d’interprétation.

Commençons par comparer les chiffres d’AB Tasty de février 2023 avec ceux de l’un de nos concurrents, selon les mêmes mesures évidemment.

Competitor's figures

En général, ils semblent un peu meilleurs, n’est-ce pas ? Une meilleure moyenne et même les moyennes pour chaque moitié sont meilleures (celle de la moitié inférieure est nettement meilleure !).

Cependant, la différence entre les deux moitiés est énorme : 24 ! Cela signifie-t-il que selon l’utilisation qui en est faite, l’impact du tag pourrait être multiplié par 24 ?

Si je voulais les taquiner un peu, je dirais que lors de tests de leur tag sur votre site Web, vous pourriez constater d’excellentes performances, mais lorsque vous commencez à l’utiliser intensivement, vous pourriez rencontrer de sérieuses baisses de performance.

Mais, ce ne serait qu’une interprétation d’une très petite partie de ce que disent les données.

De plus, ils ont plus du double du nombre de sites Web qui dépassent le seuil de 6 000 ms (encore une fois : ce seuil est une référence interne à AB Tasty). Et cela, même en conservant les doublons que nous avons repérés ensemble précédemment ! Ils ont également des doublons, mais pas autant que nous.

Une première conclusion (prématurée) serait qu’ils présentent davantage de sites web sur lesquels leur impact est grand, mais que la moyenne globale est tirée vers le bas par une majorité d’autres sites.

Maintenant que je sais que dans notre cas, nous avons plusieurs clients qui ont des doublons, je voulais vérifier si nos concurrents rencontrent le même problème. Et c’est le cas pour celui-ci.

Parmi les 2 537 sites Web analysés, 40 % d’entre eux appartiennent au même client. Cela représente 1 016 sous-domaines du même domaine.

Comment cela impacte-t-il leur score ?

Eh bien, leur client n’utilisait pas la solution au moment où les données ont été collectées (j’en ai fait moi-même la vérification en visitant certains des sous-domaines). Cela signifie que le tag ne faisait absolument rien. Il était présent, mais inactif.

Le temps d’exécution moyen de ces 1 016 lignes de données est de 59 ms !! 😭 Elle a également une valeur maximale de 527 ms et une valeur minimale de 25 ms.

Je n’ai pas besoin d’expliquer pourquoi cette « anomalie » tire curieusement leur moyenne vers le bas, n’est-ce pas ?

Attention, ces 1 016 sous-domaines ne sont pas de faux sites Web. Je ne sous-entends pas que ce concurrent a triché délibérément pour paraître meilleur – je suis sûr que ce n’est pas le cas. C’est juste une très belle coïncidence pour eux, qu’ils en soient conscients ou non.

Pour conclure, comparons la moyenne de nos deux ensembles de données après avoir supprimé ces 1 016 sous-domaines.

AB Tasty est à 1 223 ms (ensemble de données non modifié) tandis que ce concurrent est maintenant à… 1 471 ms.

Ils sont passés de 361 ms meilleur que nous à 248 ms moins bien. Je vous ai dit que je peux faire dire aux chiffres ce que je veux. 🙂

J’aurais beaucoup d’autres choses à dire sur ces ensembles de données, mais je n’ai pas réalisé toutes les analyses qui auraient pu être effectuées ici. J’ai déjà passé trop de temps dessus, pour être honnête.

J’espère cependant avoir réussi à montrer que le même ensemble de données peut être interprété de bien des manières différentes.

Que pouvons-nous conclure de tout ça ?

La première chose que je veux dire, c’est : TESTEZ.

Notre solution est très facile à mettre en place. Vous placez simplement le tag sur votre site Web et effectuez un audit. Pour comparer, vous pouvez placer le tag d’un autre outil sur votre site Web et effectuer le même audit. Effectuez-le plusieurs fois dans les mêmes conditions et comparez. Le deuxième outil est-il meilleur sur votre site Web ? Très bien, alors il fonctionnera probablement mieux pour votre cas spécifique.

Est-ce qu’un rapport aléatoire sur le Web affirme qu’une solution est meilleure qu’une autre ? Très bien, c’est un point de vue, mais vous devriez soit analyser les données pour le remettre en question, soit ne pas y accorder trop d’attention. Accepter simplement les chiffres tels qu’ils sont affichés (ou pire : vendus…) pourrait vous faire passer à côté d’une grande partie de l’histoire.

Est-ce que AB Tasty a de mauvaises performances ?

Non, ce n’est pas le cas. La plupart de nos clients ne se sont jamais plaints des performances et certains sont très reconnaissants pour les dernières améliorations que nous avons apportées à ce sujet.

Donc certains clients se plaignent ?

Oui. Cela arrive parfois qu’AB Tasty ait des performances inférieures en fonction de l’utilisation qui en est faite. Mais nous fournissons des outils pour vous aider à tout optimiser directement depuis notre plateforme. Nous l’appelons le Centre de Performance. C’est une section de notre outil dédiée à vous montrer quelle campagne a un impact sur vos performances et ce que vous pouvez faire pour l’optimiser. Il vous suffit de suivre les directives et tout ira bien. C’est une fonctionnalité très innovante et unique sur le marché, et nous en sommes très fiers.

Cependant, je dois admettre que quelques clients (seulement quelques-uns) ont des attentes irréalistes en matière de performances. AB Tasty est un tag JavaScript qui effectue des manipulations du DOM, des vérifications asynchrones, de la collecte de données et beaucoup d’autres choses complexes. Bien sûr, cela aura un impact plus important sur votre site Web qu’un simple outil d’analyse. Votre objectif est de vous assurer que l’impact de l’optimisation de vos conversions est supérieur à son coût en termes de performances. Et cela sera le cas, quel que soit l’outil d’optimisation des taux de conversion que vous utilisez, sauf si vous utilisez un outil côté serveur-side comme Flagship d’AB Tasty, par exemple.

Je suis convaincu que nous devrions aller chercher un site Web encore plus rapide. Je suis très préoccupé par mon impact sur l’environnement, et j’essaie de garder mes appareils aussi longtemps que possible. Mon smartphone a 7 ans (et je suis en train de passer à un “nouveau” qui en a 10) et mon ordinateur portable n’est pas très récent non plus. Donc, je sais qu’un site Web lent peut être une véritable source de frustration.

Le mot de la fin

Permettez-moi de vous assurer que chez AB Tasty, nous sommes pleinement engagés à optimiser nos performances. Cela est motivé par les attentes de nos clients, ma propre motivation personnelle et le défi amusant et intéressant que cela représente pour notre équipe (et aussi parce que ma direction me le demande 😅).

Je tiens également à féliciter HTTP Archive qui effectue un travail très important en collectant toutes ces données et en les partageant avec tout le monde. Félicitations à Patrick Hulce qui a pris le temps de construire un site Web très intéressant qui aide les gens à avoir une représentation visuelle des données de HTTP Archive. Félicitations à tous ceux qui travaillent pour construire un Web meilleur, plus rapide et plus sécurisé, souvent gratuitement et parce qu’ils y croient.

Vous souhaitez tester notre outil par vous-même ? AB Tasty est la plateforme best-in-class pour les expérimentations, la personnalisation de contenu et les recommandations alimentées par l’IA, équipée des outils dont vous avez besoin pour créer une expérience digitale plus riche pour vos clients, rapidement. Avec l’IA intégrée et l’automatisation, cette plateforme peut vous aider à atteindre une personnalisation omnicanal et révolutionner les expériences de votre marque et de vos produits.

Vous pouvez trouver le lien de l’article original ici.

L'article Tag JavaScript d’AB Tasty : performance et rapport d’analyse est apparu en premier sur abtasty.

]]>
La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale https://www.abtasty.com/fr/resources/strategie-data-driven-homair/ Tue, 30 May 2023 12:09:33 +0000 https://www.abtasty.com/?post_type=resources&p=117867 Découvrez dans ce cas client comment Homair, spécialiste des hébergements en plein air depuis maintenant 30 ans, a élaboré une stratégie d’optimisation data-driven pour développer une expérience client personnalisée et optimale. Cette stratégie sera illustrée par un cas d’expérimentation concret, […]

L'article La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale est apparu en premier sur abtasty.

]]>
Découvrez dans ce cas client comment Homair, spécialiste des hébergements en plein air depuis maintenant 30 ans, a élaboré une stratégie d’optimisation data-driven pour développer une expérience client personnalisée et optimale.

Cette stratégie sera illustrée par un cas d’expérimentation concret, montrant comment s’adresser à différentes sources de trafic et ainsi comprendre leurs attentes et leurs besoins.

Accédez vite à leurs résultats ! 

Un site n’est jamais fixe, il faut toujours être à la page des standards, répondre aux attentes des clients, corriger des bugs et améliorer la performance

Inès Selma, Product Owner chez Homair

L'article La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale est apparu en premier sur abtasty.

]]>
Comprendre le comportement des utilisateurs grâce aux données https://www.abtasty.com/fr/blog/comprendre-le-comportement-des-utilisateurs-grace-aux-donnees/ Mon, 30 Jan 2023 13:29:38 +0000 https://www.abtasty.com/?p=107664 Dans le cadre de notre série sur les données au service de l’expérience client, nous avons discuté avec des partenaires d’AB Tasty de la manière dont les marques peuvent utiliser les données pour mieux profiler leurs clients, comprendre leurs besoins […]

L'article Comprendre le comportement des utilisateurs grâce aux données est apparu en premier sur abtasty.

]]>
Dans le cadre de notre série sur les données au service de l’expérience client, nous avons discuté avec des partenaires d’AB Tasty de la manière dont les marques peuvent utiliser les données pour mieux profiler leurs clients, comprendre leurs besoins et établir des liens émotionnels précieux avec eux. Nous nous sommes aussi intéressés à la mesure de l’impact digital global d’une marque et à la manière de construire une vision centrée sur le client et data-driven.

Vous pouvez consulter l’introduction de notre série ici. Pour ce 8ème épisode, nous nous sommes entretenus avec Helen Wilmot, UX Director chez Dentsu International. Dentsu est l’une des plus grandes entreprises internationales du digital et du marketing. Dentsu International fournit des solutions intégrées et des services aux clients dans un éventail de disciplines variées. Helen dirige la stratégie et la recherche UX pour Dentsu.

Pourquoi les clients se tournent vers Dentsu

Dentsu est une entreprise internationale intégrée. Les gens sont souvent à la recherche des différents canaux sur lesquels ils travaillent, ainsi que la collaboration de plusieurs disciplines sous une même entité pour servir un client. Plus encore, Dentsu est une société multinationale dotée d’un réseau d’expertise international, axé sur la manière de fournir de la valeur aux clients, de sorte qu’ils se rendent compte qu’ils sont liés à quelque chose de plus grand. L’équipe chargée de l’optimisation et de l’UX est étroitement intégrée à d’autres départements, tels que la stratégie brand et digitale, le SEO et la partie business. Tous ces aspects sont pris en compte lorsqu’ils examinent l’optimisation.

Cela signifie que la croissance est l’un des principaux facteurs en jeu : « Nous sommes fermement déterminés à être customer-centric et à apporter de la valeur aux utilisateurs », déclare Helen. « Nous vivons également dans le monde réel et nous voulons lier cette valeur à une croissance réelle. Nous savons qu’être customer-centric stimule la croissance, de nombreuses études le montrent. Mais il est important que nous puissions le démontrer nous-mêmes dans nos propres comportements. »

Comprendre le comportement des utilisateurs

Helen souligne qu’il n’existe pas de méthode magique pour comprendre le comportement des utilisateurs et que, par conséquent, cela dépend souvent de ce qui est approprié pour la problématique ou le problème business en question. Dentsu combinent de nombreuses techniques lorsqu’ils cherchent à comprendre le comportement des clients, souvent en utilisant à la fois des données qualitatives et quantitatives. Dans de nombreux cas, ils récoltent un large éventail de données pour être précis : les enquêtes, les tests utilisateurs, l’IA, l’eye tracking et l’analyse des données jouent tous un rôle.

Les techniques employées dépendent du client et du business modèle. Cependant, elles sont toujours data-centric. Les chercheurs effectuent des tests utilisateurs, à la fois à distance via des études mais aussi de manière encadrée en personne. Le fait que les utilisateurs essaient quelque chose dans leur propre environnement, en utilisant leurs propres appareils, aide également Dentsu à évaluer un comportement plus naturel. Ils utilisent parfois des techniques ethnographiques, empruntées à l’anthropologie, car les chercheurs sont intégrés dans les expériences réelles des utilisateurs. En examinant l’interaction avec un sujet ou une tâche en temps réel, cette recherche est plus productive et expérimentale, mais peut aider à découvrir des problèmes plus importants. Les nouvelles technologies issues des sciences du comportement et des neurosciences permettent d’étudier les émotions, les tests de réponse implicite et le comportement oculaire.

Ce que les clients disent vouloir et comment ils se comportent réellement

Plus précisément, lorsque l’équipe d’Helen mène des enquêtes, elle examine le comportement des utilisateurs ainsi que ce qu’ils disent.

« Le test utilisateur devrait consister à observer », partage Helen. « Si l’utilisateur dit qu’il a trouvé la tâche facile, mais qu’il est clair que ce n’est pas le cas, c’est un signe pour utiliser notre esprit critique afin d’évaluer ce retour. »

Dentsu creuse donc toujours plus profondément pour étayer ces déclarations avec des données. Ils ont une approche rigoureuse de leurs recherches, y compris par l’utilisation d’une technique d’échelonnement utilisée pour aller à la cause profonde des pensées et des ressentis des gens. « Tout cela se fait avec comme base la façon dont nous savons que l’esprit des gens fonctionne. Nous savons que les gens sont incapables de se souvenir exactement de ce qu’ils ont ressenti et de prédire leur propre comportement. Cela ne veut pas dire que les expériences n’ont pas d’importance, mais en tant que chercheurs, notre travail consiste également à travailler dans le cadre de la réalité du fonctionnement de la psychologie humaine », explique Helen.

L’importance des tests et de l’expérimentation

Une autre façon pour Dentsu de valider le feedback des utilisateurs est de s’appuyer sur les AB tests. Dans le passé, des utilisateurs ont signalé certains éléments qui les motivaient, mais les AB tests n’ont pas confirmé cette information. Pour Dentsu, tester une hypothèse est une partie cruciale de leur processus d’optimisation et il est impensable qu’ils avancent avec de nouvelles idées sans les tester au préalable.

« Je pense que c’est un peu un acte d’orgueil si vous avancez sans tester les hypothèses au préalable », souligne Helen. « Le risque monte en flèche, et vous ne pouvez pas réduire le risque d’une proposition sans la tester. Même si une proposition est un succès et est conforme à l’objectif, il y a toujours des changements itératifs que vous pouvez faire. C’est la beauté de l’esprit de test et d’expérimentation. On n’a jamais fini, et nous ne pensons jamais que ce que nous faisons est parfait ».

Les tests permettent à Dentsu d’avancer rapidement. Certains tests ne fonctionnent pas toujours, mais Helen souligne que ceci apporte également une mine d’informations pour d’autres idées. Le fait de savoir que quelque chose ne fonctionne pas pour vos utilisateurs vous guide quant au contenu de votre prochain test. Et lorsque vous travaillez avec de futurs clients, cela peut vous orienter dans la bonne direction quant aux techniques actuellement efficaces pour la diffusion de messages et la persuasion psychologique.

Les KPI et les mesures du comportement des utilisateurs

Pour l’UX, l’un des principaux KPI est le NPS (Net Performance Score), tout comme pour Realise. Dans les tests utilisateurs, Dentsu examine le nombre d’erreurs qu’ils commettent. S’ils testent une certaine structure ou une arborescence, ils examinent le taux de réussite et le caractère direct du comportement utilisateur. Le NPS complète tous ces éléments car il est associé à de nombreuses études sur la croissance. Il faut également adopter une vue d’ensemble lorsqu’il s’agit de mesurer le comportement des utilisateurs : quels sont les domaines de l’entreprise qui sont affectés par les frictions sur le site web ? Il peut s’agir du support client, du paiement ou de la livraison, mais ils sont tous essentiels à l’expérience utilisateur.

Un bon parcours utilisateur

Un bon parcours utilisateur sera toujours source de revenus. Les deux sont intrinsèquement liés pour Dentsu. Si vous parvenez à créer un bon parcours utilisateur, les gens s’engagent davantage dans la marque, s’engagent davantage dans ce que vous offrez et sont plus susceptibles de faire ce que vous voulez. Mais Helen veut aller plus loin. La convivialité et les revenus sont des aspects essentiels, mais ce n’est qu’un début.

Helen explique : « Je pense que la facilité d’utilisation est l’objectif absolu que nous devons viser, et nous devons vraiment nous concentrer sur la satisfaction des clients tout en créant des expériences émotionnellement fortes. Il existe des données solides sur le lien entre l’émotion, la mémoire et la perception de la marque. En créant ces expériences riches et émotionnellement fortes, nous pouvons augmenter la valeur vie client.”

Il semble que dans le climat actuel, les gens mettent l’accent sur le résultat net et la conversion. Mais comme le dit Helen, les premiers penseurs de l’UX, tels que Donald Norman, s’intéressaient à la satisfaction pour fournir un aperçu de l’optimisation. La marque et l’expérience utilisateur sont inévitablement liées et les utilisateurs qui ont un lien émotionnel avec une marque vous donneront de plus en plus de chances d’être présents dans leur vie.

« Il est important de considérer l’enchantement comme une sorte d’étoile polaire. Si vous rendez vos utilisateurs heureux, vous rendrez les actionnaires heureux également. »

Vous pouvez en savoir plus sur notre conduite centrée sur le client en consultant notre précédent article sur la façon de devenir une entreprise guidée par les données.

L'article Comprendre le comportement des utilisateurs grâce aux données est apparu en premier sur abtasty.

]]>
Comment devenir une entreprise guidée par les données https://www.abtasty.com/fr/blog/comment-devenir-une-entreprise-guidee-par-les-donnees/ Thu, 26 Jan 2023 15:06:18 +0000 https://www.abtasty.com/?p=107462 Retrouvez l‘introduction de notre série sur les données customer-centric ici ou consultez l’épisode précédent, Comment résoudre les problèmes réels des utilisateurs avec une stratégie CRO.  Dans ce nouvel épisode de notre série sur l’approche orientée données du marketing customer-centric, nous […]

L'article Comment devenir une entreprise guidée par les données est apparu en premier sur abtasty.

]]>
Retrouvez l‘introduction de notre série sur les données customer-centric ici ou consultez l’épisode précédent, Comment résoudre les problèmes réels des utilisateurs avec une stratégie CRO. 

Dans ce nouvel épisode de notre série sur l’approche orientée données du marketing customer-centric, nous nous sommes entretenus avec Stephen Welch, Managing Director, et Ian Bobbit, Chief Analytics Officer chez Realise, afin de comprendre comment devenir une entreprise guidée par les données. Realise, qui fait partie du groupe Unlimited, aide les marques à prendre des décisions data-driven pour maximiser leur croissance.

Nous avons discuté de la manière dont les entreprises peuvent mieux se structurer pour devenir data-driven, des équipes, de l’organisation, de la tech stack et des KPIs à surveiller, ainsi que de personnalisation et de valeur vie clients.

Quels sont les principaux défis auxquels sont confrontées les entreprises qui veulent devenir data-centric ?

La première chose que Ian et Stephen ont voulu souligner est que la plupart des entreprises disposent déjà d’une grande quantité de données, mais que celles-ci sont parfois cloisonnées par les équipes. Le premier défi est de pouvoir consolider ces informations et de comprendre leur potentiel.

Un autre défi consiste à obtenir l‘adhésion des principales parties prenantes. Il faut qu’il y ait dans l’équipe un dirigeant qui souhaite tirer des enseignements des données. La présence d’une personne qualifiée, capable de gérer plusieurs équipes, aidera les entreprises à identifier les données qui décrivent leurs clients et leur comportement au jour le jour.

Donc, si nous savons que les données sont déjà là, l’autre défi est de s’assurer qu’elles sont utilisées pour tirer les bonnes conclusions. Souvent, les entreprises peuvent avoir une stratégie qui n’est pas fondée sur des preuves. Devenir data-centric, c’est être capable de reconnaître les KPIs impactants et les données sur le comportement de vos clients.

« Nous essayons de comprendre qui sont vos clients et comment ils interagissent avec votre entreprise. C’est pourquoi nous nous concentrons sur les points de contact avec eux, un élément qui nous intéresse vraiment », explique Stephen.

Transformer une entreprise pour qu’elle devienne guidée par les données

Il n’est pas facile de transformer une entreprise pour qu’elle soit véritablement guidée par les données. Les principales parties prenantes doivent être impliquées et les équipes doivent être capables de se parler. Ian et Stephen ont tous deux identifié les objectifs contradictoires des équipes comme l’une des raisons pour lesquelles les entreprises ne sont pas aussi efficaces qu’elles pourraient l’être.

« Ce que nous essayons vraiment de faire en devenant data-centric, c’est de fournir des informations plus riches et plus larges, comme le contexte autour du client qui montre ses besoins et ses comportements », explique Stephen. « Nous cherchons également à savoir comment engager l’entreprise au-delà d’un seul canal spécifique. »

L’étape initiale commence souvent par l’étude d’un périmètre riche en données, utilisé pour prouver l’efficacité du changement dans un domaine spécifique et obtenir l’adhésion des parties prenantes de l’entreprise, au sens large. Ensuite, il s’agit de poser aux dirigeants de l’entreprise des questions telles que : que veulent-ils atteindre ? Où veulent-ils arriver ? Où en sont-ils actuellement ? Tous ces éléments permettent d’identifier les données que l’entreprise concernée devrait examiner pour construire sa courbe de maturité des données.

La quête de la personnalisation

Nous savons, grâce à nos clients chez AB Tasty, que la personnalisation est l’une des caractéristiques les plus recherchées en matière de CX. Et ce sont les données qui permettent d’y parvenir. Selon Realise, l’une des raisons pour lesquelles il est si difficile de réussir, c’est que l’idée de « personnalisation » a une signification différente selon les personnes. Ian souligne qu’une fois que vous commencez à personnaliser, vous devez disposer des ressources nécessaires pour créer du contenu pour chaque segment différent, ce qui, à son tour, peut entraîner des flux de travail et des messages très élaborés.

« Cela demande énormément de données, de réflexion et de planification, car une fois que vous avez commencé à automatiser les chaînes personnalisées, cela devient assez vite compliqué », explique Stephen.

Ian et Stephen se réjouissent tous les deux de l’apparition sur le marché de nouvelles technologies permettant cela, mais ils invitent à la prudence quant à l’amélioration réelle des résultats des entreprises, de l’efficacité et de la satisfaction globale des clients.

La Valeur Vie Client

Ce qu’ils apprécient en tant que métrique est la CLV (« Valeur Vie Client »), complémentaire à l’examen de vos données d’une manière holistique. À l’approche de périodes plus difficiles pour les entreprises, il est très important de pouvoir se concentrer sur la valorisation de sa marque. Ian et Stephen sont enthousiastes à l’égard des marques qui se concentrent moins sur la valeur transactionnelle de leur marketing.

Stephen a parlé d’une marque qui a analysé les indicateurs de ses mailings sur une année pour calculer l’augmentation incrémentale, plutôt que de regarder la valeur transactionnelle de chacun : « Quoi que vous regardiez, si vous ne tenez pas compte de l’affinité et de l’engagement à plus long terme pour la valorisation future, vous manquez un truc ».

Les programmes de fidélisation des clients font également partie de la CLV et Realise travaille dur pour aider les entreprises à les améliorer. Il s’agit notamment de comprendre qui sont vos clients et qu’est-ce qu’ils attendent de votre marque, ainsi que d’identifier les indicateurs cibles que vous espérez atteindre grâce aux programmes de fidélisation. La mesure de la fidélisation peut être une tâche difficile et le coût de gestion de tels programmes est souvent élevé. Les entreprises doivent créer une analyse de rentabilité, avec des attentes et des indicateurs de réussite clairs.

Les KPIs d’une entreprise guidée par les données

Il n’existe pas deux entreprises identiques, mais nous avons demandé à Stephen et Ian de nous donner une idée des KPIs qu’ils recherchent pour obtenir cette vision globale dont ils ont parlé. Il est important de voir à quels rapports les équipes accèdent et quels indicateurs elles utilisent au quotidien. Pour savoir avec certitude que les entreprises envisagent une croissance future, il est essentiel de mesurer l’acquisition, le churn et le NPS.

L’engagement est également une mesure cruciale pour analyser la valeur vie clients (CLV). Stephen ajoute que les entreprises devraient également examiner leurs dépenses. Parfois, elles regardent le bénéfice d’une action particulière, mais ne font pas de comparaison pour voir si elles auraient pu obtenir davantage.

Chaque entreprise peut être différente, mais vous pouvez aborder la CLV avec un objectif différent à chaque fois – votre entreprise (combien de bénéfices elle réalise), votre client (comment il se comporte) et votre personnel (dispose-t-il des bons outils pour l’aider à prendre des décisions). 

 


 

Vous voulez en savoir plus sur les données ? Rendez-vous ici pour le huitième volet de notre série sur les données customer-centric ! 

L'article Comment devenir une entreprise guidée par les données est apparu en premier sur abtasty.

]]>