Selon une étude Accenture, 44 % des consommateurs français sont passés à la concurrence en 2017 car l’expérience d’achat qu’ils ont vécue n’était pas suffisamment personnalisée. Et 66% d’entre eux sont davantage susceptibles d’acheter auprès d’entreprises qui personnalisent les expériences avec leurs clients (en fonction de leur localisation, leurs interactions passées ou leurs préférences). Cette demande d’ultra personnalisation, combinée à une extrême volatilité des internautes, fait basculer le marketing digital dans l’ère de l’hyper pertinence. La fidélité du consommateur à une marque devient presque obsolète. Le consommateur saisit la meilleure opportunité, d’où qu’elle vienne. Il attend qu’on lui propose ce dont il a besoin exactement, au bon prix et au bon moment. La solution : l’hyper pertinence. Le moyen d’y parvenir : collecter et analyser une donnée analytics de qualité irréprochable.

Sur le terrain…

Certaines situations nous montrent que beaucoup d’entreprises sont encore loin d’avoir pris la mesure de ces mutations. Qui n’a jamais été poursuivi par la pub d’un produit qu’il avait déjà acheté, et dont le prix baisse à mesure que le temps passe… (grrr…) La défiance des internautes est entretenue par ce genre d’incohérences. Un déficit de qualité des données est souvent à l’origine de ces erreurs, qui décrédibilisent les marques et nuisent à leur business.

Une question de confiance

Concrètement, pour les marketeurs, il s’agit de restaurer la pertinence dans leurs moindres actions, campagnes et dans le lien qu’ils créent avec le consommateur. Tout l’enjeu est de rehausser le niveau de confiance envers la marque dans la durée. Seule une donnée de qualité (exacte, exhaustive, intègre, fraiche, cohérente et conforme) peut garantir un minimum d’erreur lors de son exploitation (car soyons lucides, le risque zéro n’existe pas).

Paradoxalement à l’engouement du consommateur pour une personnalisation très fine, 47 % des français craignent que les nouveaux services digitaux en sachent trop sur eux et leur famille… 82 % indiquent également qu’il est extrêmement important que les entreprises protègent la confidentialité de leurs informations personnelles.

En parallèle d’une personnalisation avancée, la transparence et l’éthique des sociétés deviennent aussi une arme de persuasion, et une donc condition nécessaire pour restaurer la confiance.

L’hyper pertinence analytics

Qu’offrir par exemple à un client touché par une catastrophe naturelle ? Ou à un usager dont le vol a été fortement retardé ? Ces situations requièrent une grande pertinence dans la réponse à apporter. Avec une connaissance très avancée des attentes utilisateurs, il est possible de cibler juste et dans le bon timing. Par exemple :

  • En connaissant parfaitement tout son écosystème digital, et pas uniquement ses performances site-centric qu’on a tendance à généraliser à tout le dispositif online (les comportements mobiles révèlent des comportements spécifiques, souvent différents).
  • En détectant un intérêt fort pour tel ou tel contenu via l’analyse des requêtes effectuées par l’internaute dans un moteur, ou en étudiant la fréquence de ses visites.
  • En mesurant ses contre-performances : l’exposition des visiteurs aux pages d’erreur, les requêtes sans résultats, etc.
  • En identifiant les tendances et comportements de consommation, les meilleurs acheteurs ou les plus volatiles.
  • En anticipant les variations de trafic influencées par des paramètres extérieurs comme l’actualité, la météo, etc.

Machine learning : la clé de la valeur

Les entreprises les plus matures utilisent déjà des technologies analytiques augmentées. Elles s’appuient sur des algorithmes de machine learning pour détecter et anticiper des anomalies ou encore segmenter ultra finement des profils clients selon divers paramètres. Investir dans des technologies prédictives et prescriptives est une manière de répondre à cet enjeu d’hyper pertinence. Mais sans qualité des données, toute initiative est vaine, et surtout risquée.

Gartner parle d’ailleurs d’Analytics augmenté comme tendance et priorité n°1 des CDO pour 2020. Construits à partir d’algorithmes et de modèles mathématiques, ces outils doivent permettre de décrire et de prédire le comportement des internautes. Une des applications du Machine Learning pour améliorer la qualité des données est de proposer un service de détection automatique d’anomalie. Le principe est de capturer l’évolution temporelle et les fluctuations suspectes voire anormales des métriques (sur des périmètres importants, un être humain est incapable de le faire seul). Ces analyses permettent d’expliquer les causes probables de ces anomalies.

Par exemple : si un robot passe sur un site et provoque un pic significatif de trafic, une anomalie est détectée sur le nombre de pages vues. En explorant automatiquement tout un ensemble de dimensions annexes (source, device, browser, etc.), une analyse de causalité peut être établie et permettre de conclure que cette anomalie a été provoquée par une hausse anormale de trafic sur le segment trafic direct au Canada sur la version de chrome 55. Ce genre d’outil doit permettre de délivrer une première analyse, de mieux comprendre les comportements et de garantir la fiabilité de vos analyses.

Si le sujet de la qualité des données vous intéresse, téléchargez notre dernier guide :

La qualité des données digital analytics, version 2019
Author

Responsable éditorial. Bernard est en charge de la stratégie de contenus pour AT Internet. Il possède une expérience de 10 ans dans le domaine du Content Marketing. Ses sujets de prédilection : le data marketing, les stratégies d'Inbound, la communication éditoriale web et les digital analytics.

Comments are closed.