Siège d’AT Internet. Crédit : Xavier Bellenger

Les besoins analytics ont énormément évolué ces dernières années avec la diversité des profils d’utilisateurs de données. Les enjeux de flexibilité, de personnalisation et de puissance sont toujours plus grands. Avec la démultiplication des acteurs tech, l’offre de solutions de mesure de la performance digitale s’est diluée dans un marché complexe, parfois incohérent et paradoxalement incomplet.

Acteur historique et pionnier du digital analytics depuis 1999, AT Internet a fait un pas de recul, et a repensé totalement ses technologies. Avec une approche clairement centrée sur les besoins de nos utilisateurs, dans le respect de nos valeurs (éthiques et responsables), nous avons entamé une véritable révolution produit. L’idée n’était pas de se lancer dans une course à la fonctionnalité, puisqu’aujourd’hui c’est avant tout la capacité à agir et à comprendre simplement qui fait défaut. Nous avons cherché à exploiter au mieux les évolutions technologiques récentes, de répondre plus intelligemment aux réalités des métiers du marketing, de la stratégie produit, de l’UX et des Directions Générales, tout en ayant un souci de frugalité énergétique et de respect de la privée by design.

Découvrez la vision, l’approche technique et les impacts de ce virage technologique structurant pour AT Internet.

Un marché digital analytics hétérogène et paradoxal

Lorsque nous avons débuté ce métier, nous mesurions essentiellement des interactions entre des ordinateurs et des pages web. 20 ans plus tard, les utilisateurs combinent de multiples appareils (smartphones, montres connectées ou assistants vocaux) pour accéder aux nombreuses plateformes que chaque marque propose (site web, site mobile, application iOS, application Android, etc.). La priorité des clients d’une solution Digital Analytics est désormais de mesurer de la manière la plus exhaustive possible la réalité de ces parcours, aussi complexes soient-ils. Le champ d’utilisation de ces données particulièrement étendu et stratégique exige par ailleurs un grand niveau de fiabilité.

La réalité du marché du Digital Analytics est pourtant paradoxale. Si tout le monde s’accorde sur l’importance d’avoir une connaissance complète, homogène et fidèle de la réalité des usages, une entreprise cherchant à s’équiper devra comprendre les différentes philosophies des solutions.

Les outils de Digital Marketing Analytics, conçus pour répondre aux problématiques spécifiques du marketing digital ont leur lot de notions complexes (acquisition de trafic, monétisation, nombreuses métriques et analyses spécifiques…). C’est dans cette catégorie que se positionnent naturellement AT Internet, Adobe Analytics et le leader en part de marché Google Analytics. Chez ces acteurs, la quantité et la variété d’informations en standard sont probablement leur atout principal, en particulier pour des profils rattachés à la direction marketing. En revanche, ces outils peuvent rapidement atteindre leurs limites de flexibilité quand il s’agit d’analyser des notions très spécifiques à l’entreprise.

Les outils de Product Analytics ont su exploiter les manques de la première catégorie pour se faire une place sur le marché. Des acteurs américains comme Mixpanel, Amplitude ou Heap analytics, peuvent miser sur une grande flexibilité, permettant de mesurer des interactions très spécifiques au développement d’un produit ou service. Leur apparente simplicité est convaincante pour des profils de l’univers produit (Product Manager, Product Owners etc.). Inconvénient : le haut degré de flexibilité devient source complexité quand il s’agit d’avoir des données fiables et exhaustives puisque très peu d’analyses sont prêtes à l’emploi. Reconstituer la métrique visite ou rebâtir les dizaines d’analyses marketing disponibles et nécessaires en digital analytics est un exercice aussi fastidieux que périlleux. Les risques d’erreurs sont innombrables et il est illusoire d’imaginer certifier ainsi des audiences.

Enfin, les outils In-house (conçus en interne), ont été longtemps réservés aux entreprises particulièrement matures, mais la démocratisation des plateformes cloud a démocratisé les outils nécessaires à de tels projets. Ces outils peuvent faire valoir des capacités de personnalisation de bout en bout (nature des données collectées, traitements appliqués, interfaces de restitution) tout en offrant une puissance de calcul paramétrable. Néanmoins, au-delà des compétences rares requises pour mener ce type de projet à bien, cette approche nécessite souvent de nombreux sacrifices fonctionnels pour une équilibre économique souvent très délicat à maintenir dans le temps (coûts de développement, risques, dette technique, maintenance etc.). En outre les évolutions techniques (cookies, adblocking, nouveaux supports) et législations récentes (RGPD en tête) rendent la fiabilisation et la mise en conformité très délicates. Concrètement, les entreprises possédant les compétences pour livrer et surtout maintenir durablement de tels projets sont rares.

Bilan : pour répondre à toutes les questions qu’elle peut se poser sur ses utilisateurs, une entreprise peut être tentée de combiner les outils Digital Marketing Analytics et Product Analytics tout en ayant la flexibilité d’une solution In-House. La réalité des coûts rend cette hypothèse peu viable dans la durée, surtout pour des outils fonctionnant en silo au détriment de la qualité de la donnée.

Les ingrédients d’une nouvelle plateforme technologique

À la robustesse et à la fiabilité du cœur analytique de notre solution, développé et éprouvé depuis plus de 20 ans par des dizaines de milliers d’utilisateurs, nous ajoutons trois nouveaux ingrédients cruciaux afin d’offrir le meilleur des trois options présentées plus haut.

  • Une vision résolument user centric : nous allons offrir encore plus de souplesse dans la capacité à analyser la globalité du parcours utilisateur, tout en permettant de manipuler plus simplement des métriques telles que les Utilisateurs uniques (coûteux en ressources de calcul). 
  • Un degré de flexibilité supérieur : sur la base d’un modèle de données plus complet, chaque entreprise va pouvoir prendre en compte ses spécificités grâce à des capacités de personnalisation quasi-illimitées (variables personnalisées, métriques ou événements customs).
  • Une puissance de calcul sans limite : c’est probablement le point le plus attendu. Pour répondre à des questions de plus en plus nombreuses et de plus en plus complexes (déduplication, segmentation, croisements), la puissance d’analyse et de calcul est démultipliée. Certains de nos clients collectent d’ores et déjà des dizaines de milliards d’interactions par mois.

Cette nouvelle dimension de notre solution digital analytics est l’aboutissement d’un des projets les plus ambitieux de l’histoire d’AT Internet. Pour combiner intelligemment les 3 forces évoquées plus haut avec notre savoir-faire, nous sommes repartis de zéro pour construire une toute nouvelle plateforme. Son nom de code : New Data Factory. Le projet est d’autant plus ambitieux que nous choisissons de le mener en toute transparence pour nos clients, en leur livrant des fonctionnalités au gré du développement. Sans le savoir, ils utilisent depuis des mois à la fois l’ancien système de mesure et cette nouvelle plateforme technologique. Certaines fonctions phares du produit reposent entièrement sur ce nouveau système : notre analyse de Navigation, les analyses e-commerce Sales Insights, ou plus récemment la nouvelle version de notre outil de data mining Data Query 3.

Autre fondement de notre stratégie produit : l’éthique by design. Le respect de la vie privée des internautes fait partie intégrante de l’ADN de notre société. Nous ne concevons pas d’analytique fiable et efficace sans une relation de confiance totale entre la solution, le site et ses internautes. Non seulement nous garantissons techniquement une transparence et une indépendance totale, notre métier est exclusivement celui de l’analytique, et la propriété de la donnée est intégralement celle du client (sans le moindre usage secondaire). Nous sommes en outre convaincus que la valeur principale de l’analytique consiste avant tout à mieux comprendre pour mieux servir. Il n’y a aucune création de valeur durable à partir des données sans un contrat de confiance limpide avec les internautes. Les garanties que nous offrons en termes de respect de la vie privée et le travail effectué avec la CNIL, garante de l’application du RGPD, nous permet par exemple de pouvoir bénéficier en France d’une exemption de recueil du consentement. Cette exemption est sujette à condition mais permet de fiabiliser considérablement l’exhaustivité de la donnée tout en respectant l’indispensable confiance des internautes.

Enfin, en parallèle du respect de la privacy, notre approche éthique consiste également à minimiser l’impact de nos activités sur la planète. Récolter et traiter des informations en masse est une activité particulièrement énergivore. Nous nous engageons dans le développement d’une solution dont l’impact carbone sera réduit, notamment grâce à une gestion intelligente des ressources et une recherche systématique de minimisation des informations collectées et stockées. Le Big Data ne se souciant pas de la finalité de la collecte et de la qualité des données ingérées et digérées nous semble aujourd’hui irresponsable et irrespectueux des attentes des internautes.

Respect de la vie privée, frugalité des données collectées et calculées et équilibre économique des dépenses s’inscrivent dans un cercle vertueux où la donnée est plus juste, plus fiable, plus respectueuse et moins toxique pour la planète…

L’Analytics Suite : pertinence et valeur augmentées

Dans les faits, notre stratégie produit consiste à livrer des fonctionnalités à valeur ajoutée au gré du développement de cette nouvelle plateforme technologique. Nos clients ont donc déjà pu tester quelques briques de cette version augmentée de l’Analytics Suite.

Analytics Suite value-added functionalities

Priorité à l’activation de la donnée grâce au Machine Learning

L’Analytics Suite propose des fonctionnalités de Data Science, basées sur des algorithmes de Machine Learning : détections d’anomalies, prévisions, contribution et clustering automatique. Nous enrichissons continuellement notre offre de fonctions intelligentes (AXON) pour assister l’analyste dans son travail en lui suggérant automatiquement des insights. Les analyses traditionnelles de Core analytics restent disponibles et évoluent également au rythme des releases. Le Sunburst par exemple, utile pour décrypter les parcours de navigation, ou les tunnels pour illustrer les points de fuite lors du parcours d’achat, sont toujours disponibles dans la solution.

Notre volonté de proposer un système entièrement ouvert et prêt à s’interconnecter avec l’ensemble de l’écosystème de nos clients reste aussi d’actualité. Une API de nouvelle génération fait son apparition et est complétée par des mécanismes d’extractions de gros volumes de données inédits, pour assurer une distribution de la valeur aussi large que possible. Les connecteurs AT Connect prêts à l’emploi seront aussi plus nombreux et intégrés nativement à la plateforme. Sous réserve du recueil du consentement éclairé de l’internaute, ces flux d’informations vont faciliter la valorisation des données via des outils partenaires.

Flexibilité et personnalisation, jusqu’à 1000 variables

Chaque entreprise a des spécificités qui requièrent une grande capacité de personnalisation. Les attentes sont d’autant plus fortes quand il s’agit de répondre à des problématiques autres que liées au marketing digital, comme l’UX ou la stratégie produit. Notre solution est pensée pour permettre à nos clients de collecter une grande variété d’information sur les interactions des utilisateurs avec leur marque. Lorsqu’un événement est mesuré (le chargement d’une page, la lecture d’une vidéo, etc.), il est qualifié par un certain nombre de paramètres que nous appelons propriétés. C’est cette structuration qui rend l’information exploitable et pertinente. Chaque type d’interaction peut avoir des propriétés spécifiques. Nous allons permettre à nos clients d’ajouter une grande quantité de propriétés personnalisées (jusqu’à 1000).

Analytics Suite Event properties

Au-delà de la trentaine d’événements prédéfinis proposés par AT Internet, nos utilisateurs pourront créer un nombre illimité d’événements personnalisés. Exemples : le téléchargement d’une brochure, l’ajout d’une musique à une liste de lecture, ou le contact d’un vendeur sur un site de petites annonces. Ils pourront ainsi mesurer des interactions qui correspondent à leurs objectifs stratégiques ou qui enrichiront les données collectées jusqu’alors, en utilisant leur propre jargon. Ces événements seront également qualifiés par des propriétés disponibles dans le modèle de donnée AT Internet ou personnalisées.

Marquage : l’approche tag first

Pour réussir cette ultra personnalisation, la philosophie du tag first sera appliquée. Elle signifie que toute donnée présente dans la librairie de collecte (JS, SDK) est automatiquement collectée. Finies les configurations et déclarations préalables lorsqu’il s’agit d’ajouter de nouveaux types d’évènements ou de nouvelles propriétés personnalisées. Pour assurer une qualité de la donnée et une gouvernance sans faille, les utilisateurs autorisés seront informés lorsque des modifications seront appliquées au modèle de données. Une simple autorisation leur permettra de les rendre effectives.

Analytics Suite tag first approach

Pour toutes les informations qui n’ont pas leur place dans les librairies de marquage, nous proposons désormais la possibilité d’importer très simplement des données dans la plateforme :

  • Critères d’utilisateurs  
  • Catalogues produits (couleurs, modèle, marque, stock, etc.) 
  • Catalogues de contenus (genre, durée, réalisateur, etc.) 
  • Listing de campagnes (type, coût, formats, etc.) 
  • D’une manière générale, toute information qui peut être associée grâce à une clé (ID). 

Bien sûr, il sera toujours possible de créer facilement des règles de traitement personnalisées pour corriger ou enrichir les données collectées avant qu’elles soient stockées dans la plateforme.

Un outil prêt à l’emploi avec 400 propriétés et 120 métriques standards

L’aspect self-service analytics, qui est déjà une véritable force du produit, sera renforcé. Le nouveau modèle de données de la plateforme est enrichi, portant à plus de 400 le nombre de propriétés standards (sources de trafic, e-commerce, audio/vidéo, publicité, technologies…) et 120 le nombre de métriques. L’utilisation de ce modèle de données associe gain de temps incontestable et haute qualité d’analyse.

Analytics Suite new data model KPIs

Une expérience ultra-fluide

Un analyste doit pouvoir déceler un potentiel d’optimisation dans Explorer, poursuivre ses investigations dans Data Query et partager le fruit de son analyse dans un tableau de bord personnalisé. Adaptatives et évolutives, l’utilisateur aura la possibilité de choisir à quelles fonctionnalités accéder en fonction de son profil.

Analytics Suite experience features

Les dessous d’une révolution technologique

Pour s’inscrire dans notre vision produit, le développement d’une nouvelle plateforme technologique a fait l’objet d’un certain nombre de choix techniques structurants.

Architecture : des technos adaptées et une méthode DevOps

Partir de zéro pour développer un produit permet de choisir ce qui se fait de mieux en termes de technologies. Historiquement, notre plateforme reposait quasiment sur une seule gamme de solutions technologiques. Nous changeons de philosophie et nous choisissons maintenant d’utiliser autant de technologies que nécessaire pour atteindre nos objectifs. Certaines sont de véritables références, comme Kafka pour le processing temps réel, ou Snowflake qui est probablement le datawarehouse le plus performant du marché. Mais au-delà des technos, c’est la qualité des combinaisons d’outils qui est à l’origine des bénéfices attendus. Pour que ces différentes briques fonctionnent de manière harmonieuse, scalable et résiliente, nous appliquons une approche DevOps au sein de nos équipes de développement et utilisons massivement l’orchestration de containers (Kubernetes).

Architecture: adapted technologies and a DevOps approach

Stockage : une approche radicalement différente pour unifier les données

La nouvelle plateforme technologique repose sur un stockage unifié de l’ensemble des données collectées pour le compte d’une entreprise. Qu’elles soient standards ou personnalisées, toutes les propriétés deviennent une colonne dans cette structure de stockage des données. Les interactions mesurées sont autant de lignes de cette structure (potentiellement plusieurs milliards par mois), quels que soient les sites ou appareils dont elles sont issues.

Ce changement d’approche technique radical présente deux avantages :

  • Une vue réellement unifiée : toutes les données générées par un utilisateur sont rassemblées et disponibles. Un analyste pourra étudier un périmètre très étendu (toutes les plateformes), un ensemble de sites (toutes les applications) ou même une section de site, sans contraintes.  
  • Une performance inégalée : ce mode de stockage adossé aux choix technologiques effectués permet d’obtenir une rapidité d’exécution des requêtes sans précédent. Le volume de données et la complexité des requêtes n’imposent plus de limites.

Dans un prochain article, nous reviendrons en détail sur les avantages techniques d’un stockage unifié en colonnes vs. une approche traditionnelle.

Crédits photo : Xavier Bellenger

Author

Cédric Ferreira est Chief Product Officer chez AT Internet. Avec plusieurs années d'expérience dans le management d'équipes produit à l'international, il occupe la position idéale pour façonner l'avenir de la solution d'AT Internet.

Comments are closed.