terminator

Qui sera le héros analytique de demain ?

Si l’on en croit les blogs spécialisés, deux espoirs  s’opposent :

  • d’un côté une machine prédictive qui parviendra à décerner les tendances et les points de vigilance à partir d’un algorithme élaboré, une intelligence artificielle qui automatisera et simplifiera la détection des informations pertinentes.
  • de l’autre un analyste web, de chair, d’os et surtout de neurones, capable de comprendre le contexte dans lequel se situe une information, de hiérarchiser et prioriser les données dont il dispose, afin d’en tirer des recommandations efficaces.

Editeurs de solutions technologiques, stimulés par de nombreux et créatifs ingénieurs, nous devrions, chez AT Internet, être les fervents défenseurs de la première solution. Nous devrions chercher à nous approcher de la solution magique qui posera les questions, fournira les réponses, et mettre en œuvre la solution. Il n’en est rien… Non pas que nous soyons résignés, bien au contraire, la marge d’évolution de nos solutions décisionnelles est énorme et il reste bien des sujets à traiter (en vrac : l’inter-connexion fluide des différentes sources de données, les représentations décisionnelles visuelles, la convergence des flux vidéos, ou encore les nouveaux supports sociaux et mobiles…). Nous continuons donc à chercher et à développer à un rythme toujours plus soutenu pour améliorer l’autonomie de la machine.

Mais nous restons convaincu que le vrai héros de demain n’est pas (et ne doit pas être) un programme, mais ce génial homo sapiens. Cette conviction est fondée sur des raisons nombreuses et assez diverses :

L’instabilité des périmètres étudiés.

Pour la faire brève, les sites web connaissent des mutations quotidiennes (par exemple : modifications ergonomiques, ajout ou fermeture de sections, nouveaux formats), qui interdisent de s’appuyer sur des historiques de données suffisants pour automatiser des prédictions. Ce problème est encore aggravé par la pérennité parfois douteuse des taggages, et par la réduction des volumes étudiés  induite par l’indispensable segmentation des audiences.

La complexité du contexte d’analyse.

Les éléments qui peuvent impacter directement ou indirectement l’audience d’un site et l’interprétation du comportement des internautes sont extrêmement difficiles à mettre en équation et à hiérarchiser. Citons par exemple :

a.   La météo
b.   L’actualité
c.   La pertinence d’une campagne d’acquisition de trafic
d.   Un nouveau lien inattendu sur un site partenaire, une nouvelle page référencée
e.   Les performances techniques du site en général ou d’une page en particulier
f.   La concurrence
g.   Les tendances marché
h.   etc.

Nous travaillons à intégrer toutes ces sources et à les croiser dans nos rapports. Cela pourrait être ainsi fait assez aisément pour la météo et nous le faisons depuis longtemps avec les données de performances techniques via notre module Observer. Mais soyons réalistes il est utopique d’espérer relier toutes ces dimensions.

La machine est parvenue à nous battre aux échecs, mais l’environnement dans lequel travaille l’analyste web est infiniment moins stable et pérenne qu’un plateau de 64 cases.

Pourquoi la complète automatisation n’est-elle pas même souhaitable ?

Où doit se situer l’intelligence, la compréhension des phénomènes observés sur le site ? 

Admettons (même si nous n’y croyons pas) que la machine parvienne à détecter le point de vigilance et à le corriger automatiquement (via la personnalisation d’un contenu, un changement d’enchère sur un mot clé par exemple), est-il souhaitable que le responsable du site n’ait pas connaissance du problème et n’ait pas la capacité de comprendre la solution ? Que se passera-t-il si demain pour x raisons la technologie n’est plus adéquate et doit être remplacée ou modifiée ? Est-il souhaitable que l’auto-apprentissage soit réservé à vos outils analytiques ou de ciblage comportemental ?

Si nous élargissons un peu notre réflexion, nous observons des limites éthiques à l’automatisation des algorithmes d’analyses (et par ricochet de recommandations).

Dans un remarquable article publié dans le New York Times, Eli Pariser illustre parfaitement les dangers que fait peser l’obsession de la pertinence et de la personnalisation, prônée par certains mastodontes du Web, sur les principes mêmes de nos démocraties, sur la richesse intrinsèque d’Internet. Ce court article mérite d’être lu intégralement, mais sa conclusion est éloquente :

« It is in our collective interest to ensure that the Internet lives up to its potential as a revolutionary connective medium. This won’t happen if we’re all sealed off in our own personalized online worlds ».

La capacité d’analyse et de contextualisation d’un consultant capable de comprendre l’environnement complexe d’une entreprise (humain,  technique, commercial, marketing) demeure donc, et de loin, l’outil le plus précieux pour tirer le meilleur profit d’une stratégie analytique. Bien entendu, sans des données de qualité (fiables, lisibles, rapidement accessibles et interprétables) l’analyste ne pourra que se morfondre dans l’obscurité, mais ces mêmes données livrées brutes ou moulinées dans un programme, le plus intelligent soit-il, seront inutiles, voire dangereusement tyranniques.

Nous cherchons donc à toujours équilibrer la solution technique et l’accompagnement humain (via nos consultants ou nos partenaires).  Nous adorons développer des programmes toujours plus rapides et intelligents, afin de contextualiser nos données et d’en améliorer la portée décisionnelle, mais nous ne nous méprenons pas sur l’importance décisive du conseil pour construire les rapports, définir les KPIs pertinents, interpréter les données et proposer des actions efficaces.

Bref, l’analyste web a encore de beaux jours devant lui avant de devoir laisser sa place aux Terminators de Skynet, qui soit dit en passant, ne brillent pas par leur finesse.

 


[1] Dans bien des ouvrages d’anticipation, ce n’est pas tant parce que les machines sont devenues sur-puissantes qu’elles finissent par balayer l’homme, mais bien parce que l’homme est devenu trop stupide ou passif pour s’y opposer. De HAL  9000 dans 2001, à Wall-E (où l’on retrouve le modèle de HAL), en passant par les Robots d’Asimov ou les cocons de la Matrice, la passivité de l’homme est fatale. On pourrait élargir encore le débat en évoquant le passionnant concept de la singularité technologique prévue pour certains dans un avenir proche. Mais cela nous mènerait trop loin de notre sujet…

 

Auteur

Directeur Général Mathieu a rejoint AT Internet en 2000 et officie maintenant en tant que Directeur Général. Il est également Professeur à l’Université de Bordeaux III. Mathieu est Agrégé de Lettres Modernes et possède un D.E.A. en Sciences de l’Information avec une recherche approfondie sur la mesure de l’audience online. Il est régulièrement invité à s’exprimer dans les Ecoles de commerce et lors de conférences spécialisées."

Comments are closed.