Laut einer Accenture-Studie (hier auf Französisch verfügbar) wechselten 2017 44 % der französischen Verbraucher zu Wettbewerbern, weil ihr Einkaufserlebnis nicht ausreichend personalisiert war – und 66 % von ihnen kauften eher bei Unternehmen, die Kundenerlebnisse personalisieren (basierend auf ihrem Standort, früheren Interaktionen oder Präferenzen). Diese Forderung nach Ultra-Personalisierung, kombiniert mit sehr volatilen Internetnutzern, treibt das digitale Marketing in die Ära der Hyper-Relevanz. Die Loyalität der Verbraucher zu einer Marke wird fast obsolet. Online-Shopper nutzen zunehmend die besten Gelegenheiten, egal woher sie kommen – und erwarten von den Unternehmen, dass sie ihnen genau das bieten, was sie brauchen, zum richtigen Preis und zum richtigen Zeitpunkt. Wie gehen Unternehmen also an dieses moderne Problem heran? Die Antwort heißt Hyperrelevanz. Und der effektivste Weg, es zu erhalten, ist, qualitativ hochwertige analytische Daten zu erfassen und zu analysieren.

In der Praxis …

Aus Erfahrung wissen wir, dass viele Unternehmen noch Lichtjahre davon entfernt sind, das Ausmaß der modernen Wandlungen im Online-Marketing zu erfassen. Internetnutzer werden oft von Werbung für ein Produkt verfolgt, das sie bereits gekauft haben und dessen Preis im Laufe der Zeit sinkt. Diese Art von Inkonsistenz schürt das Misstrauen der Kunden und wird häufig durch mangelnde Datenqualität verursacht, die die Glaubwürdigkeit einer Marke untergräbt und ihrem Geschäft schadet.

Es geht um Vertrauen

In der Praxis geht es für Werbetreibende darum, die Relevanz in jeder Aktion, Kampagne und in der Beziehung, die sie mit dem Verbraucher herstellen, wiederherzustellen. Die Herausforderung besteht darin, das Vertrauen in die Marke im Lauf der Zeit zu erhöhen. Nur qualitativ hochwertige Daten (akkurat, vollständig, sauber, zeitnah, konsistent und konform) können garantieren, dass Fehler während der Verwendung auf ein Minimum beschränkt werden (Nullrisiko gibt es nicht).

Paradoxerweise sind 47 % der Franzosen besorgt, dass die neuen digitalen Dienste zu viel über sie und ihre Familie wissen werden. 82 % halten es auch für äußerst wichtig, dass Unternehmen die Vertraulichkeit ihrer personenbezogenen Daten schützen.

Unternehmenstransparenz und -ethik werden auch zu einem Argument für die Kundenbindung und damit zur notwendigen Voraussetzung für die Wiederherstellung des Vertrauens.

Hyper-Relevanz-Analysen

Was kann beispielsweise einem von einer Naturkatastrophe betroffenen Kunden angeboten werden? Oder einem Nutzer, dessen Flug erheblich verspätet war? Diese Situationen erfordern ein hohes Maß an Relevanz in Ihrer Reaktion. Mit fortgeschrittenen Kenntnissen über die Nutzererwartungen ist es möglich, mit Inhalten und Timing genau ins Schwarze zu treffen. Sie können dies folgendermaßen erreichen:

  • Durch ein perfektes Verständnis des gesamten digitalen Ökosystems des Kunden und nicht nur der Website-zentrierten Performance, die tendenziell durch die diversen Online-Geräte des Kunden verallgemeinert wird (mobile Aktivitäten können spezifisches wie auch vielseitiges Verhalten offenbaren).
  • Durch das Erkennen eines starken Interesses an bestimmten Inhalten. Dies geschieht anhand von Analysen der Suchmaschinenanfragen des Nutzers oder von Untersuchungen der Besuchshäufigkeit.
  • Durch die Messung der eigenen Fehlleistung: Exposition des Besuchers gegenüber Fehlerseiten, Abfragen ohne Ergebnisse usw.
  • Durch die Identifizierung von Verbrauchertrends und -verhalten – die besten Käufer und die sprunghaftesten.
  • Durch Antizipation von Traffic-Schwankungen, beeinflusst durch externe Parameter wie Nachrichten, Wetter usw.

Maschinelles Lernen – der Schlüssel zur Wertsteigerung

Die ausgereiftesten Unternehmen nutzen bereits optimierte Analysetechnologien. Mit maschinellen Lernalgorithmen erkennen und antizipieren sie Anomalien oder segmentieren Kundenprofile präzise nach verschiedenen Parametern. Investitionen in prädiktive und normative Technologien sind eine Möglichkeit, das Problem der Hyperrelevanz anzugehen. Aber ohne die Sicherstellung der Datenqualität sind alle Bemühungen sinnlos und vor allem riskant.

Gartner bezeichnet die erweiterte Analyse als den Trend und die Priorität Nummer eins für CDOs im Jahr 2020. Diese Werkzeuge, die mit mathematischen Algorithmen und Modellen entwickelt wurden, müssen es ermöglichen, das Verhalten der Internetnutzer zu beschreiben und vorherzusagen. Eine der Anwendungen des maschinellen Lernens zur Optimierung der Datenqualität besteht darin, einen automatischen Erkennungsdienst für Anomalien anzubieten. Die Idee besteht darin, Zeittrends und verdächtige oder anomale Schwankungen der Kennzahlen aufzuzeichnen (der Mensch ist nicht in der Lage, dies in großem Umfang selbst tun). Diese Analysen helfen, die wahrscheinlichen Ursachen der Anomalien zu erklären.

Beispiel: Wenn ein Bot eine Website besucht und einen erheblichen Anstieg des Traffic verursacht, wird eine Anomalie bei der Anzahl der Seitenaufrufe erkannt. Durch die automatische Untersuchung eines ganzen Satzes verwandter Dimensionen (Quelle, Gerät, Browser usw.) kann eine Kausalitätsanalyse erstellt und zu dem Schluss gelangt werden, dass die Anomalie durch eine ungewöhnliche Zunahme des Traffic im direkten Traffic-Segment aus Kanada in Chrome Version 55 verursacht wurde. Diese Art von Tool ermöglicht eine vorläufige Analyse, um  Verhaltensweisen besser zu verstehen und die Zuverlässigkeit Ihrer Analysen zu gewährleisten.

Wenn Sie mehr über Datenqualität erfahren möchten, laden Sie gerne unseren neuesten kostenlosen Leitfaden herunter:

Data-Quality-Guide-In-post-banner-DE
Author

Editorial Manager Bernard ist verantwortlich für die Contentstrategie der Marke AT Internet. Er hat fast 10 Jahre Erfahrung bei Marketingtexten und als technischer Redakteur für die Softwareindustrie. Als Textspezialist arbeitet Bernard mit vielen verschiedenen Medien, unter anderem Blogs, White Papers, Interviews, Business Cases, Pressetexte, Infografiken, Videos, etc. Seine Spezialgebiete? Natürlich Marketing und Digitale Analyse!

Comments are closed.