Ganz unabhängig von Branche und Größe können potenziell alle Unternehmen von der Unzuverlässigkeit ihrer Daten betroffen sein. Kleine und mittlere Unternehmen verfügen in der Regel nicht über die Zeit oder die Ressourcen, um Qualitäts- und/oder Zuverlässigkeitsprobleme zu bewerten.

Große Unternehmen neigen dazu, viele Kampagnen und neue Webseiten zu generieren. Sie können nicht mit dem Tempo der Veröffentlichung Schritt halten und gleichzeitig die Datenqualitätsstandards einhalten. 

Die mangelnde Qualität der analytischen Daten kann verschiedene Formen annehmen, mit teils schwerwiegenden Folgen für Ihr Unternehmen: 

  • Verlust von Einnahmen
  • Reduzierung des ROI von Marketingmaßnahmen
  • Qualitätsverlust bei der Entscheidungsfindung
  • Kontamination anderer Datenprojekte (CRM, Data Lake, CDP usw.)
  • Minderung von internem Vertrauen und Glaubwürdigkeit

Das intrinsische Risiko der Web Analytics

In Web Analytics ändert sich die Qualität der Daten ohne präventive Maßnahmen naturgemäß. Die Fehlerquellen sind vielfältig und inhärent für bestimmte Web-Technologien: nicht gemessene Daten, Bot-Traffic, Browser-Ungenauigkeiten, Traffic-Blockaden usw.

Wir haben hier die wichtigsten Risikofaktoren, die die Qualität Ihrer Analysedaten bedrohen, identifiziert, quantifiziert und dargestellt.

Die kritische Phase der Erfassung

Die Phase der Datenerfassung ist kritisch, da sie permanent ist. Jede Optimierung, Funktionalität, neue Kampagne oder jeder neue Inhalt stellt ein Risiko für die Qualität der Datenerfassung dar. Eine effektive Erfassungsstrategie bringt alle Entscheidungsträger des Unternehmens zusammen und passt sich kontinuierlich jeder Entwicklung an. Diese Reflexion über die Datenerfassung muss bei der Definition einer Richtlinie zur Data Governance berücksichtigt werden.

Je mehr Sie Ihre mobilen Websites und Anwendungen aktualisieren und anreichern, desto wahrscheinlicher ist es, dass Sie versehentlich Ihre Analyse-Tags ändern. Dies klingt wie ein elementarer Fehler, aber tatsächlich finden sich sehr häufig fehlende, fehlerhafte oder doppelte Tags, vor allem auf großen Websites mit viel Inhalt. Diese mitunter minimalen Tagging-Probleme können schwer zu erkennen sein und erhebliche Auswirkungen auf die Performance haben. Es ist von entscheidender Bedeutung, auf die Korrektheit der Tags zu achten. Die Überprüfung des Quellcodes aller Seiten ist wichtig, aber wer hat die Zeit für diese mühsame manuelle Aufgabe? Mit Crawling-Tools können Sie automatisch die Website, alle Seiten und alle Bereiche zusammen durchsuchen, um das Vorhandensein von Digital-Analytics-Tags zu überprüfen. Andere ermöglichen es Ihnen, Ihre Tags live zu checken, sobald sie auf einer Website implementiert wurden. Sie können auch einen Report erstellen, in dem die zu behebenden Probleme aufgeführt sind.

Bot-Traffic

Schätzungen zufolge entfällt fast die Hälfte des kompletten Traffic im Web auf Roboter (oder „Bots“). Um das tatsächliche Volumen der Ströme genau zu kennen, muss anhand der richtigen Mittel derjenige Teil Ihrer Website-Besuche, der von Bots generiert wird, identifiziert und ausgeschlossen werden können. Einige „schlechte Bots“ können jedoch sehr schwer zu erkennen sein. Daher ist es wichtig, mit einem Digital-Analytics-Anbieter zusammenzuarbeiten, der über die Erfahrung und Mittel zur Erkennung und Eliminierung dieses Traffic verfügt. Die Fähigkeit, durch Bots verursachter Traffic auszusortieren, hat direkte Auswirkungen auf die Datenqualität.

Neben dem qualitativen Aspekt ist die manuelle Sortierung dieses „verschmutzten“ Traffic ein enormer – oder gar unmöglicher Aufwand für die Person, die die Daten analysiert. Als ersten Schritt sollte Ihr Web-Analytics-Anbieter in der Lage sein, diese Bots mithilfe der offiziellen Ausschlussliste zu identifizieren, die regelmäßig vom IAB veröffentlicht und aktualisiert wird. Das sollte Ihnen dann die Möglichkeit bieten, Ihre Daten über den gewünschten Zeitraum zu regenerieren, mit Ausschluss dieses Bot-Traffic.

Verzerrungen bei der Quellenzuweisung

Einige Ereignisse, wie Facebooks Überschätzung der Video-Betrachtungszeit und die vorübergehende Aussetzung von zwei Google-Indikatoren durch den Media Rating Council wegen „Nichteinhaltung“ von Messrichtlinien, haben den Unternehmen Anlass gegeben, die Richtigkeit und Gültigkeit der erhaltenen Daten in Frage zu stellen.

In einer Zeit, in der es an Transparenz zu mangeln scheint, kann man beginnen, die Genauigkeit (und Unparteilichkeit) der Indikatorberechnung in diesen Systemen mit eingeschränktem Zugang in Frage zu stellen. Hier ist ein Beispiel mit einer sehr einfachen Frage: Können wir uns wirklich auf die Zahlen verlassen, die von einem Analysewerkzeug für die Quelle einer „Suchmaschine“ zur Verfügung gestellt werden, wenn dies gleichzeitig die Einnahmen für dieses Tools generiert? Eines der letzten und auffälligsten Beispiele ist die Verzerrung bei der Messung der Quellenzuordnung durch das Analysetool von Google. Mit anderen Worten wird die Conversion automatisch der Google-Quelle (Engine oder gesponserter Link) zugeschrieben, wenn der Besucher in den letzten 6 Monaten auch nur ein einziges Mal auf einen Google-Link geklickt hat. Das Messwerkzeug ignoriert somit völlig die Quellen des direkten Traffic (z. B. Link in Favoriten, automatische Eingabe in einer Engine), um die Conversion sich selbst zuzuweisen. Mit anderen Worten: Wenn die Quelle nicht bestimmt wird, übernimmt Google sie. Das Ergebnis: Conversions, die sich summieren, und Zahlen, die in den Zählern von Werbekanälen wie Google Ads aufgeblasen werden. Fast 20 % der Conversions werden aufgrund einer fehlerhaften Quellenzuweisung überschätzt.

Glücklicherweise ist es möglich und einfach, die Risiken mit den entsprechenden Instrumenten und Verfahren zu reduzieren. Das Schwierigste dabei ist, sich der möglichen Fehlerquellen bewusst zu werden.

AT Internet bietet eine breite Palette von Werkzeugen für die Qualitätskontrolle von analytischen Daten. Weniger Fehler können daher Ihre Daten verändern und Ihre Entscheidungen beeinflussen.

Wenn Sie mehr über die Datenqualität erfahren möchten, laden Sie gerne unseren neuesten Leitfaden herunter:

Data-Quality-Guide-In-post-banner-DE
Author

Editorial Manager Bernard ist verantwortlich für die Contentstrategie der Marke AT Internet. Er hat fast 10 Jahre Erfahrung bei Marketingtexten und als technischer Redakteur für die Softwareindustrie. Als Textspezialist arbeitet Bernard mit vielen verschiedenen Medien, unter anderem Blogs, White Papers, Interviews, Business Cases, Pressetexte, Infografiken, Videos, etc. Seine Spezialgebiete? Natürlich Marketing und Digitale Analyse!

Comments are closed.