Article-Sampling-1

Sampling wird oft als nützliche und geradezu notwendige Verbesserung für die Webanalyse dargestellt. Als Argument dafür wir in der Regel die wesentlich verkürzte Dauer für die Datenverarbeitung angeführt. Bei diesem Thema schwanke ich zwischen Bestürzung und Bewunderung. Bestürzung, weil damit eine niedrige Qualität gerechtfertigt wird und Bewunderung, weil man damit in der Lage ist eine bekannte Schwäche wie eine Stärke aussehen zu lassenEine Fähigkeit, die alle Analysten gemein haben ist ihr kritisches Denken. Deshalb werden sie ohne Zweifel hellhörig werden, wenn sie die von der Informationsflut hören, die das Sampling angeblich notwendig macht. Wird da Sampling als etwas dargestellt, was es nicht ist und wenn ja, warum?

Ich bin der Meinung, dass es Zeit ist folgendes klar zu machen:

  • Das „Alibi” (die Vorzüge des Sampling) ist konstruiert
  • Die „Tatwaffe“: Die tatsächliche Anwendung bleibt nebulös und Fakten absichtlich im Dunklen
  • Das „Motiv“: Wer Sampling nutzt (wer davon profitiert) und warum

Der Mythos tugendhaftes Sampling

Wenn wir den vielen Publikationen und Artikeln über Sampling Glauben schenken, dann bringt es folgende Vorteile für den Analysten:

Sampling steigert die Verarbeitungsgeschwindigkeit indem weniger Daten ausgewertet werden müssen.

Für sich allein betrachtet bringt das noch keinen Mehrwert.

Sampling hat keinen negativen Einfluss auf den Wert von Reports.

Dieses Argument wird (absichtlich) nie begründet aber immer impliziert.

Der Endnutzer profitiert davon.

Das sollte eine Folge der ersten beiden Behauptungen sein, wenn diese wahr sind.

Man muss sich aber über etwas anderes viel größere Sorgen machen: Denn wenn man dieser Argumentation folgt kommt man zu einer unangenehmen Schlussfolgerung:

Serviceprovider, die Sampling verwenden, sollten eine gute Performance haben, während alle anderen keine optimalen Ergebnisse erzielen.

Wenn wir mit den oben genannten Behauptungen konform gehen, müssen wir unweigerlich bei diesem Kurzschluss ankommen.

Die verborgenen Schludrigkeiten des Sampling

Probleme unter den Teppich zu kehren ist eine beliebte Technik: Man muss sich nur darum kümmern, dass niemand es merkt.

Wenn man sich die Sache genauer ansieht, dann stellt sich die Steigerung der Leistung, die man dem Sampling zuschreibt, in Wirklichkeit als die Wiederherstellung einer zuvor reduzierten Leistung heraus, die nie hätte absinken dürfen.

Damit wurde eine offensichtliche Schwäche bemäntelt. Serviceprovider, die kein Sampling verwenden, schneiden bei der Leistungsbewertung genauso gut ab, wenn nicht sogar noch besser, als solche, die es tun.

Auch führende globale Unternehmen nutzen das Sampling. Wenn wir uns die technischen Aspekte ansehen sowie die phänomenalen Möglichkeiten zur Datenverarbeitung, die diese Unternehmen besitzen, ist die Versuchung groß zu glauben, dass es kleinen Unternehmen noch viel schlechter gehen müsse, wenn schon die großen Probleme haben.

Lassen Sie uns herausfinden, ob es wirklich so ist, indem wir uns ein Beispiel ansehen.

Sampling: für wen und warum?

Ich habe immer gesagt, dass Analysen (egal in welchem Bereich) nicht unabhängig vom Kontext durchgeführt werden können. Um das auf das bestehende Problem zu übertagen schlage ich vor, dass wir uns einem bekannten Konzept zuwenden, mit dem sich alle Betriebsleiter befassen müssen: Die Rendite im Maßstab.
Das Prinzip ist einfach: jede Produktionssteigerung muss auf die Schwellenwerte in der Produktionskapazität abgestimmt sein, die Einfluss auf die Rendite haben.

Nehmen wir zum Beispiel den Autohersteller Nissan. Er fuhr die Produktion im Werk Oppama in Japan von 1,35 auf 1,15 Millionen Autos herunter, um das Werk in Thailand besser auszulasten.

Eine Fabrik, deren Produktionskapazität bei 1,5 Millionen liegt, aber 1 Million produziert, kann einen 50%igen Anstieg in der Nachfrage abdecken, ohne dass dafür große Investitionen notwendig sind. Wenn das Werk aber bereits 1,49 Millionen Fahrzeuge produziert, würde ein Anstieg um lediglich 1% das Unternehmen dazu zwingen eine neue Fabrik zu bauen, was sich wiederum maßgeblich auf die Produktionskosten pro Stück auswirkt.

  • Überkapazitäten: Die Produktion kann ohne große Kosten gesteigert werden à hohe Rendite = beschleunigtes Wachstum.
  • Unterkapazitäten: selbst kleine Steigerungen in der Produktionskapazität verursachen hohe Kosten à schwache oder sogar negative Rendite = verlangsamtes Wachstum.

Immer wenn diese kritische Schwelle erreicht wurde, gibt es verschiedene Möglichkeiten. Firmen können dadurch Geld verlieren, die Nachfrage drücken, die Produktionskosten senken oder die letzten beiden Möglichkeiten verbinden.

Manche Webanalyse-Anbieter werden vor die gleiche Herausforderung gestellt. Der einfache Anstieg von organischem Traffic auf ihrer bestehenden Kundenbasis bedeutet, dass massiv in die Produktion investiert werden muss, um mit dieser Steigerung Schritt zu halten.

Andere planen das Wachstum ihrer Produktionskapazität geschickt im Voraus, so dass Sie immer Kapazitäten in Reserve haben.

Die Fähigkeit eines jeden Unternehmens die Produktionskapazität anzupassen (und damit auch die Qualität und Geschwindigkeit ihrer Services) hat nichts mit dessen Größe zu tun sondern mit dem Verhältnis zwischen den Verarbeitungsmöglichkeiten und dem Trafficvolumen, das verarbeitet werden muss.

Wie gesagt nutzen manche Firmen das Sampling, um die gleiche Performance zu haben wie Ihre Mitbewerber, die keine Kapazitätsprobleme in der Produktion haben und deshalb kein Sampling brauchen, um Geschwindigkeit und Leistung auf einem zufriedenstellenden Level zu halten.

Mehr noch: ein Verantwortlicher, der nicht auf dieses Schwellenwert-Problem stößt, gerät vielleicht in Versuchung das Sampling zu verwenden um die Kosten zu reduzieren, die Leistung zu steigern und um die Services günstiger anbieten zu können. Im Folgenden werden wir aber noch erfahren, wie das Sampling, auch wenn es grundlegende Bedürfnisse von Nutzern erfüllt bei den Anforderungen fortgeschrittener Nutzer nicht so einfach mithalten kann.

Im nächsten Schritt sehen wir uns die Folgen eines solchen Sampling an: Sind Samples wirklich so neutral, wie sie zu sein scheinen? Beeinflusst das Sampling nicht doch die Verlässlichkeit und Relevanz der Ergebnisse?


[sc:social url=“https://blog.atinternet.com/de/index.php/2012/12/07/market-trends/der-mythos-sampling-1/955″]

Author

Nach einem theoretischen und praktischen Management- und Einkaufstraining bei Carrefour sowie einem Verkaufstraining bei Procter & Gamble, entwickelte sich JM im Großhandel weiter. Er war in höchster Managementebene für große Supermarkt-, Großeinkaufs- und Logistik-Gruppen tätig. Unter anderem als Central Director auf dem afrikanischen Kontinent. Ende des Jahres 1995 gründete JM ein Internet-Startup und kam drei Jahre später ins Team von Alain Llorens zu AT Internet. Hier arbeitete er im Verkauf und war eine der treibenden Kräfte bei der Kartierung der noch jungen Web Analytics-Welt. JM ist mit 55 seit 2009 der Knowledge Manager des Unternehmens.

Comments are closed.