Effektiver Umgang mit einem Web-Analytics-System

Die Analyse des Besucherverhaltens auf Websites und bei Online-Kampagnen bietet Unternehmen grosses Optimierungspotential. Die Auswahl, Einrichtung und routinierte Nutzung der Daten ist allerdings gerade für Unternehmen, die kein darauf spezialisiertes Personal haben, eine erhebliche Herausforderung.

Eine detaillierte und effektive Messung und Analyse des Besucher- und Kundenverhaltens rückt auf der ToDo-Liste für Unternehmen in Deutschland zunehmend nach oben. Zu wichtig sind die Steuerung von Online-Werbung, die Investitionen in Websites und Kampagnen, die Optimierung von Kundenbeziehungen im Online-Bereich geworden, als dass wertvolle Daten mit einem unzuverlässigen oder unhandlichen Analyse-Verfahren verschenkt werden könnten. In unserem Artikel vom 17.11. haben wir beschrieben, welchen Nutzen die Datenanalyse haben kann und mit welchen Methoden Optimierung und Steuerung vorangetrieben werden können. Im Folgenden sollen jetzt Schritte auf dem Weg zu einem effektiven System dargestellt werden.

Was wird gebraucht?

Deutlich vor der Sammlung möglicher Lösungen und ihrer Funktionen muss die Frage stehen, was im Unternehmen gebraucht wird. Web Analytics ist kein autonom ablaufender Prozess, sondern gewinnt sein Wert erst durch die Integration der Ergebnisse in die Entscheidungsprozesse des Unternehmens. Die Definition möglicher Kennziffern wie sie in dem bereits genannten Text vorgestellt wurden, geschieht in den Abteilungen, die die Entscheidungen über Kampagnen, Layouts und Produktplatzierungen treffen und die entsprechenden Budgets verantworten. Die Ergebnisse der Analyse stellen keine Erkenntnisse für sich dar, sondern gewinnen diese erst im Bezug auf Wachstumsziele und Wachstumsvariablen im Unternehmen. So wie ein Golfspiel ohne Löcher keinen Spass macht, haben Analysedaten ohne Bezug zu Entwicklungszielen keine Handlungrelevanz. Diese Verknüpfung von Zielen, möglichen Wegen dorthin und der Messung der Effektivität der gewählten Mittel bildet den Kern eines kontinuierlichen Optimierungsprozesses. Die Entscheidung darüber, welche Daten und Kennziffern wichtig sind, kann nicht über den Funktionsumfang dieser oder jener Lösung getroffen werden („Brauchen wir wirklich den CPC-Wert (Cost-Per-Customer)?“ Vielmehr bieten sämtliche ernstzunehmenden Web-Analytics-Systeme neben einer mehr oder weniger automatischen Ermittlung von Basis-Kennzahlen die Möglichkeit des Exportes der Daten und damit der Weiterverarbeitung in unternehmensinternen Datenbanken oder Tabellenkalkulationen. Primär bei der Auswahl einer Lösung ist also nicht die Frage, ob bestimmte Kennziffern, Benchmarks oder Kampagnen-Analysen geliefert werden, sondern auf welche Weise und wie komfortabel die Berechnung und Verteilung (Web-Zugang, eMails, regelmässig aktualisierte Dateien) der Daten im Unternehmen selbst erfolgen soll.

Abhängiger von der Art der Lösung ist die Festlegung und Auswertung von definierten
Zielgruppen. Die Segmentierung der Besucher in Untergruppen ist für aussagekräftige Analysen und präzisere Ansprache wichtig. Je grösser das Traffic-Volumen ist, desto weniger können Mittelwerte über alle Besucher Hinweise auf Interessen oder Problem-Bereiche geben. Die Definition dieser Segmente geschieht im Unternehmen selbst, sie müssen aber durch das Web-Analytics-System realisiert werden. Nur wenige Lösungen bieten wirklich flexible und komfortable Möglichkeiten der Segmentierung oder Filterung. Oft gibt es nur vordefinierte Segmentierungen (z.B. ‚Neu-Besucher vs. Stammbesucher‘), die Zielgruppen müssen schon bei der Installation festgelegt werden oder können nur durch Administratoren geändert werden. Aber hier gilt das gleiche wie auch bei den Möglichkeiten zu Navigations-Analysen, A/B-Tests oder integrierten Funktionen wie eMail-Marketing, PPC-Steuerung u.a.: Bei der Auswahl einer Lösung ist nicht nur an wünschbare Features zu denken, sondern auch, wer im Unternehmen Kompetenz und Zeit hat, die entsprechenden Funktionen zu nutzen, bzw. daran, Kosten für externe Beratung einzuplanen.

Zuverlässige Datengrundlage

Es gab in den letzten Jahren einige Diskussionen, ob server-basierte (Logfiles) oder client-basierte Verfahren (Pixel-Methode) die bessere Methode zur Analyse des Traffics sind. Selbstverständlich gibt es darauf keine allgemeingültige Antwort, sondern hängt jeweils von der konkreten Situation ab. Zentrales Kriterium ist vielmehr die Zuverlässigkeit der Daten. Nur wenige Unternehmen können sich darauf beschränken, alleine Besuche (visits) zu analysieren. Dies würde bedeuten, dass Besucher- und Kundenloyalität keine Rolle spielen, Bestellungen (oder andere Konversionsziele) immer schon beim ersten Besuch erreicht werden sollen, denn bei einem erneuten Besuch erscheint der Zugriff als neuer Besucher (visitor) – eine Analyse von Wiederholungsbesuchen oder Kauf/Besuchszyklen wird unmöglich. Sobald Unternehmen nicht mehr nur Besuche zählen, sondern wissen wollen, wie Besucher sich auf der Website verhalten, kommen sie um den Einsatz von Cookies nicht herum. Bis auf wenige, eher exotische Verfahren zur (Re)-Identifizierung der Besucher, kann nur über Cookies sichergestellt werden, dass Besucher eingermassen sicher wiedererkannt werden. Dies bedeutet, dass für alle Unternehmen, die keinen direkten Zugriff auf die Webserver haben – also ihre Site extern hosten lassen – oder deren Web-Server keine Cookies verarbeiten, client-basierte Verfahren der einzige Weg zu zuverlässigen Daten sind.
Erst für Unternehmen, die ihre Web-Server selbst betreuen, stellt sich also vernünftigerweise die Frage, ob Logfiles mit Cookie-Daten analysiert werden sollen oder ein client-basiertes Verfahren zum Einsatz kommt. Gewöhnlich werden Logfile-Analysen (server-basierte Daten) unternehmens-intern installiert und client-basierte durch externe Dienstleister durchgeführt. Dies ist aber in keiner Weise zwingend. Zwar gibt es eher wenige Anbieter für externe Logfile-Analysen, aber sehr viele client-basierte Systeme können auch inHouse installiert werden.

schematische Struktur client- & serverbasierter Verfahren

Technisch gesehen werden für die Logfile-Analyse nur die automatisch anfallenden Protokoll-Dateien der Webserver genutzt. Protokolliert werden darin alle Abrufe vom Webserver: Bilder, Skripts, html- & pdf-Dateien – schlicht alles. Es ist Aufgabe des Administrators, sinnvolle Filteralgorithmen zu implementieren um nützliche von unnützen Daten zu trennen. Der grosse Nachteil der Logfiles liegt in ihrer Anfälligkeit für Verzerrungen, die durch vorgelagerte Proxies, Caches, dynamische IP-Adressen u.ä. hervorgerufen werden. Aus diesem Grund können Besucher-Analysen mit Logfiles nur mit integrierten Cookie-Daten ernsthaft betrieben werden. Eine Besucher-Erkennung mithilfe von IP-Adressen gleicht eher astrologischer Sternendeutung, denn seriöser Analyse.

Client-basierte Verfahren nutzen eine Kombination aus unsichtbaren 1-Pixel-Bildern und Javascript-Codes um Eigenschaften des Besuchers (d.h. seines Internet Browers) auszulesen. Durch die dynamische Zuteilung der Bilder können Besucher eindeutig identifiziert werden. Die aufgerufenen Javascript-Codes steuern die Cookie-Setzung und lesen die Herkunft des Besuches und weitere Informationen aus. Die Code-Schnipsel (Tags) werden direkt in die html-Dateien integriert, gewöhnlich ist dies auch bei komplexeren, dynamisch generierten Websites kein grosser Aufwand. Auch wenn immer wieder Empfindlichkeiten bezüglich einer Verletzung der Privatsphäre gegenüber sogenannten Page-Tags, Webbugs, Beacons o.ä. geäussert werden, ist das Verfahren für den Besucher in keiner Weise kritisch. Weder geht es um die Auslesung persönlicher Daten, noch um die Platzierung unkontrollierbarer Dateien. So setzt etwa das IVW das Pixel-Verfahren seit 2002 auf mehr als 400 Websites mit fast 20 Millarden Seitenabrufen pro Monat in Deutschland ein, um die Reichweite der werbetragenden Online-Medien zu messen. Erst durch die Einführung dieses Verfahrens ist eine realistische Messung des Besucheraufkommens möglich geworden. Auch aus datenschutzrechtlicher Sicht ist die Speicherung von Logfiles inklusive der IP-Adressen weitaus bedenklicher als die Nutzung anonymer Cookies und Page-Tags.

Vor- und Nachteile client- und server-basierter Web Analytics

Um die Nachteile beider Lösungen zu vermeiden, bietet es sich an, sogenannte Hybrid-Lösungen zu nutzen, die beide Datenquellen integriert verarbeiten können. Die Kosten für diese Systeme sind allerdings nicht gering. Alternativ können die Protokolldateien für eventuellen späteren Bedarf vorgehalten werden, auch dies erfordert allerdings in jedem Fall eine Filterung und Komprimierung der leicht gigabyte-grossen Datenmengen.

Zugang zu den Analyse-Ergebnissen

Wer auch immer im Unternehmen für die Analyse der Traffic-Daten hauptsächlich verantwortlich ist, muss zudem dafür sorgen, dass de Ergebnisse dort zur Hand sind, wo Entscheidungen bewertet und vorbereitet werden. Am einfachsten geht dies mit browser-basierten Systemen, die von jedem Arbeitsplatz mit Netzwerkanschluss zugänglich sind. Die Einrichtung von definierten Nutzerrechten und -bereichen erleichtert die Arbeit für Administratoren und bietet den Nutzern einen auf ihre Bedürfnisse zugeschnittenen Arbeitsbereich. Sinnvoll kann die Einrichtung von eMail-Routinen ein, die regelmässig neue Ergebnisse in komprimierter Form bieten, so dass ein schneller Überblick zur Performance von Website und Kampagnen erleichtert wird. Viele Lösungen bieten einfache Einrichtungen von solchen eMail-Reports, darüberhinaus stehen in hochwertigen Systemen vielfältige Export-Möglichkeiten (pdf, xls, doc, ppt, csv) zur Verfügung. Um Daten in Tabellenkalkulationen weiter zu verarbeiten, ist der Export wenigstens im csv-Format Voraussetzung. Neben jenen Mitarbeitern, die aktiv auf die Daten zugreifen und mit ihnen umgehen, ist die Verteilung und Präsentation der Daten auch in höheren Management-Ebenen wichtig. Es hängt stark von den individuellen Fähigkeiten und der Kompetenz des Web-Analytics-Experten im Unternehmen ab, wie verständlich in Bedeutung und Datengrundlage die Ergebnisse präsentiert werden, um Web Analytics als Teil der Entscheidungsstruktur in der Organisation zu etablieren.

Auswahl einer Lösung

Der Markt für Web-Analytics-Löungen ist unübersichtlich. Wir haben für den von uns erstellten „Einkaufsführer Web Analytics“ 74 Lösungen in ihren Funktionen und Merkmalen erfasst – in einem normalen Auswahlverfahren wäre dies kaum zu schaffen. Die Möglichkeiten der verschiedenen Tools sind zudem nicht leicht überschaubar. Unternehmen, die eine lange und detaillierte Anforderungliste erstellt haben, werden schnell feststellen, dass eine genauere Bewertung einzelner Lösungen erst in persönlichen Gesprächen und Präsentationen mit Kundenberatern möglich ist. Dies rückt den Zeitfaktor entscheidend nach vorne. Aber auch in den Gesprächen muss Rücksicht auf unterschiedliche Terminologien und Begriffsdefinitionen genommen werden und detaillierte Klärungen technischer Strukturen und Abläufe werden kaum erreicht. Darum ist es wichtig, mögichst viele Fragen im Vorfeld mit den Support-Mitarbeitern der Anbieter zu klären und vor allem Lösungen zu testen: Der Umgang mit Test-Zugängen und -Implementationen – am besten in einem kleinen Bereich der eigenen Website – zeigt sehr schnell die Grenzen und Möglichkeiten von Web-Analytics-Systemen in der Praxis. Oft stellen sich befürchtete kritische Stellen als nebensächlich heraus, während zunächst eindrucksvolle Features ihre Grenzen offenbaren.

Der finanzielle Aufwand für die auf dem Markt befindlichen Lösungen variiert grossartig. Von den bereits erwähnten kostenlosen Systemen (neuerdings auch das sehr attraktive Angebot von Google) bis zu sechs- und siebenstelligen Jahresetats. Das Budget richtet sich sinnvollerweise nach dem Online-Umsatz der Website, bzw. der Bedeutung online generierter Kundenkontakte. Besonders in der ersten Phase können Unternehmen mit erheblichen Steigerungen ihrer Konversionsraten rechnen, aber auch im laufenden Betrieb bieten optimierte Kampagnenausgaben und Site-Verbesserungen deutliche Umsatzzuwächse bzw. Einsparpotentiale. Generell ist für kleine bis mittlere Unternehmen von inHouse-Lösungen, insbesondere Logfile-Analysen abzuraten, weil die Aufwände für Hardware und Administration sehr hoch sein können. Da IT-Administratoren gewöhnlich nicht unter Langeweile leiden, bleiben interne Lösungen oft unzureichend eingerichtet und gepflegt, so dass auch scheinbar geringe Investitionen am Ende umsonst waren.

Support & Training

Das KnowHow für Web Analytics wächst nicht auf Bäumen. Neben primär technischem Wissen für die Einrichtung des Systems müssen Mitarbeiter im Umgang mit den Daten geschult werden. Grundlagen, Umgangsweisen und Potentiale der Systeme erschliessen sich erst durch allgemeine und produktspezifische Trainings. Zunächst ist es sinnvoll, mindestens einen Ansprechpartner für Web Analytics (mit Schwerpunkt Marketing, nicht IT) im Unternehmen zu schulen, der für weitere Mitarbeiter als Anlaufstelle dienen kann. Für einen regelmässigen, komfortablen und effektiven Umgang müssen mindestens alle jene geschult werden, deren Entscheidungen durch die Analysen unmittelbar berührt werden. Es wird sich im Unternehmen immer eine Aufgabenteilung zwischen den Nutzern regelmässiger Reports einerseits und der Bearbeitung weitergehender Fragestellungen andererseits ergeben. Die Interpretation von Navigations-Analysen, Durchführung von Besucher-Segmentationen und vor allem die Zusammenarbeit mit Web-Designern und Technikern zur Umsetzung der Ergebnisse und Weiterentwicklung der Website erfordert spezielles KnowHow und Ressourcen um den Prozess der Optimierung vorantreiben zu können. Neben inhaltlichen Fragestellungen müssen zudem immer wieder technische Themen geklärt werden. Eine detaillierte Klärung der Qualität und Geschwindigkeit des Supports des Anbieters sollte darum bei der Auswahl einer Lösung zudem ein wichtiger Punkt sein.

Die Auswahl eines Web-Analytics-Systeme kann erheblich Zeit und Aufwand im Unternehmen beanspruchen. Gerade bei der Nutzung von cient-basierten ASP-Lösungen ist aber zu bedenken, dass eine Wechsel des Systems fast immer zu einem Verlust der bereits gesammelten Daten führt. Betrachtet man dies im Vergleich zu Update-Zyklen unternehmensinterner Software, so sollte die Entscheidung für ein System mindestens zwei Jahre stehen, bis ein Wechsel nicht eher Verwirrung als Nutzen erbringt.

Dieser Artikel erschien am und wurde am aktualisiert.
Nach oben scrollen