Dienstag, 1. Juni 2010

WAALA in München

Zum zweiten Mal hat gestern Thomas Schmidt die Webanalytics-Branche nach München zu einem kleinen Branchentreffen eingeladen. Wir haben uns mit ca. 20 Leuten in zwangloser Atmosphäre im Restaurant Ludwigs getroffen.

Zum Beginn des Abends sprach Veith Schörgenhummer (K60 Analytics) über Web-Analyse 2010 im Mittelstand. Mittelstand meint hier nicht so sehr eine bestimmte Unternehmensgröße als vielmehr eine Firmenkultur. Für die Webanalyse heißt das, dass alle Daten und Entscheidungen über den Schreibtisch des Chefs gehen und dass oft (1/3 der betrachteten Unternehmen) kein spezieller Ansprechpartner für Webanalyse existiert. Oft gibt es auch gar kein Bewusstsein dafür, was Webanalyse außer "interessanten Erkenntnissen" an Vorteilen bringt.

Das führt zu vier wichtigen Aktionspunkten:
  • Relevanz: Was ist die "Währung", also was will das Unternehmen durch einen Internetauftritt erreichen und wie kann man den Erfolg quantifizieren?
  • Wissen: Ausbildung für den Kunden anbieten
  • Prozess-Implementierung: Begleitung des Kunden bei der Einführung
  • Interne Akzeptanz: internes Marketing im Unternehmen
Gerade beim letzten Punkt kommt es besonders auf die "Verpackung" an, also auf Visualisierungsformen, die die Aufmerksamkeit direkt auf die Kernbotschaft lenken. Referenzvergleiche, Trendreports und Ampelkodierungen sind gute Beispiele hierfür.

Im Grunde gelten alle diese Fragestellungen auch für Großkunden. Mein Eindruck war aber, dass es bei der Zielgruppe KMU besonders darauf ankommt, alle genannten Leistungen aus einer Hand anbieten zu können.

Der zweite Vortrag des Abends kam von der Toolanbieterseite. Adrien Günther von AT Internet sprach über SEO mit Hilfe von Web Analytics. Er begann mit der Feststellung, dass SEO-Analyse auf Google fokussiert werden kann, da je nach Quelle um oder über 90 Prozent des organischen Suchverkehrs von Google herkommen. Wichtige Erkenntnisse waren auch:
  • Mehr ist nicht immer gleich besser - der generierte Traffic muss klassifiziert und qualifiziert werden.
  • Für genaue Messungen kann man JS-Eventhandler einsetzen (OnClick). (Bemerkung des Schreiberlings: das tun mittlerweile auch einige freie Tools, der besondere Charme liegt auch darin, dass man ausgehende Links auch verfolgen kann ...)
  • Man darf nicht auf Visit-Basis zählen. Eigentlich auch ganz klar: ein Besucher kann mehrfach mit unterschiedlichen Suchbegriffen auf meine Website gekommen sein - solange die Besuche innerhalb des Visit-Timeouts erfolgen, zählt das Analysetool nur einen Visit. Wer sich auf den Visit-Referrer beschränkt, verliert also wertvolle Informationen.
Der letzte Punkt leitet über zu der allgemeineren Erkenntnis, dass man (Konversions-)Prozesse im Web nicht, wie es oft vereinfachend geschieht, als Funnel (Trichter) modellieren sollte, sondern dass ein verzweigtes Flussdiagramm die Realität besser abbildet.

Interessant war noch der Ansatz von AT Internet, einen "Verhaltensquotienten" zu bilden, der mehrere Indikatoren, die den "Wert" eines Besuchers bestimmen, zu einer aggregierten Kennzahl zusammenfasst. Obwohl hier sicher viele Vorannahmen einfließen und die harte Relevanz einer solchen Zahl im Einzelfall schwierig zu belegen sein dürfte, könnte sie die Einstiegshürde senken für solche Kunden, die noch weniger Webanalytics-savvy sind.

Vielen Dank an Thomas und ich freue mich auf das nächste Event in dieser Reihe.

Mittwoch, 28. April 2010

Piwik und QlikView

Mein neues Freizeitprojekt ist eine Adhoc-Webanalyseanwendung auf der Basis von QlikView. Piwik wird dazu die Daten liefern.

Über ein HTTP-API lassen sich Daten aller Reports aus einem Piwik-System extrahieren. Die Daten werden dabei in verschiedenen Formaten geliefert, ein einfacher CSV-Export scheint mir zunächst die besten Resultate zu versprechen. QlikView unterstützt zwar auch HTML und XML als Eingabeformate, der Overhead bei der Übertragung wird jedoch deutlich größer.

Eine automatische Aktualisierung der Applikation wird dadurch möglich, dass Piwik eine Authentifizierung mittels Hash-Token unterstützt.

Wünschenswert wäre ein Durchgriff auf Detaildaten. Wenn man die Reports erst auf dem QlikView-Client rechnet, wird die Flexibilität nämlich noch größer. Man könnte sich dann von den festgelegten Zeitgranularitäten (Tag, Woche, Monat, Jahr) verabschieden und z. B. Unique Visitors über einen beliebig festzulegenden Zeitraum messen, wie etwa die Laufzeit einer Kampagne. Das ist meines Erachtens der entscheidende Vorteil, den der Einsatz eines In-Memory-Analysetools in diesem Umfeld bringt.

Der grundlegende Mechanismus einer solchen Integration ist auch auf andere Webanalyse-Tools übertragbar, soweit sie per API abfragbar sind. Das eröffnet viele mögliche Anwendungsfälle.

Sonntag, 25. April 2010

IE 8: Webtracking in Zukunft unmöglich?

Wie ich da so gestern mit meiner Piwik-Installation herumspielte und -testete, bat ich auch eine Freundin, für mich Site-Traffic zu erzeugen. Sie nutzt Internet Explorer 8 auf Windows 7. Zu meinem Schrecken konnte ich aber ihre Zugriffe weder in Piwik noch auch im parallel laufenden Google Analytics sehen.

Die Erklärung fand ich anschließend hier. Microsoft hat im IE 8 eine einfache, aber schlaue Heuristik eingeführt, um Tracking-Skripte auszuhebeln: Wenn der Browser entdeckt, dass mehr als 10 Websites auf dieselbe Offsite-Skriptressource zugreifen, stuft er sie als Trackingcode ein und blockiert sie. So zumindest sagt es der zitierte Artikel. Ich vermute, dass die Kriterien sogar noch schärfer sein müssen. Denn mein Piwik-Trackingcode wird nur von meinen eigenen Domains genutzt, und das sind nicht mehr als drei. Wahrscheinlich reichen also schon 10 unterschiedliche URLs, um den Tracking-Alarm auszulösen.

Es scheint, dass es bis jetzt keinen Workaround gibt. Natürlich gibt es andere Trackingverfahren, die aber allesamt näher am Server ansetzen. Aber das Javascript-basierte Tracking hatte sich in den letzten Jahren, auch wegen der Einfachheit und Flexibilität der Implementation, im Online-Marketing-Bereich als Standard durchgesetzt. Mehr oder weniger große Unschärfen gab es dabei immer. Zum Beispiel konnte allein die Ladereihenfolge oder die Stelle, an der das Script-Tag in den Seitencode eingebunden wird, die Messergebniss massiv beeinflussen. Auch gibt es schon längst Tracking-Blocker für Browserplugins wie Adblock Plus für Firefox, die aber explizit installiert und aktiviert werden müssen. Während man sich aber selbst eine dreißigprozentige Abweichung damit schönreden kann, dass ja immerhin der Trend stimmt, führt der neue IE-Default dazu, dass gar nichts mehr gemessen werden kann.

Mit einem Auge freue ich mich natürlich auch darüber. Es war schon lange Zeit, den Usern mehr Privacy zurückzugeben. Dass ausgerechnet Microsoft hier vorwärts geht, verdient ein dickes Lob.

Andererseits ist Tracking für die Onlinebranche heutzutage unverzichtbar. Ich bin gespannt, wie lange es dauern wird, bis es einen Workaround für die Trackingblockade im Internet Explorer 8 gibt.

Samstag, 24. April 2010

Piwik

Diesen Blog analysiere ich jetzt auch mit Piwik. Bin überrascht, wie schnell und leicht die Installation von der Hand ging.

Das Tool ist Freeware und aufgrund seiner Architektur eine echte (bessere?) Alternative zur Nutzung von Google Analytics. Der große Vorteil ist, dass ich bei der Nutzeung von Piwik keine Daten aus der Hand gebe. Sie liegen auf meinem eigenen Server. Da alle Detaildaten archiviert werden, lässt sich der Reportumfang im Nachhinein erweitern. Das wird durch die offene, plugin-basierte Architektur erleichtert.

Strukturelle Nachteile sehe ich eigentlich nur zwei:
  • Die Software setzt auf MySQL auf. Bei high-traffic-Websites dürfte man hier schnell an Performance-Grenzen stoßen.
  • Die Implementationssprache ist PHP, eine meiner Meinung nach "unordentliche" Sprache. Aber das mag mancher auch als Vorteil betrachten.
Ich denke, dass es ein Leichtes sein sollte, auch eine e-commerce-Analyseumgebung auf der Basis von Piwik aufzusetzen. Die Software erlaubt eine größere Flexibilität als so manches kommerzielle Tool, und diejenigen Tools, die mit ihrer Baukastenstruktur werben, können sich von der Produktreife dieses freien Tools hier und da vielleicht noch eine Scheibe abschneiden.

Samstag, 17. April 2010

Pentaho goes SAP

Leicht off-topic, aber doch noch in das Gesamtthema passend:

Der Trend zur Open-Source-BI verstärkt sich. Das Linux-Magazin schreibt, dass ein Wiener Unternehmen einen SAP-Konnektor für die Open-Source-Suite Pentaho anbieten wird. Damit wird diese Art von Software wieder ein Stück attraktiver für Projekte, die eine Integration von Daten aus verschiedenen Quellen erfordern. Pentaho zieht damit auf einer weiteren Ebene mit den kommerziellen Tools gleich.

Meines Erachtens zeigt sich hier auch der Grad der Reife eines Marktes. Wie zuvor bei den Datenbanken, kommt auch BI immer mehr in den Zustand einer Commodity-Technologie, bei der man nicht mehr an Lizenzen verdient, sondern eben am Know-How, wie die Technologie auf die Datenlandschaft des jeweiligen Kunden angewandt werden kann. Silo-Modelle, seien sie physisch oder politisch motiviert, sind nicht mehr zukunftsfähig.

Donnerstag, 25. März 2010

Segmentierung in der Webanalyse

Mit dem Thema Segmentierung habe ich mich schon in meinen früheren Tätigkeiten intensiv beschäftigt. Wenn ich einige Jahre zurückdenke, dann war Segmentierung auf Online-Daten kaum machbar, zum einen wegen der im Vergleich zu heute langsamen Hardware, zum anderen weil die frühen Systeme entweder auf Flatfiles oder auf relationalen Datenbanken aufsetzten.

Mittlerweile ist sogenannte erweiterte Segmentierung schon in Google Analytics verfügbar. Ein weiterer Hinweis darauf, wie sich die Basis-Webanalyse in Richtung Commodity-Technologie entwickelt. Eine ähnliche Entwicklung gab es vor einigen Jahren im Bereich Datenbanken und vor kurzem (noch im Gange) bei den Business-Intelligence-Werkzeugen. Technologie, die zunächst teuer und nur von Experten beherrschbar war, wird billig oder sogar kostenlos - und reift gleichzeitig so aus, dass ein großer Nutzerkreis mit ihr umgehen kann.

Für die klassischen Anbieter heißt das eine Verlagerung hin auf branchen- oder anwendungsspezifische Lösungen, aber auch eine Fokussierung hin zu solchen Themen wie Drittdaten-Integration. Hier gibt es nämlich einige Herausforderungen, die von den klassischen ASPs nur schwer adressiert werden können.

Mittwoch, 24. März 2010

Ein paar Gedanken zur eMetrics

Auf der eMetrics in München sind die meisten der üblichen Verdächtigen aus der Web-Analytics-Branche vertreten. Besonders fällt die Präsenz von Google auf: Ein ganzer Seminarraum ist als Google Clinic hergerichtet, wirkt aber mit freundlichen bunten Kissenmöbeln eher wie ein Spielzimmer. Ja, und dann hatte ich noch ein paar nette Gespräche unter anderem mit den Kollegen von Webtrekk, etracker und econda.

Was fällt mir an Tendenzen auf? Zwei Dinge sind bedeutend: Datenintegration (BI) und Datenschutz. Das letztere auch gerade vor dem Hintergrund der Google-Analytics-Debatte. Man macht sich Gedanken über Fragen wie Speicherung von IP-Adressen oder Flash-Cookies. Diese werden ja von Online-Analysten gern genutzt, weil sie von heutigen Browsern nicht so transparent verwaltet werden wie klassische HTTP-Cookies, oder salopp gesagt, ist es leichter, dem Besucher ein Flash-Cookie unterzuschieben, das er dann im Gegenzug schwerer wieder los wird. Nichtsdestotrotz spiegelt die Flash-Cookie-Debatte die Cookie-Debatte, die in den frühen 2000er Jahren hochkochte. Ich erinnere mich noch gut an die alten Browser, in denen man entweder alle Cookies annehmen oder sie einzeln bestätigen musste - und diese letzte Lösung erwies sich schon bald als nicht praktikabel. So ähnlich wird es wohl auch jetzt wieder laufen. Es wird Werkzeuge geben, um die Flash-Cookies in den Griff zu bekommen.

Wichtig ist noch, dass im deutschen Raum mehr und mehr Anbieter darauf setzen, sich ihre Datenschutzkonformität durch ein TÜV-Zertifikat bestätigen zu lassen.

Was noch? Die Anbieter beginnen, sich mit dem Thema Multichannel-Analyse "out of the box" zu befassen. So dass man die (auch gewichtete) Zuteilung von Werbeprovisionen im Webanalysetool vornimmt, das ja gegenüber den von Eigeninteresse getriebenen Online-Marketing-Dienstleistern eine neutrale Instanz verkörpert. Da wird sich wohl auch in der nächsten Zeit einiges tun.

Freitag, 5. Februar 2010

Web Analytics und Business Intelligence

So, mal wieder herumgeschaut. Was brauchen wir in der nahen Zukunft?

Mein Grundgedanke ist ja, dass die Welten von Web Analytics und Business Intelligence immer näher zusammen rücken. Durch leistungsfähige Rechnersysteme und billiges RAM wird es möglich, die erprobten Methoden der Business Intelligence auch auf die Datenmassen anzuwenden, die im Online-Geschäft anfallen.

Die WA-Hersteller reagieren auf diesen Trend, indem sie Features zum Standard machen, die noch vor wenigen Jahren kaum denkbar waren, wie zum Beispiel:
  • adhoc-Segmentierung anhand frei definierbarer Segmente
  • selbst definierte Kennzahlen anhand eines Formeleditors
  • orthogonale Filterung (jedes Element mit jedem anderen)
Was wird als nächstes auf uns zukommen? Ich denke, ein großes Thema ist Datenmodellierung und Datenqualität.

Ich habe dieses Blog unter das Motto der Multichannel-Analyse gestellt. Hier klingt schon die Herausforderung an, Daten aus verschiedenen Quellen auf einen gemeinsamen Standard zu bringen. Man wird aber noch von einer recht hohen Integrität der einzelnen Datensätze ausgehen können. Ein Problem ist eher die Vollständigkeit der erhobenen Datensätzen, z. B. beim Javascript-("Pixel-")Tracking.

Anders sieht es aus, wenn man Legacy-Systeme aus Controlling, Warenwirtschaft oder CRM anbindet. Das wird aber in Zukunft immer interessanter. Man möchte die Webdaten gerne mit Umsatz-, Kosten- und Zielwerten anreichern. Oder man möchte im B2C-Bereich Daten aus Kundenbindungssystemen (Kundenkarte) einfließen lassen. Diese Daten sind oft in sich schon "schmutzig", zum Beispiel weil in alten Datensätzen eine unzureichende Plausibilitätskontrolle implementiert gewesen ist. Oder das Matching mit den Online-Daten gestaltet sich schwierig. Dann muss eine Heuristik gefunden werden, die mit möglichst geringer Fehlerquote ein hochwertiges Ergebnis liefert. Dabei soll der Import der Legacy-Daten auch noch möglichst automatisch und störungsfrei ablaufen.

Dies sind Fragestellungen, die für jeden Einzelfall erneut analysiert werden müssen. Ich denke, dass es in der Zukunft einiges zu tun gibt für Experten, die sich in den Bereichen Web Analytics und Business Intelligence gleichermaßen auskennen.

Donnerstag, 4. Februar 2010

Web Analytics Wednesday in München

Gestern hatte die Web Analytics Association wieder einmal zum zwanglosen Branchentreffen geladen. Es fand diesmal in den Räumen der Firma namics in München statt.

Thomas Schmidt von Swiss Life referierte zunächst über die Ziele und Schwerpunkte seiner Tätigkeit, bei der es um den deutschen Internetauftritt von Swiss Life geht.

Anschließend hielt Frederika Bussmann von namics einen Vortrag über den letztes Jahr durchgeführten Relaunch von bahn.de - das Thema löste interessante Diskussionen aus, weil viele Teilnehmer schon selbst Erfahrungen mit der Bahn-Website gemacht haben. Der Schwerpunkt lag hier auf Usability und wie man sie im Projekt ständig überprüft. Hierzu dienen Expertengespräche, Userbefragungen und vor allem der Einsatz von Personas, die im Vergleich zu den früher üblichen Zielgruppen ein menschlicheres Gesicht haben. Die Persona vereinigt Funktion und Zielsetzungen, sie kann mehrere Ziele mit unterschiedlichem Gewicht verfolgen. Im ganzen ein ähnliches Modell wie die User Stories in der Agilen Entwicklung.

Es wird wohl demnächst wieder ein WAA-Treffen in München geben. Ich freue mich drauf.