Dienstag, 15. Dezember 2009

Rapid Warehousing als grundstürzender Entwicklungsschritt

Habe dieser Tage einen interessanten Blogeintrag von Ronald Damhof gelesen. Das Fazit ist: Durch die Verfügbarkeit von In-Memory-Technologien wird es möglich, Datenanalyse direkt auf OLTP-Systemen aufzusetzen. Dabei werden die transaktionalen Daten direkt in spaltenbasierten Datenbanken abgelegt. Kurz gesagt: die Welten von OLTP und OLAP wachsen zusammen.

Meines Erachtens zeichnet sich hier ein Trend ab, in dessen Kontext ich noch einmal darüber nachdenken möchte, wie im Online-Business eine Erfolgsanalyse implementiert werden kann, die einen schnellen und bezahlbaren Projekterfolg ermöglicht.

Wichtig ist, dass verschiedenste Datenquellen ohne oder mit minimaler Aufbereitung zusammengeführt werden. Dabei helfen moderne In-Memory-Analysetools sowie ein Ansatz, der nicht direkt ein perfektes Ergebnis erzeugen möchte, sondern sich in kleinschrittigen Iterationen auf eine immer bessere Lösung hin bewegt.

Ronald Damhof zitiert ein Paper von Hasso Plattner; wenn SAP einen solchen Trend propagiert, darf man sich wohl darauf einstellen, dass er in naher Zukunft weiter wachsen wird.

Sonntag, 1. November 2009

Conversion-Analyse und Agile Warehousing

Im allerersten Beitrag habe ich einige der Fragestellungen angesprochen, die einen Performance-Marketing-Analysten heute interessieren. Die Komplexität dieser Anforderungen bringt es mit sich, dass ein einfaches, tabellen-basiertes Reportingsystem nicht mehr ausreicht. Antworten ziehen unweigerlich Folgefragen nach sich, die nur durch Rückgriff auf die aufbereiteten Detaildaten beantwortet werden können.

Was sind aufbereitetete Detaildaten? Das heißt, dass jedes einzelne Trackingereignis noch aufrufbar sein soll, man möchte also möglichst nicht aggregieren. Jedoch sollen die Daten bereinigt und auf einen gemeinsamen Nenner gebracht worden sein. Allein schon dieser Schritt kann aufwendig umzusetzen sein, gerade wenn man Daten aus verschiedenen Quellen zusammenführt. Dies ist aber im Onlinemarketing regelmäßig der Fall. Hinzu kommt, dass die Datenlandschaft vergleichsweise schnell evolviert. Ein Vermarktungspartner ändert seine Datenmodellierung, oder es kommt ein ganz neuer Partner hinzu.

Gefragt ist also die Mächtigkeit einer Data-Warehouse-Architektur und die Flexibilität, schnell Änderungen an der Datenmodellierung selbst vorzunehmen. Außerdem entstehen ganz eigene Anforderungen an die Visualisierung der Ergebnisse. (Dieses Thema ist aber schon an sich so komplex, dass ich es demnächst in einem eigenen Beitrag behandeln möchte.) Wie bekommt man diese Anforderungen unter einen Hut?

Exkurs in die Geschichte
Erinnern wir uns an die Phase Ende der Neunziger. Man war damals darauf gekommen, dass man Unternehmensdaten gut in verallgemeinerten, mehrdimensionalen "Würfeln" darstellen kann. Ein Bericht über einen bestimmten Zeitraum oder Geschäftsbereich ist dann gleichsam eine Schnittebene durch den Würfel. Die damalige Hardware war jedoch nicht leistungsfähig genug, um solch einen Würfel in seiner Gesamtheit zu erfassen und zu analysieren.

Eine mögliche Lösung bestand darin, mit verkleinerten Teilwürfeln zu arbeiten, die entweder den Analysebereich (quantitativ) oder die Analysemöglichkeiten (qualitativ) einschränkten. Das führte zu überaus komplexen Modellierungsvorgängen, um alle Anforderungen abzubilden.

Pioniere wie Ralph Kimball entwarfen multidimensionale Datenmodelle auf der Basis relationaler Datenbanksysteme, die diese Schwierigkeit umgehen sollten. Dieser Ansatz führt jedoch bei großen Datenmengen zu vergleichsweise langen Antwortzeiten.

Beiden Ansätzen ist gemeinsam, dass die Projekte zur Umsetzung der Anforderungen oft teuer und langwierig waren. Und während das Geschäftsmodell eines, sagen wir, Kaufhauses sich über die Zeit hinweg nur wenig ändert, ist die Online-Branche schnelllebiger.

Was tun?
Was gebraucht wird, ist also ein zügiges Deployment und schnelle Reaktion auf neue Anforderungen sowie Tools und Architekturen, die dies gestatten.

Moderne In-Memory-Analysetools wie QlikView oder Panoratio ermöglichen es, große Datenbestände in detaillierter Form im RAM eines entsprechend dimensionierten Servers vorzuhalten. Diese Werkzeuge bringen Möglichkeiten zur Datenmodellierung und zum Data Cleansing mit sich, die auch von einem versierten Fachanwender eingesetzt werden können.

Die Projektplanung muss sich von der Idee monolithischer Projekte verabschieden, deren Umfang und Ziele von Anfang an festgelegt werden. An deren Stelle tritt eine Projektmethode, die seit einigen Jahren als Agile Programming in der klassischen Anwendungsentwicklung große Erfolge gezeigt hat. Dabei werden in kurzen Zyklen die Anforderungen jeweils neu festgelegt. Als Basis dienen dabei sogenannte User Stories, die direkt im Gespräch mit Fachanwendern erfragt werden. Solch eine User Story ist immer auf die Rolle des Fragenden bezogen und umreißt neben dem gewünschten Ergebnis auch den Nutzen, den dieses Ergebnisses für den Fragenden haben soll.

Freitag, 30. Oktober 2009

Nachlese: WAALA in Frankfurt

Ralf Haberich von Nedstat lud am vergangenen Mittwoch zum Web Analytics Association Late Afternoon nach Frankfurt am Main ein, einer Tagung in überschaubarem Kreis unter der Ägide der WAA. Die ca. 12 Teilnehmer kamen teils aus dem Agentur- und Anbieterumfeld, teils handelte es sich um Fachanwender von Web Analytics und Onlinemarketing.

Bid Management
Jens Maurer von DC Storm hielt einen kurzen Vortrag zum Thema Bid Management. Er stellte kurz verschiedene Ansätze der Pay-per-Click-Optimierung vor.

Zunächst stellte er das positionsbasierte Vorgehen vor, das eine definierte Position für bestimmte Keywords im Suchmaschinenlisting anstrebt. Das Verfahren ist auch für den Fachanwender überschaubar; Nachteil ist ein fehlender Gesamtüberblick sowie die Gefahr von Bieterschlachten um begehrte Keywords, die die Preise pro Click künstlich verteuern.

Diesem Ansatz steht der portfoliobasierte Ansatz gegenüber, der eine globale Konversionsoptimierung zu erreichen versucht. Dabei entsteht jedoch eine "Black Box", deren Funktionsweise für den Endnutzer nicht mehr transparent ist.

Als Alternative schlägt Jens Maurer einen regelbasierten Ansatz vor, der mittels einfach nachvollziehbarer Bausteine eine Konversionsoptimierung erreicht. Der zusätzliche Charme dieses Verfahrens liegt darin, dass es nicht auf die Trackingdaten der Suchmaschinen und Onsite-Tracker beschränkt ist, sondern die Hinzunahme weiterer Datenquellen erlaubt. Damit ist als zukünftige Option auch die Integration von Daten über Offline-Marketingmaßnahmen oder externe Ereignisse (bis hin zum Wetterbericht) denkbar.

Ursprünglich war noch ein Beitrag von Frank Reese zum Thema Mobile Analytics geplant, der jedoch wegen Erkrankung des Referenten ausfallen musste.

Video Analytics
Zum Schluss sprach Ralf Haberich über das Thema Video Analytics. Er wies eingangs darauf hin, dass die Online-Videonutzungsdauer pro Person in Deutschland noch erheblich geringer als die TV-Nutzungsdauer ist, aber mit steigender Tendenz. Hinzu kommt, dass mit videobasierten Werbeformen um eine Größenordnung höhere Konversionsraten erzielt werden als mit anderen Formen der Onlinewerbung.

Dabei werden heute vor allem Pre-Roll- und Mid-Roll-Clips eingesetzt. (Die Post-Roll-Positionierung ist aus naheliegenden Gründen unattraktiv.) Diese Clips werden von den Endnutzern weitgehend akzeptiert, jedoch möchten diese selbst entscheiden, ob und wann sie ein Werbevideo betrachten. Das haben Befragungen ergeben. Man kann diesem Ziel durch Einbinden der Werbung mittels XML-Tags näher kommen.

Im modernsten Fall nutzt man hierzu aber sogenannte Surface-Tags. Dies sind sensitive Flächen im Hauptvideo, die schon beim Mouse-Over eine Interaktion auslösen. Damit kann der Endnutzer z. B. mit der Maus über ein Kleidungsstück im Video fahren und in einem anderen Fensterbereich wird ein Warenkorb eingeblendet, in den er den Artikel legen und gleich online bestellen kann. Das Hauptvideo erhält so eine interaktive Komponente, die im Gegensatz zu klassischen Werbeeinblendungen
  • dem Endnutzer die Kontrolle zurückgibt
  • und durch die spielerische Erfahrbarkeit nicht als Belästigung, sondern sogar als Zusatznutzen begriffen wird.
In der anschließenden Diskussion wurden die Themen vertieft.

Eine kleine feine Veranstaltung, deren Besuch sich - finde ich - gelohnt hat. Vielen Dank an Ralf Haberich für die Ausrichtung des Events!

Donnerstag, 29. Oktober 2009

Anfang

In diesem Blog möchte ich mich mit allen fachlichen Fragen rund um Multichannel-Analysen im Performance Marketing beschäftigen. Insbesondere geht es mir um die folgenden Themenkomplexe:

Postclick/Postview Tracking
Wie bewerte ich den Einfluss von Vorkontakten auf einen Abschluss? Ist es sinnvoll, auch einen bloßen Werbemittelkontakt als Konversionsfaktor zu werten?

Attribution Analysis
Wie tragen einzelne Kanäle zum Konversionsergebnis bei? Wie ist auch die Gewichtung von Vorkontakten in der Besucherhistorie vorzunehmen?

Externe Daten und Konversionsfaktoren
Wie kann ich den Einfluss von Offline-Kampagnen, aber auch andere Faktoren in mein Trackingmodell einbeziehen - wie auch saisonale Faktoren oder besondere Ereignisse? Wie sind Trackingdaten mit Ziel- und Kostendaten zu verzahnen?

Zeitanalysen
In welchem Zeitraum vor einer Konversion geschehen üblicherweise die relevanten Vorkontakte? Hier lassen sich mit Gewinn Verfahren und Algorithmen einsetzen, die ursprünglich für die Qualitäts- und Kostenoptimierung im Gesundheitswesen entwickelt wurden.

Darüber hinaus werde ich in lockerer Folge von Veranstaltungen und interessanten Entwicklungen in der Branche berichten.