Marketing Analytics – Daten analysieren, Kunden gewinnen

0
07.01.2016ǀ ǀ Big Data
Abbildung 1: Marketing-Dashboard (Quelle: Webdetails)

Abbildung 1: Marketing-Dashboard (Quelle: Webdetails)

Daten sind das neue Öl: sie helfen Unternehmen, im Markt erfolgreich zu sein. Business Intelligence-Systeme unterstützen das Marketing dabei, Kunden- oder Verkaufsdaten in wertvolle Informationen zu verwandeln. Hinter dem Begriff Big Data verbirgt sich vor dem Hintergrund des starken Anwachsens der Datenberge eine völlig neue Dimension dieser Datenanalysen. Dieser Artikel gibt eine Einführung in die Grundlagen bei der Einführung von Datenanalysen im Marketing und zeigt anhand eines Beispiels den Aufbau von Marketing Analytics-Lösungen.

Weg mit dem Bauchgefühl, her mit datenbasierten Entscheidungen!
Die Zeiten, in denen Manager sich rein auf ihr Bauchgefühl verlassen konnten, sind schon lange vorbei. Zwar spielen auch heute selbstverständlich Instinkt, Erfahrung und die menschliche Bewertung von Situationen bei der Entscheidungsfindung eine Rolle. Grundlage dieser Entscheidungen sind aber immer Fakten.

Die Verfügbarkeit von Informationen hat sich in den letzten Jahren stark verbessert. Was im Finanzwesen schon immer gebräuchlich ist, gilt inzwischen für alle Unternehmensbereiche: Daten werden zur Steuerung von Prozessen, Lieferanten, Kunden und weiteren Steuerungsobjekten automatisiert ausgewertet. Egal, ob es sich um Vertrieb, Produktion oder Logistik handelt, ohne eine genaue Analyse von Aktivitäten und Vorhaben können Entscheidungen nicht getroffen werden. Daten sind der Rohstoff, der die wirklich wertvollen Informationen für Unternehmen enthält. Erst aus ausgewerteten Unternehmensdaten lassen sich Erkenntnisse gewinnen, die den Unterschied machen können und ein Absetzen vom Wettbewerb ermöglichen.

Natürlich gelten diese Rahmenbedingungen auch im Marketing, eigentlich noch mehr als für die anderen Unternehmensbereiche. Kunden werden immer anspruchsvoller in ihren Bedürfnissen, gleichzeitig steigt der Wettbewerb durch die zunehmende Globalisierung. Sollen neue Kunden gewonnen und bestehende erhalten und ausgebaut werden, ist eine präzise Steuerung der Marketingaktivitäten notwendig.

Wesentlicher Vorteil für Marketingentscheider ist die hohe Verfügbarkeit von auswertbaren Daten: Onlinehops, Webseiten, soziale Medien und natürlich die CRM-Systeme liefern eine Fülle an Informationen, aus denen sich wichtige Erkenntnisse ziehen lassen. Basierend auf diesen Datenquellen kann man beispielsweise Click- und Conversion-Raten zur Optimierung des eigenen Webcontents ableiten. Abbildung 1 zeigt, wie die Analyse verschiedener Marketingkampagnen aussehen kann.

Auch Muster des Käuferverhaltens lassen sich so erkennen. Analysiert man zum Beispiel, wie Kunden sich vor einer Kündigung verhalten, lassen sich unter Umständen gewisse Parallelen entdecken, die sich wiederumbei regelmäßigen Auswertungen dazu nutzen lassen, die Abwanderung attraktiver Kunden zu verhindern. Besonders interessant werden diese Analysen, wenn nicht nur die Daten der Vergangenheit berücksichtigt werden, sondern auch Hochrechnungen und Prognosen erstellt werden. Ein bekannter und viel verwendeter Einsatzfall sind die „Andere Kunden fanden diese Artikel interessant“-Vorschläge in Onlineshops, die auf bisher getätigten Einkäufen und Suchanfragen basieren. Dem Nutzer können so zielgerichtet geeignete Produkte aus der Vielfalt des Warenangebots angeboten werden. Dadurch steigt die Wahrscheinlichkeit eines Kaufabschlusses oder Folgekaufs.

Diese beiden einfachen Beispiele zeigen die Bedeutung von Daten für das Marketing. Auf der Grundlage der analysierten Daten lassen sich Kundenbedürfnisse schnell und zuverlässig erkennen. Dieses Wissen kann dazu genutzt werden, Produkte und Dienstleistungen effizienter und effektiver zu vermarkten.

Am Anfang steht das Data Warehouse
Business Intelligence-Systeme liefern Management und Fachbereich Analysewerkzeuge und Kennzahlen für Entscheidungsprozesse. Derartige Systeme finden sich in den meisten Unternehmen und bieten neben ihren analytischen Funktionalitäten vor allem den Vorteil, dass aus einer Vielzahl unterschiedlicher Quellen Daten integriert und veredelt werden. Die Veredelung, also das Anreichern und Verdichten von Daten zu Kennzahlen, findet in Business Intelligence-Anwendungen im Gegensatz zu Datenauswertungen, die in Excel erfolgen, vollkommen automatisiert statt.

Ein weiterer Vorteil gegenüber der Excel-basierten Vorgehensweise ist die Skalierbarkeit auf größere Datenmengen. Wo Excel schon längst an seine Grenzen gerät, erreichen Business Intelligence-Werkzeuge immer noch gute Abfragegeschwindigkeiten. Auch die Fehleranfälligkeit, die manuelle Auswertungen besitzen, wird deutlich reduziert.

Da derartige Analyse-Lösungen auch umfangreiche Rechtekonzepte besitzen, ist ein unberechtigter Datenzugriff ausgeschlossen. Durch verschiedene Frontends lassen sich die verschiedenen Anwendergruppen im Unternehmen zielgerichtet mit Informationen versorgen.

Abbildung 2: Architektur eines Business Intelligence-Systems

Abbildung 2: Architektur eines Business Intelligence-Systems

Das nächste Kapitel widmet sich der Frage, was sich hinter dem Konzept Business Intelligence verbirgt und wie es sich auf die Aufgabenstellungen des Marketings anwenden lässt.

In Abbildung 2 ist die Architektur eines typischen Business Intelligence-Systemsmit ihren Schichten zu sehen. Folgt man dem Datenverarbeitungsprozess von links nach rechts, werden im ersten Schritt die Daten aus den operativen Systemen extrahiert. Im Marketing-Bereich kann das z.B. das CRM-System sein. Über so genannte Extraktions- , Transformations- und Ladeprozesse (ETL) werden die Daten automatisiert zu einem definierten Zeitpunkt aus den Datenbanken geladen und verarbeitet. Währenddessen werden die Daten miteinander verknüpft, aggregiert oder es werden Kennzahlen berechnet.

Im Anschluss werden die Daten in das so genannte Data Warehouse geladen. Das Data Warehouse ist eine separate Datenbank und fungiert als das zentrale Datenlager eines Unternehmens. Dabei wird die redundante Datenhaltung zu den operativen Systemen in Kauf genommen, da im Data Warehouse die Daten optimiert für Analysen gespeichert werden. Wichtig ist die Funktion als „single point of truth“: Die im Data Warehouse abgelegten Zahlen sind abgestimmt und eindeutig nachvollziehbar. Die Definition der Kennzahlen des Data Warehouse ist also maßgeblich. Aus einem Data Warehouse lassen sich also sowohl Reichweiten-Informationen über Marketing-Kampagnen extrahieren, die aus dem CRM-System stammen,als auch relevante Umsatzinformationen aus dem ERP-System.

In einem nächsten Schritt baut man so genannte Data Marts auf. Ein Data Mart ist die Teilmenge eines Data Warehouse und stellt eine thematische Kapselung dar. Für das Marketing würde beispielsweise jeweils ein Data Mart für Kampagnen- und einer für Webseitenauswertungen unter Umständen Sinn machen.

Data Marts sind in der Regel multidimensional modelliert. Sie nutzen so genannten Star- oder Snowflakeschemen, um den Anwendern Online Analytical Processing (OLAP)-Funktionen bereitzustellen. OLAP ermöglicht den Anwendern flexible und intuitive Analysen, da sie sichpraktisch frei in dem multidimensionalen Datenraum bewegen, Filter setzen, Sortierungen nach verschiedenen Parametern vornehmen können und vieles mehr. Zum Beispiel lassen sich die Impressions einer Webseite zunächst insgesamt anzeigen. Mit einigenKlicks kann ein Aufriss der Analyse nach Monaten, Unterseiten erfolgen. Hat man im Vorfeld noch die Stammdaten der Anwender mit den Weblogs verknüpft, lassen sich auch tiefere Analysen des Verhaltens bestimmter Usergruppen vornehmen.

Zur Analyse der Daten stehen unterschiedliche Frontends zur Verfügung. Die Mehrheit der Anwender wird in der Regel mit Standardberichten versorgt. Diese Berichte haben einen starren Aufbau und stellen die Informationen in Form von Tabellen und Grafiken dar. Anwender können die Inhalte mit vorgegebenen Filtern einschränken. Poweruser, also Anwender mit einem erhöhten Analysebedarf, haben zudem die Möglichkeit, auf die OLAP-Würfel frei mit beschriebenen Funktionen zuzugreifen. Diese Frontends nutzen häufig Pivottabellen, mit denen die Anwender die Daten frei miteinander kombinieren können. Ein weiteres visuelles Frontend sind Dashboards. Bei Dashboards wird großer Wert darauf gelegt, wichtige Kennzahlen durch Grafiken und Diagramme darzustellen, so dass die Betrachter die dargestellten Informationen schnell und intuitiv erfassen können. Eine separate Kategorie bilden Data Mining-Werkzeuge. Beim Data Mining werden statistische Methoden und Algorithmen für die Entdeckung von Mustern in den Daten genutzt.

Business Intelligence bietet also in der Regel deutlich mehr als nur die Berichtsfunktionen von CRM- und ERP-Systemen. Ein wesentlicher Vorteil liegt in der Integration und Kombination von Daten aus unterschiedlichen Quellen, um neue Erkenntnisse zu erlangen. Die Vielfalt der Frontends erfüllt die Anforderungen der unterschiedlichen Anwender vom Berichtsempfänger bis hin zum Analysten.

Daten, Daten, immer mehr Daten
„Daten sind das neue Öl“ ist der neue Leitspruch für viele Unternehmen. Die Datenmengen sind in den letzten Jahren massiv angewachsen. Die gleiche Menge an Daten, die seit Beginn der Menschheit bis 2002 geschaffen wurde, ist laut Hochrechnungen 2014 in zehn Minuten entstanden. Tendenz steigend. Woher kommen diese Daten? Zum einen erzeugen wir als Anwender verschiedener IT-Anwendungen permanent neue Daten. Jeder Einkauf in einem Online-Shop, jeder Klick in einem Online-Game, jede Aktivität in sozialen Netzwerken erzeuget neue Daten. Eine weitere Datenquelle entsteht in Maschinen und Sensoren. Smartphones besitzen beispielweise eine ganze Reihe von Sensoren, die permanent Informationen erzeugen. Man spricht hier von Big Data: die traditionellen IT-Systeme geraten an ihre Grenzen und haben Schwierigkeiten bei der Speicherung und Verarbeitung der Datenberge. Big Data kann durch die folgenden Charakteristika beschrieben werden:

• Volume
Das Datenvolumen ist natürlich das wesentliche Kennzeichen von Big Data. In den Datenspeichern der meisten Unternehmen liegen mittlerweile mehrere Terabytes bis hin zu Petabytes an Daten.

• Velocity
Die Menge der Daten an sich ist aber nicht das einzige Kriterium von Big Data. Ein weiterer Punkt ist die Geschwindigkeit der Verarbeitung der Daten. Es gilt, die immer größer werdenden Datenmengen performant verarbeiten und analysieren zu können.

• Variety
Big Data umfasst nicht nur die klassischen Datenquellen mit strukturierten Daten, sondern auch alle unstrukturierten. Man geht davon aus, dass bis zu 80% der Daten im Unternehmen unstrukturiert sind. Es handelt sich um Daten in Textform, aber auch um Bilder, Videos usw.

Welche Bedeutung hat Big Data für das Marketing? Mehr Informationen über Kunden resultieren in eine bessere, maßgeschneidertere Ansprache und, generell gesehen, in eine gesteigerte Effizienz und Effektivität der Marketingmaßnahmen. Durch die Analyse der verfügbaren marketingbezogenen Daten können beispielweise die Zielgruppen von Kampagnen leichter identifiziert werden. Damit lassen sich die Kundenansprache optimieren und insgesamt die Kosten senken. Um diese Vorteile realisieren zu können, muss ein Unternehmen aber erstmal die aufgeführten drei V (Volume, Velocity und Variety) durch den Aufbau entsprechender IT-Systeme in den Griff bekommmen.

Abbildung 3: Erweiterung der Business Intelligence-Architektur um Big Data

Abbildung 3: Erweiterung der Business Intelligence-Architektur um Big Data

In Abbildung 3 ist eine beispielhafte Erweiterung der bestehenden Business Intelligence-Landschaft um Big Data-Technologien zu sehen. Diese Architektur wird so oder in ähnlicher Art und Weise von vielen Unternehmen gewählt. Selbstverständlich kann es in Abhängigkeit der individuellen Anforderungen entsprechende Abweichungen geben.

Wieso erweitert man seine bestehende Systemlandschaft um diese neuen Technologien und investiert große Summen? Big Data bringt klassische Business Intelligence-Systeme an ihre Grenzen. Um den Anforderungen, die das weiter zunehmende Datenwachstum an Unternehmen stellt, begegnen zu können, reichen die herkömmlichen Systeme einfach nicht mehr aus oder sind zu teuer: Ein Unternehmen, das die Datenberge in einem Data Warehouse speichern möchte, wird schnell technische oder finanzielle Grenzen erreichen. Der Einsatz der traditionellen Technologien macht die Analysen der Daten schnell unwirtschaftlich. Die neuen Big Data-Technologien helfen nicht nur, die technisch-finanzielle Seite in den Griff zu bekommen. Sie eröffnen auch auf inhaltlicher Seite ganz neue Möglichkeiten: Als „Enabler“ ermöglichen sie es dem Anwender, größere Fragen als bisher an Daten stellen zu können.

Wie unterscheiden sich Big Data-Technologien von den bestehenden Business Intelligence-Systemen? Die Tabelle zeigt die generellen Unterschiede der Ansätze.

Bild4

Skalierbarkeit spielt natürlich eine entscheidende Rolle bei der Verarbeitung und Analyse großer Datenmengen. In diesem Punkt sind Big Data-Technologien besonders stark. Business Intelligence-Technoloien skalieren sehr oft vertikal durch die Aufrüstung des jeweiligen Servers. Big Data-Technologien ermöglichen hingegen eine horizontale Skalierung: Es werden einfach zusätzliche Server dem System hinzugefügt. Durch die Parallelisierung der Verarbeitung können die Systeme gut mit steigenden Datenmengen arbeiten. Big Data Technologien können also sehr große Datenmengen speichern.

Ein weiterer Vorteil ist, dass sie das Speichern von unstrukturierten Daten ermöglichen. Die Speicherkosten sind vergleichsweise gering, sodass auch solche Daten gespeichert werden können, bei denen sich das bislang aus wirtschaftlichen Gründen nicht lohnte. Business Intelligence-Systeme spielen in der Zugriffsgeschwindigkeit ihre Stärken aus. Sie sind durchwegs auf gute Abfragegeschwindigkeiten ausgelegt und bieten durch die Verwendung von SQL als Abfragesprache eine Vielzahl an möglichen Frontends. Ihre gute Performance ermöglicht den Anwendern interaktive OLAP-Analysen. Big Data-Technologien bieten oft nur eine unzureichende Unterstützung von SQL und stellenweise langsame Abfragegeschwindigkeiten. Es gibt aktuell einige Projekte im Big Data-Bereich, die an der Beseitigung dieser Schwierigkeiten arbeiten. Generell führen sie allerdings dazu, dass viele BI-Frontends nicht direkt mit Big Data-Quellen zusammenarbeiten können.

Auch an die Datenqualität eines Data Warehouse reichen die Big Data Stores nicht heran. Im Data Warehouse liegen hoch veredelte Daten, während im Big Data-Umfeld zunächst einmal alles im Rohformat gespeichert wird. Beide Welten weisen also ihre ganz eigenen Stärken auf, die sinnvoll miteinander kombiniert werden können. Auf diese Kombinationsmöglichkeiten wird im weiteren Verlauf noch näher eingegangen.

Sollen im Marketing also großvolumige Weblogs, Informationen aus sozialen Medien oder ähnliche Daten ausgewertet werden, steht man schnell vor der Notwendigkeit, Big Data-Technologien einzusetzen. Dabei werden wie auch beim Data Warehouse die Daten zunächst aus ihren Quellen extrahiert. Im Gegensatz zu ETL- sind im Big Data Umfeld Extraktions-Lade-Transformations (ELT)-Prozesse zu finden. Das heißt, dass die Daten ohne Struktur in das Zielsystem geladen und erst bei Bedarf zum Zeitpunkt der Analyseumgewandelt werden.

Ein sehr populäres Speichersystem für die Daten ist Hadoop. Hadoop ist ein Open Source-basiertes, massiv parallel arbeitendes Framework für die Speicherung und Verarbeitung von sehr großen Datenmengen. Hadoop ermöglicht vielfältige Abfragen und Analysen der Daten und kann diese zeitnah bereitstellen. Die Datenmengen lassen sich dabei vergleichsweise günstig speichern. Ein Terabyte in Hadoop kann bis zu 20 mal günstiger gespeichert werden als in alternativen Speicherformen. Hadoop bietet ein umfangreiches Ökosystem an Softwarelösungen und wird in vielen verschiedenen Branchen eingesetzt.

Ein weiteres Zielsystem können NoSQL-Datenbanken sein. Im Gegensatz zu relationalen Datenbanken, die für ein Data Warehouse eingesetzt werden, bietet diese Gattung flexible Schemata und kann gut skalieren. Relationale Datenbanken benötigen die Definition eines festen Schemas bevor Daten gespeichert werden können. Sind die Daten eingegeben, kann es schwierig sein, Änderungen durchzuführen. NoSQL-Datenbanken setzen auf dynamische Schemata und sind hierdurch wesentlich flexibler, bspw. beim Hinzufügen neuer Felder NoSQL-Datenbanken bietet die Möglichkeit zur .horizontalen Skalierung und sind somit für Einsatzszenarien mit vielen Usern und großen Datenmengen geeignet. Außerdem können in NoSQL-Datenbanken auch unstrukturierte Daten gespeichert werden. Dadurch bietet sich ein weiteres Einsatzspektrum im Vergleich zu relationalen Datenbanken an und auch die Eignung für den Einsatz in einer Big Data-Architektur. NoSQL ist für Echtzeitapplikationen mit so genannten „heißen“ Daten geeignet. Es geht also um Informationen, die schnell zugreifbar sein müssen und regelmäßig für schnelle Entscheidungen genutzt werden. Hadoop wird hingegen oft bei umfangreichen Analysen von historischen bzw „kalten“ Daten verwendet.

Wie bereits erwähnt, mangelt es Big Data Stores bei aktuellem Stand der Technik an performanten SQL-Schnittstellen. Aus diesem Grund werden oft analytische Datenbanken in Kombination mit Big Data Stores verwendet. Analytische Datenbanken gehören auch zur Gattung der relationalen Datenbanken und können somit problemlos von Business Intelligence-Werkzeugen genutzt werden. Ihr Fokus liegt auf dem Einsatz in analytischen Szenarien: Sie erlauben die Verwendung von OLAP auch auf vergleichsweise großen Datenbeständen. Die analyserelevanten Teildatenbestände der Big Data Stores werden dabei in die analytische Datenbank geladen werden. Die Anwender können dann ihre gewohnten Werkzeuge für die Analysen nutzen.

Big Data eröffnet dem Marketing eine völlig neue Dimension bei Datenanalysen: erstmals können Informationen über Kunden, Produkte und Prozesse umfassend untersucht werden. Dadurch lassen sich neue Steuerungsimpulse ableiten, um Kampagnen effektiver durchzuführen, Kunden besser anzusprechen und Produkte bestmöglich zu positionieren.

Better together – Business Intelligence und Big Data kombinieren
Bei der Frage, ob Business Intelligence oder Big Data im Marketing eingesetzt werden sollten, wird schnell klar, dass es hier nur bedingt Entweder-Oder-Antworten gibt. Sollen nur sehr überschaubare Mengen an Daten verarbeitet werden, macht der Einsatz von Big Data natürlich keinen Sinn. Handelt es sich jedoch um stetig anwachsende Datenmengen und Datenquellen, ist es von Vorteil, einen kombinierten Ansatz zu wählen.

Big Data ist die logische Weiterentwicklung der bestehenden BI-Systeme. Sollen die großen Datenbestände analysiert werden (Big Data Analytics), kann das häufig nur auf dem Bestand der hoch veredelten Daten des Data Warehouse erfolgen. Wie in der obigen Architekturskizze dargestellt, zieht man dazu in der Regel einen Best-of-Breed-Ansatz mit unterschiedlichen Technologien heran. Der Grund dafür ist einfach: auf dem Markt gibt es aktuell keine Lösung, die alle Anforderungen erfüllen kann.

Als Beispiel für das Zusammenspiel der Technologien betrachten wir im Folgenden eine Clickstream-Analyse. Ziel von Clickstream-Analysen ist es, Rückschlüsse auf das Verhalten der Besucher einer Webseite zu ziehen. Die Ergebnisse dienen zur Optimierung des Webauftritts: Anziehen möglichst vieler Besucherund ihre Begeisterung für die Produkte des Unternehmens.

Um eine solche Analyse zu erstellen, zieht man Weblog-Daten heran. Diese Informationen werden in der Regel von den Webservern erzeugt und das in gewaltiger Menge: schnell können hier beachtliche Datenmengen von vielen Gigabyte und mehr zusammenkommen. Logdaten liegen in einem technischen Format vor, das es unmöglich macht, sie in relationalen Datenbanken zu speichern und zu verarbeiten. Gut geeignet für ihre Speicherung sind hingegen NoSQL-Datenbanken, weil sie auf den Umgang mit so hochvolumigem Input ausgerichtet sind. Die Flexibilität des Schemas eignet sich gut für Webapplikationen, da neue Objekte schnell und einfach ergänzt werden können. Im weiteren Verlauf der Datenverarbeitung werden die Informationen in Hadoop geladen, da hier ihre weitere Verarbeitung stattfindet.

In Hadoop kann man dann die Daten zum Beispiel nach Stunden, Hosts oder einzelnen Bereichen der Webseite aggregieren. Während dieser Prozesse werden die Daten angereichert durch einen Zugriff auf die Stammdaten des Data Warehouse. Hier liegen beispielsweise detaillierte Informationen über die Besucher die für weitere Auswertungen wichtig sind. Da die Anwender die Auswertungen über die OLAP-Tools des Unternehmens vornehmen wollen, werden die Daten anschließend in den Data Mart einer analytischen Datenbank geladen. Sie bietet eine hohe Performance und vollen SQL-Support, sodass sich schnell Auswertungen über das Besucherverhalten erstellen lassen.

Die Kombination von Data Warehouse und Big Data wird auch Data Blending genannt. Moderne Analyseplattformen erlauben Blending auf Ebene der Datenintegration, ohne die Daten zwischenspeichern zu müssen. In den ETL-Prozessen lassen sich Daten aus den verschiedenen Quellen miteinander verknüpfen. Die aufbereiteten Daten können dann direkt in den Frontends analysiert werden.

Drei zentrale Aspekte bei der Einführung von Marketing Analytics
Business Intelligence und Big Data können dem Marketing wichtige Informationen für die Ausrichtung von Kampagnen oder die Anpassung von Strategien liefern. Bei einem gleichbleibenden Marketingbudget lässt sich so die Reichweite von bestehenden Maßnahmen deutlich erhöhen oder sogar Ressourcen einsparen, die in neue Maßnahmen fließen können.

Zum einen kann man beispielsweise die Verteilung des Budgets auf die unterschiedlichen Kanäle optimieren. Dazu analysiert man die Effekte von Saisonalität, Wettbewerb oder Werbung auf die unterschiedlichen Segmente im Zeitverlauf. Durch die regelmäßige Erhebung von Daten zur Reichweite, Kosten und Qualität können feine Analysen der individuellen Touchpoints erstellt und Vergleichbarkeit erreicht werden. Das gilt für alle Offline-Aktivitäten, aber natürlich insbesondere auch für alle Online-Maßnahmen. Indem man analytische Werkzeuge in die täglichen Marketingprozesse integriert, erhält man viele Möglichkeiten, seine Maßnahmen und Aktivitäten zu optimieren. Sie sollte daher strategisch in der Abteilung verankert sein.

Bei der Auswahl der Lösung und ihrer Implementierung sollte man die folgenden drei Aspekte berücksichtigen:

Better together
Selten sind alle Analyseanforderungen mit einer einzigen Lösung umsetzbar, besonders, wenn Big Data eine Rolle spielt. Wie in der Beispielarchitektur zu sehen ist, bewähren sich hybride Ansätze mit mehreren integrierten Lösungen. Ein solcher „Best-of-Breed“-Ansatz setzt darauf, dass innerhalb einer Architektur die einzelnen Komponenten ihre individuellen Stärken ausspielen und zusammenarbeiten können. Die Auswahl der Einzelkomponenten hängt davon ab, welche Anforderungen man hat.

Data Blending
Die wahren Schätze hebt nur der, der Datenquellen miteinander kombiniert. Die Datenintegration ist aber meistens auch mit dem größten Aufwand verbunden. Sie lohnt sich jedoch, denn man erhält dadurch eine ganzheitliche Sicht auf Kunden, Prozesse, Produkte usw. und kann so unterschiedliche Perspektiven einnehmen und das große Ganze überblicken.

Zukunftsfähig
Neue Anforderungen benötigen neue Technologien. Will man bisher ungenutzte Daten aus neuen Quellen wie zum Beispiel Social Media oder Weblogs analysieren, muss die bestehende Tool-Landschaft kritisch betrachtet werden. Oft sind bestehende Technologien aus den oben genannten Gründen nicht geeignet und es sind Investitionen in neue Techniken nötig. Es bringt nichts, eine bestehende, ungeeignete Lösung so lange anzupassen, bis es einigermaßen passt – die großen Datenmengen, die in Zukunft noch weiter zunehmen werden, erfordern ganz neue TechnologienIm Big Data-Bereich ist Technologie der Wegbereiter, um Mehrwerte für das Business zu erschaffen.

Im Marketing geht es darum, mit Hilfe von Big Data-Auswertungen die ganz großen Fragen stellen zu können. Nur, wer seine Daten auswerten kann, hat die Chance, auf lange Sicht im Wettbewerb zu bestehen.

Diese Artikel könnten Sie auch interessieren:

Flat Database
Das Data Warehouse und seine Grenzen

Stefan Müller - Director Business Intelligence & Big Data
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Business Intelligence aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten. Er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source für Datenanalyse und -aufbereitung gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen und als Experte der Computerwoche weiter.
Webprofile von Stefan: Twitter, XING, Google+

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.