Datenanalyse auf Knopfdruck: Big Data für Fachanwender

0
Maximilian-Post_Twitteranalysen

Inhaltlich und kulinarisch gehaltvoll: Der Data Analytics Lunch

Davon träumen viele Controller und Marketer: Big Data auf Knopfdruck auswerten zu können. In den meisten Unternehmen ist man davon noch weit entfernt. Wie es gehen kann, zeigen die Anwenderbeispiele unserer Eventreihe „Data Analytics Lunch“: Vom 28. Juni bis 17. Juli tourten wir mit Best Practice-Fällen durch Österreich und Deutschland – um Unternehmen aufzuzeigen, wie sie die Kluft zwischen ihren Daten und den Fachanwendern schließen können. Eine Zusammenfassung der Beiträge und Anwenderbeispiele (pdf-Download).

Im Fokus der Roadshow „Data Analytics Lunch“ stand die Vermittlung praxisorientierten Wissens für IT-Entscheider, die ihren Fachanwendern Analysetools für Big Data zur Verfügung stellen wollen. Die Implementierung von Self-Service BI-Anwendungen ist einer der Megatrends im Controlling und Reporting. Unter dem Motto „Meet’n’Eat“ brachten wir Entscheider mit Experten aus den Bereichen Big Data, Datenintegration und Analytics zusammen. Konzipiert war die Veranstaltung sowohl inhaltlich wie kulinarisch gehaltvoll: Der an die Mittagspause angelehnte Rahmen erforderte es, die Inhalte in kompakter Form zu vermitteln, gab aber dennoch genügend Zeit für Diskussionen und klärende Gespräche.

Big Data für Fachanwender: Streamlined Data Refinery
Im ersten Redebeitrag stellte ich das Beladen von Big Data-Systemen und das Konzept Streamlined Data Refinery vor (Abb.1). Unter Streamlined Data Refinery versteht man die automatisierte Aufbereitung großer Datenmengen, um sie Fachanwendern für Auswertungen und Berichte zur Verfügung zu stellen. it-novum nutzt dafür Pentaho in Kombination mit Hadoop und setzt das System als Big Data Processing Hub ein, der die Verarbeitung der Datenmengen übernimmt. Hierfür werden Daten aus unterschiedlichen Quellen im Data Hub kombiniert, integriert und veredelt. Fachanwender können dann gezielt die Zeiträume und den Inhalt der Datensets auswählen, die sie auswerten wollen. Die Streamlined Data Refinery modelliert und publiziert diese Daten automatisiert und lädt sie in eine hochperformante Datenbank, wo sie sofort für interaktive Analysen bereitstehen.

Streamlined Data Refinery

Abb.1: Streamlined Data Refinery mit Pentaho und Hadoop

Wie die Fragen aus dem Publikum zeigten, war das Konzept noch weitgehend unbekannt, das Interesse an der Technologie aber groß. Die Teilnehmer interessierte daher vor allem, wie die ETL-Prozesse des Hadoop-Hubs aufgebaut sind und die Cubes auf dem Pentaho-Server implementiert werden, damit Fachanwender mit den Daten arbeiten können.

Prognosen von Aktienverläufen: Big Data im Börsenumfeld
Mit der Prognose von Aktienverläufen basierend auf Twitteranalysen beschäftigte sich der Beitrag von Maximilian Post. Um Zusammenhänge zwischen der Stimmung im Social Web (Twitter) und den Aktienkursen eines Unternehmens aufzudecken, sammelte Maximilian Post Tweets von großen börsennotierten Unternehmen während eines dreimonatigen Zeitraums. Mit Hilfe verschiedener Algorithmen und Modelle prüfte er, ob es eine Korrelation zwischen der Stimmung auf Twitter und der Entwicklung der Aktienkurse gab.

Das Ergebnis: Abhängig vom gewählten Analysemodell zeigten die Auswertungen einen deutlichen Zusammenhang zwischen der Stimmung auf Twitter und dem Verlauf der Aktienkurse der Unternehmen. Für die Aufbereitung, Auswertung und Visualisierung kam Pentaho zum Einsatz. Wie Maximilian Post betonte, fällt der Zusammenhang mit den Aktienkursen bei B2C-Unternehmen weniger groß aus als bei B2B-Unternehmen.

Qualitätsmanagement und Controlling: Wiener Wohnen Kundenservice

Der Beitrag von Wiener Wohnen Kundenservice

Der Beitrag von Wiener Wohnen GmbH

Stadt Wien – Wiener Wohnen ist die größte kommunale Hausverwaltung Europas. Rund 220.000 Gemeindewohnungen, 47.000 Abstellplätze und über 5.100 Lokale werden verwaltet. Nina Forst stellte im Namen der Wiener Wohnen Kundenservice GmbH, einer Tochter von Wiener Wohnen, das Pentaho-Projekt des Unternehmens vor (zum Interview). Mit Pentaho wird die Qualitätssicherung über Datenanalysen und Reports abgedeckt. Das reicht von der Personalbedarfsplanung, über die Auswertung von Anliegen der Mieter bis hin zum fachlichen Monitoring. Nina Forst betonte, dass im System mehr als 1,8 Millionen Kundenanfragen pro Jahr erfasst würden. Neben dem Qualitätsmanagement und den Datenauswertungen werden mit Pentaho auch Berichte erstellt.

Pentaho dient bei der Wiener Wohnen Kundenservice GmbH als Data Warehouse für das Callcenter. Das Callcenter bearbeitet alle Anfragen über ein Ticketsystem. In das Data Warehouse laufen die Daten aus der Telefonanlage und dem operativen Quellsystem „pipe“. Eine große Anzahl von Cubes, Kennzahlen, Dimensionen und Reports hilft, die Leistungen des Unternehmens genau zu analysieren und daraus kennzahlenbasierte Verbesserungen abzuleiten. Nina Forst betonte, dass Pentaho zwei große Vorteile habe: die Software sei erstens ein verlässliches und ausgereiftes Open Source-Produkt und mache es zweitens möglich, Anwendungen flexibel je nach aktuellem Projektbedarf weiterzuentwickeln.

Auswertung von Ecommerce-Daten: Mercateo
Um die Auswertung von Webshop-Daten drehte sich der Vortrag von Torsten Blum von Mercateo, einer Beschaffungsplattform für Händler, die in elf Ländern rund 18 Mio. Artikel für ca. 1,25 Mio. Geschäftskunden bereitstellt. Wie Torsten Blum erläuterte, ist das Datenwachstum des Unternehmens mit 5 GB täglich (insgesamt 1,5 Terabyte) sehr groß, die Anforderungen an die Analysesysteme daher sehr hoch. Bei Mercateo kommen die Daten aus sechs Quellsystemen, darunter SAP, Oracle, Apache, der FTP-Server und das Callcenter-System. Alle Systeme sind an Pentaho angebunden, das dadurch als zentrale Datenbasis des Unternehmens fungiert.

Mercateo setzte für die Datenauswertungen ursprünglich Cognos und eigenentwickelte Analyseanwendungen ein. Das verursachte nicht nur hohe Kosten, sondern auch einen Wildwuchs bei den Auswertungstools: da Schnittstellen zu den Quelldatensystemen fehlten, hatten IT-Mitarbeiter und Fachanwender im Laufe der Zeit verschiedene Adhoc-Auswertungen und Exceltabellen erstellt. Eine gemeinsame Datenbasis fehlte also im Unternehmen – ein weit verbreitetes Problem, das während der Veranstaltung immer wieder zur Sprache kam.

Laut Torsten Blum sollten die Herausforderungen bei der Einführung einer BI-Plattform nicht unterschätzt werden. Bei Mercateo wurden die Anwender zunächst im Umgang mit den neu zur Verfügung stehenden Daten geschult. Um die Akzeptanz der neuen Lösung zu erhöhen, griff das Unternehmen auch zu drastischeren Maßnahmen: die bis dato bestehenden Auswertungssysteme wurden kurzerhand abgeschaltet. Aufgrund des großen Konfliktpotentials solle man den direkten Kontakt mit den Anwendern suchen und diese aktiv dazu bewegen, sich mit der neuen Anwendung auseinander zu setzen, rät Blum.

Analysen im eGaming-Sektor: Travian Games

Der Beitrag von Travian Games

Der Beitrag von Travian Games

Aus dem Bereich Online-Gaming kam der Beitrag von Jürgen Meis von Travian Games. Das Unternehmen aus München bietet Online-Spiele für über 130 Mio. registrierte Nutzer an, täglich nutzen über 300.000 Spieler die verschiedenen Strategiespiele. Travian Games bereitet die täglich bei den Spielen anfallenden Datenmengen für Analysen in allen Unternehmensbereichen auf.

Wie Jürgen Meis erläuterte, verfolge das Unternehmen bei der Entwicklung der Business-Intelligence-Lösung einen geführten Self-Service-Ansatz: die Mitarbeiter in den Fachabteilungen sollen selbst in der Lage sein, die für sie wichtigen Daten zu analysieren. Dazu setzte das Unternehmen ein Data Warehouse auf, das die Daten aus den Online-Spielen sammelt. An das Data Warehouse wurden Systeme aus Marketing, Kundenservice, Zahlungsmanagement und Webtracking angebunden. Die Daten aus dem Data Warehouse fließen in verschiedene Analyseanwendungen. Travian Games setzt als analytische Datenbank Infobright ein. Für die Bewirtschaftung des Data Warehouse und die Analyse-Frontends kommt Pentaho zum Einsatz. Laut Jürgen Meis war bei der Auswahl der Lösung ausschlaggebend, dass die Technologien flexibel, skalierbar und offen (Schnittstellen) sind und ein benutzerfreundliches Frontend für Endanwender bieten.

Jürgen Meis betonte, dass die Entwicklung unternehmensweit einheitlicher Kennzahlen als Entscheidungsgrundlage zu den wichtigsten Schritten bei einem Big-Data-Projekt gehöre. Dazu zählt, neben Umsatz und Spieler-Anzahl, auch die Abwanderungsquote der Spieler.

Swissport: Auswertung von Flügen, Services und Personal

Der Beitrag von Swissport

Der Beitrag von Swissport

Ein weiteres Praxisbeispiel kam von Uwe Geercken von Swissport, der größten Servicegesellschaft für Fluggesellschaften und Flughäfen weltweit. Swissport setzt Pentaho für die Auswertung von Flügen, Services und Personal ein. Mit weltweit 61.000 Mitarbeitern muss das System die jährlich rund 3,9 Mio. Flüge mit ca. 230 Mio. Passagieren und die damit verbundenen Leistungen zuverlässig auswerten können. Uwe Geercken betreut bei Swissport die Datenverarbeitung und das Reporting. Durch die umfassenden Analyseanwendungen, die das Unternehmen einsetzt, umfasst das auch die Betreuung von Schnittstellen und Projektmanagement (zum Interview).

Uwe Geercken stellte das neueste Projekt des Unternehmens vor: Die Daten der weltweiten Niederlassungen werden in Pentaho aufbereitet und in SAP verrechnet, um die Ergebnisse in einen Corporate- bzw. weltweiten Zusammenhang zu stellen. Dabei wurde ein spezieller Projektansatz gewählt, der die Business-Logik aus den Datenverarbeitungsjobs ausgliedert, also die IT (Code und Prozesse) von den Business Rules trennt, da letztere extern erstellt und gepflegt werden. Laut Uwe Geercken verbessere dies die Qualität, ermögliche agilere IT-Prozesse und mache das Ganze transparenter für die Anwender.

Auch Uwe Geercken betonte die Flexibilität von Pentaho. Aufgrund der vielen Schnittstellen lässt sich das System bei Bedarf anpassen und gut mit anderen Systemen und Technologien kombinieren. Swissport kann dadurch fast alle seiner operationellen Systeme auswerten. Die Daten werden dabei nicht nur für das Beladen interner Systeme verwendet, z.B. für die Budgetierung oder die Planung von Flügen und Personal. Auch seine Kunden kann Swissport auf diese Weise mit wichtigen Informationen versorgen.

hgv Analytics: Analyseplattform für das Verlagswesen
Wie Anforderungen an Analysen im Verlagswesen umgesetzt werden können, zeigte Torben Müller von der Hanseatischen Gesellschaft für Verlagsservice (HGV). Mit der Business Intelligence-Anwendung „HGV Analytics“ stellt HGV ihren Kunden, große deutsche Verlagshäuser, eine Analyseplattform zur Verfügung. Damit können Verlage das Abschneiden eines bestimmten Buchs auf dem Lesermarkt untersuchen und Rückschlüsse auf die Bedingungen für erfolgreiche Bücher ziehen. HGV kombiniert dazu die Daten aus dem Vertriebssystem, der Produktplanung und SAP mit Informationen von Vertriebspartnersystemen in einer Datenbank. Die Auswertungsebene wird mit Pentaho realisiert: Analysecubes, Berichte sowie Dashboards unterstützen Verlage dabei, wichtige Einblicke in ihre Verkaufszahlen und Kundendaten zu gewinnen.

Diese Artikel könnten Sie auch interessieren:

Tags: , ,

Stefan Müller - Director Business Intelligence & Big Data
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Business Intelligence aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten. Er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source für Datenanalyse und -aufbereitung gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen und als Experte der Computerwoche weiter.
Webprofile von Stefan: Twitter, XING, Google+

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.