Die neue Realität

1
Big Data-Technologien: Hadoop, NoSQL-Datenbanken und analytische Datenbanken

Trotz der mittlerweile überwältigenden Anzahl von Big Data-Technologien hat das Konzept des Data Warehouse nicht ausgedient.

Etwas angestaubt und in die Jahre gekommen wirkt das Konzept des Data Warehouse in Zeiten von Big Data, MapReduce und NoSQL. Dabei besitzt eine standardisierte, für Analysen optimierte und zentrale Datenbasis größere Aktualität als zu den Anfangszeiten des Data Warehouse-Ansatzes: Für eine stetig steigende Anzahl an Unternehmen sind Daten ein wertvoller Rohstoff. Diesen Rohstoff gilt es zu Informationen zu veredeln, um Entscheidungsprozesse zu unterstützen und Wettbewerbsvorteile zu erzielen.

Data Warehouse-Systeme beruhen in der Regel auf relationalen Datenbanken und beinhalten aufbereitete Teilmengen an Daten aus den operativen Systemen. Seit einigen Jahren sehen sich Unternehmen mit einer wahren Datenexplosion konfrontiert. Der klassische Ansatz des Data Warehouse kann mit den Datenmengen aber nicht mithalten bzw. mitwachsen und stößt an seine Grenzen. Diese Entwicklung wird noch verstärkt durch die zunehmende Heterogenität der Daten und die größeren Anforderungen, was die Geschwindigkeit für Verarbeitung und Analyse betrifft.

Diesen neuen Rahmenbedingungen versuchen Unternehmen mit entsprechenden leistungsstarken und flexiblen Technologien zu begegnen. Hadoop, NoSQL und analytische Datenbanken machen den effektiven und effizienten Umgang mit extrem großen Datenmengen möglich. Ist das Data Warehouse damit überflüssig geworden? Auf keinen Fall! Ich bin der Meinung, dass nach wie vor der Fokus darauf liegen muss, die entscheidungsrelevanten Informationen zu identifizieren und zu verteilen. Neben der neuen Rolle der Data Scientists mit explorativem Zugriff auf die Big Data Stores gibt es ja nach wie vor die unterschiedlichen Berichtsempfänger und Analysten, die Zugriff auf die klassischen BI-Tools haben. Big Data-Technologien helfen nur, das Data Warehouse sinnvoll zu erweitern, nicht, es abzulösen. Sie sorgen dafür, dass die Datenmengen kostengünstig gespeichert und schnell vorverarbeitet werden können. Data Blending heißt die Antwort, um alle neuen Quellen sinnvoll miteinander zu kombinieren und die Vorteile ganzheitlich nutzen zu können.

Das Thema „Date Warehouse in Zeiten von Big Data“ werde ich ausführlich im Schwerpunktheft „Big Data“ in HMD – Praxis der Wirtschaftsinformatik besprechen, das im August erscheint.

Tags: , , , ,

Stefan Müller - Director Business Intelligence & Big Data
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Business Intelligence aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten. Er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source für Datenanalyse und -aufbereitung gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen und als Experte der Computerwoche weiter.
Webprofile von Stefan: Twitter, XING, Google+

Ein Gedanke zu „Die neue Realität

  1. Pingback: Apache Hive – das Data Warehouse für Hadoop

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.