Data Onboarding: so werden Data Lakes einfach und kostengünstig befüllt

0
18.05.2017ǀ ǀ Big Data
Data Lakes befüllen: wie es geht, zeige ich am 13. Juni

Data Lakes befüllen: wie es geht, zeige ich am 13. Juni

Data Lakes aus verschiedenen Datenquellen befüllen – vor dieser Aufgabe stehen viele Unternehmen, wenn es um die Aufbereitung und Auswertung von Big Data geht. In einem Webinar am 13. Juni zeige ich, wie sich das sogenannte Data Onboarding einfach und kosteneffizient umsetzen lässt.

Wer sich einen Hadoop Cluster eingerichtet hat, um seine Datenbestände zu analysieren, steht meistens vor dem Problem, wie er diesen Cluster mit Daten befüllt. Schließlich will man mehrere Datenquellen anbinden und verschiedene Datenformate auswerten. Das kann aber je nach eingesetzter Technologie anspruchsvoll bis fast unmöglich sein.

In meinem Webinar „Data Lakes“ stelle ich eine Lösung vor, die auf einer Standardlösung beruht und einfach umsetzbar ist – ganz ohne hard coding. Über Pentaho Metadata Injections lässt sich das Data Onboarding einfach bewerkstelligen, die verschiedenen Datenquellen und -formate verwalten und skalierbare Verarbeitungsprozesse einrichten. Durch ein Template mit definierten Metadaten können Sie Ihre Datenladungs- und -transformationsprozesse vereinfachen. Das führt zu einer starken Zeitersparnis im Entwicklungsprozess und einer besseren Integration von Informationen in die verwendete Analyseplattform. Auch die Wartbarkeit ist damit viel einfacher im Vergleich zu anderen Lösungen.

Das Webinar, das am 13. Juni um 11 Uhr stattfindet, veranstalte ich gemeinsam mit dem Business Intelligence-Spezialisten Prof. Dr. Peter Gluchowski. Als Professor für Wirtschaftsinformatik an der Technischen Universität Chemnitz liegt sein Schwerpunkt auf Business Intelligence-Technologien, insbesondere der praktische Aufbau analytischer Systeme zur Entscheidungsunterstützung. Seit 2012 ist Prof. Dr. Gluchowski Vorstandsmitglied des TDWI Deutschland e.V.

Weitere Informationen und Anmeldung

Diese Artikel könnten Sie auch interessieren:

Tags: , , , , , ,

Stefan Müller - Director Business Intelligence & Big Data
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Business Intelligence aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten. Er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source für Datenanalyse und -aufbereitung gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen und als Experte der Computerwoche weiter.
Webprofile von Stefan: Twitter, XING, Google+

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.