Skip to main content

Den Data Lake flexibel befüllen – mit geringer Komplexität und hoher Kosteneffizienz

Herausforderung für viele Unternehmen: die Überführung von unterschiedlichen Datenformaten in den Data Lake

13. Juni 2017, 11:00 - 11:45 Uhr

Sie haben bereits einen hochskalierbaren Hadoop Cluster eingerichtet? Wie laden Sie nun aber standardisiert die unterschiedlichen Datenformate aus verschiedenen Datenquellen? Wir präsentieren einen leicht umsetzbaren Weg – ganz ohne hard coding.

Für heutige Data Onboarding-Projekte müssen viele verschiedene Datenquellen und -formate verwaltet und skalierbare Verarbeitungsprozesse eingerichtet werden.

Wir zeigen Ihnen im gemeinsamen Webinar mit TDWI, wie Sie Ihre ETL-Prozesse mit Pentaho Metadata Injection deutlich vereinfachen und leichter wartbar gestalten. Dazu legen Sie nur einmalig ein Template an und anhand der Metadaten (z.B. Feldnamen, Typ, Länge, etc.) wählt das Template die richtigen Schritte für das jeweilige Datenformat aus.

Dieser Transformationsprozess mithilfe von Metadaten und Templates führt zu einer drastischen Zeitersparnis im Entwicklungsprozess. Dadurch lassen sich nicht nur Daten besser in Ihre Analyseplattform integrieren, sondern die Datenprozesse sind im Vergleich zu anderen Lösungen einfacher zu verwalten.

Jetzt teilnehmen

Warum sollten IT- oder BI-Verantwortliche am Webinar teilnehmen?

Sowohl die IT als auch die Fachbereiche haben Probleme, wenn es um das Beladen von Daten geht – aber aus unterschiedlichen Gründen: Fachanwender erwarten, dass die IT schnell auf jede einzelne Datenintegrationsanfrage reagiert. Die IT hingegen kämpft mit der Anzahl der an sie herangetragenen Anfragen, weil sie nur über begrenzte Arbeits- und Personalressourcen verfügt und weil stetig mehr Anfragen eintreffen.
Wie kann dieses Dilemma gelöst werden? Indem die IT eine Self-Service-Plattform bereitstellt!

Jetzt teilnehmen

Pentaho – eine Plattform, einmal aufgesetzt. Mit diesen Vorteilen:

  • Umfassend. Im “Metadata Injection”-Prozess können im laufenden Betrieb Metadaten in den Workflow eingespeist werden. Dadurch lassen sich hunderte von Datenquellen mit einem einzigen generischen Workflow Template verwalten. Der Daten-Upload läuft tief integriert ab.
  • Zeitersparnis. Pentaho erfasst Daten aus tausenden unterschiedlichen Dateienquellen oder Datenbanken in einem Prozess, anstatt in tausend einzelnen.
  • Arbeitserleichterung. Nur ein ETL-Template für den gesamten Datenfluss wird definiert, ohne dass die Metadaten aufwändig spezifiziert werden müssen.
  • Geringere Entwicklungskosten. Die Abhängigkeit von hart codierten Datenerhebungsverfahren wird stark reduziert. Die reguläre Datenübertragung in Hadoop läuft vereinfacht ab.

Mit der BI- und Big Data-Plattform von Pentaho werden Fachanwender in die Lage versetzt selbständig Daten zu laden, zu migrieren und auszuwerten (Self-service Data Onboarding). Außerdem profitiert die IT von reduzierten Entwicklungszeiten und -kosten.

Melden Sie sich für das Webinar am 13. Juni (11:00 – 11:45 Uhr) an und erfahren Sie wie Sie mit „Metadata Injection“ von Pentaho das Beladen von unterschiedlichsten Datenformaten in Hadoop vereinfachen!
Anschaulich präsentiert von BI-und Big Data-Experten von it-novum, Stefan Müller und Philipp Heck, und moderiert von Prof. Dr. Peter Gluchowski, Mitglied des Vorstands TDWI Germany e.V.

Jetzt teilnehmen


Falls Sie uns bereits im Vorfeld Ihre speziellen Problemstellungen oder Fragen senden möchten, schreiben Sie gerne an info@tdwi.eu!

Über die Organisatoren des Webinars

TDWI Germany e.V., Internationaler Verein für Business Intelligence und Data Warehousing

Der TDWI Germany e.V. hat sich in den vergangenen Jahren zur zentralen Community für Business Intelligence und Data Warehousing entwickelt. Heute ist der Verein Taktgeber der deutschsprachigen BI- und DW-Szene.

Die Entwicklung innovativer Themen zur Unterstützung der Geschäftstätigkeit auf der einen Seite, und Software, Verfahren und Technologien zur Aufbereitung von Daten und deren Nutzung auf der anderen Seite hat durch Themen wie Big Data oder Industrie 4.0 besondere Priorität erlangt. Als die zentrale Wissens- und Kommunikationsplattform in Europa stellt sich der TDWI e.V. diesen Herausforderungen.

it-novum

Der Bereich BI und Big Data von it-novum ist auf die Integration und Weiterentwicklung von Open Source IT-Lösungen im Geschäftsumfeld spezialisiert - z. B. Datenintegration und Data Warehousing, Reporting und Analysen, Dashboards und Datenvisualisierung. Unsere Expertise für BI- und Big Data-Projekte umfasst ein vollständiges Serviceangebot von Beratung, über  Proof of Concepts, Workshops bis hin zu Systemeinführung und Support.

Dabei setzen wir u.a. auf Pentaho, die führende Open Source-Plattform für Datenintegration, Business Analysen und Datenvisualisierung für tausende Unternehmen weltweit – mit Angeboten, die bis zu 90% günstiger sind als bei traditionellen Business Intelligence- und Big Data-Anbietern.

it-novum GmbH Deutschland

Hauptsitz: Edelzeller Straße 44, 36043 Fulda

Niederlassung: Siemensdamm 50, 13629 Berlin

Niederlassung: Ruhrallee 9, 44139 Dortmund

 

info@it-novum.com

+49 661 103 - 322

+49 661 103 - 597

it-novum Niederlassung Österreich

Office Park 7 / Top B02

1300 Wien-Flughafen

 

 

info@it-novum.at

+43 1 227 87 - 139

+43 1 227 87 - 200