Skip to main content

Webinar: Data Lake - Maximieren Sie den Wert Ihrer Daten

Integrieren Sie unterschiedlichste Datenformate in den Data Lake, um sie flexibel, einfach und kostengünstig auszuwerten.

13. Juni 2017, 11:00 - 11:45 Uhr

Sie haben bereits einen Hadoop-Cluster eingerichtet, verbringen aber zu viel Zeit mit der Beladung des Data Lake? In diesem Webinar zeigen wir Ihnen, wie Sie Ihre Daten integrieren – automatisiert und kostengünstig.

Beim Beladen von Hadoop müssen normalerweise viele verschiedene Datenformate und -quellen integriert werden. Automatisierte Verarbeitungsprozesse sind deshalb wichtig, damit das Befüllen effizient, zeit- und ressourcenschonend erfolgen kann.

Die BI-und Big Data-Experten von it-novum, Stefan Müller und Philipp Heck, stellen im gemeinsamen Webinar mit TDWI vor, wie Sie Ihren Data Lake dank Pentaho mit wenigen Klicks befüllen. Ein einmalig angelegtes Template wählt über Metadaten die richtigen Schritte für das jeweilige Datenformat aus und lädt die Daten automatisiert in Hadoop.

Das Beladen läuft dadurch integriert ab: Metadaten lassen sich im laufenden Betrieb in den Workflow einspeisen und hunderte von Datenquellen mit einem einzigen Template verwalten.
Einfacher geht Big Data nicht!

Lernen Sie im Webinar, wie Sie dreifach von der automatisierten Data Lake-Befüllung profitieren:

  • der Entwicklungsprozess verkürzt sich drastisch
  • die Datenprozesse sind einfacher zu verwalten
  • Sie können Daten schneller Ihren Anwendern zur Verfügung stellen

Jetzt teilnehmen

So hilft die IT-Abteilung Fachanwendern bei der Datenaufbereitung

BI- und Big Data-Verantwortliche verwenden viel Zeit auf das Aggregieren und Aufbereiten von Daten oder sind auf Support der IT-Abteilung angewiesen. Die IT kann dafür sorgen, dass diese Arbeitsschritte effektiver und effizienter ablaufen – indem sie Self-Service-Möglichkeiten für eine selbstständige Datenaufbereitung durch den Fachanwender bereitstellt. Für die Aufbereitung von Daten aus unterschiedlichsten Quellen wird Pentaho in Kombination mit Impala genutzt.

Jetzt teilnehmen

Den Data Lake einfach befüllen – die Vorteile von Pentaho

  • Umfassend. Im “Metadata Injection”-Prozess können im laufenden Betrieb Metadaten in den Workflow eingespeist werden. Dadurch lassen sich hunderte von Datenquellen mit einem einzigen generischen Workflow Template verwalten. Der Daten-Upload läuft tief integriert ab.
  • Zeitersparnis. Pentaho erfasst Daten aus tausenden unterschiedlichen Dateienquellen oder Datenbanken in einem Prozess, anstatt in tausend einzelnen.
  • Arbeitserleichterung. Nur ein ETL-Template für den gesamten Datenfluss wird definiert, ohne dass die Metadaten aufwändig spezifiziert werden müssen.
  • Geringere Entwicklungskosten. Die Abhängigkeit von hart codierten Datenerhebungsverfahren wird stark reduziert. Die reguläre Datenübertragung in Hadoop läuft vereinfacht ab.

Erfahren Sie im Webinar am 13. Juni (11:00 – 11:45 Uhr), wie Sie Ihren Data Lake mit Hilfe von Pentaho Metadata Injection einfach und effizient beladen.

Anschaulich präsentiert von BI -und Big Data-Experten von it-novum, Stefan Müller und Philipp Heck, und moderiert von Prof. Dr. Peter Gluchowski, Mitglied des Vorstands TDWI Germany e.V.

Jetzt teilnehmen

Sie können nicht am Webinar teilnehmen, wollen es dennoch nicht verpassen? Hier können Sie weitere Informationen anfordern und so auf dem Laufenden bleiben!

Jetzt anfordern


Falls Sie uns bereits im Vorfeld Ihre speziellen Problemstellungen oder Fragen senden möchten, schreiben Sie gerne an info(at)tdwi.eu!

Über die Organisatoren des Webinars

TDWI Germany e.V., Internationaler Verein für Business Intelligence und Data Warehousing

Der TDWI Germany e.V. hat sich in den vergangenen Jahren zur zentralen Community für Business Intelligence und Data Warehousing entwickelt. Heute ist der Verein Taktgeber der deutschsprachigen BI- und DW-Szene.

Die Entwicklung innovativer Themen zur Unterstützung der Geschäftstätigkeit auf der einen Seite, und Software, Verfahren und Technologien zur Aufbereitung von Daten und deren Nutzung auf der anderen Seite hat durch Themen wie Big Data oder Industrie 4.0 besondere Priorität erlangt. Als die zentrale Wissens- und Kommunikationsplattform in Europa stellt sich der TDWI e.V. diesen Herausforderungen.

it-novum

Der Bereich BI und Big Data von it-novum ist auf die Integration und Weiterentwicklung von Open Source IT-Lösungen im Geschäftsumfeld spezialisiert - z. B. Datenintegration und Data Warehousing, Reporting und Analysen, Dashboards und Datenvisualisierung. Unsere Expertise für BI- und Big Data-Projekte umfasst ein vollständiges Serviceangebot von Beratung, über  Proof of Concepts, Workshops bis hin zu Systemeinführung und Support.

Dabei setzen wir u.a. auf Pentaho, die führende Open Source-Plattform für Datenintegration, Business Analysen und Datenvisualisierung für tausende Unternehmen weltweit – mit Angeboten, die bis zu 90% günstiger sind als bei traditionellen Business Intelligence- und Big Data-Anbietern.