Skip to main content

Pentaho Data Integration Advanced (DI1500)

Pentaho Kurs-ID:DI1500
Dauer:2 Tage

Kursbeschreibung

Dieser Kurs baut auf grundlegenden Kenntnissen der Pentaho Data Integration (PDI) auf.

Über die Grundlagen der Erstellung von Transformationen und Jobs hinaus, lernen Sie, wie Sie PDI in realen Projektszenarien einsetzen können. Sie fügen PDI als Datenquelle für eine Vielzahl von Visualisierungsoptionen hinzu, nutzen die Streaming-Funktionen von PDI, erstellen Transformationen mit Metadata Injection sowie skalieren und verbessern die Performance Ihrer PDI-Lösung.

Ihr Nutzen vom Kurs

  • Steigerung der Produktivität durch das Erlernen fortschrittlicher PDI-Techniken, die die Effizienz verbessern und die eigenen Fähigkeiten erweitern.
  • Interaktive, praktische Trainingsmaterialien verbessern die Kompetenzentwicklung erheblich.

    Sie möchten an dieser Inhouse-Schulung teilnehmen?

    Anrede:

    Vorname*:

    Name*:

    Firma*:

    Job Titel*:

    Telefon*:

    Kommentar*:

    Geschäftliche E-Mail*:

    Dieser Kurs konzentriert sich stark auf Praxisübungen, um Ihnen echte hands-on-Erfahrungen der in jedem Abschnitt behandelten Themen zu ermöglichen.

    Lernziele

    Nach Abschluss dieses Kurses sind Sie in der Lage:

    • den Projektlebenszyklus in verschiedenen Entwicklungsumgebungen zu verwalten.
    • PDI als Datenquelle für Pentaho Report Designer, CDA, Data Services und Machine Learning-Anwendungen zu nutzen.
    • Die Streaming-Funktionen von PDI mit MQTT und Kafka zu nutzen.
    • manuelle Aufgaben zu reduzieren, indem Sie Metadata Injection nutzen.
    • PDI mit Carte-Clustering, Überwachung und Partitionierung zu skalieren.
    • PDI mit Checkpoints und Logging zu optimieren

    Zielgruppe

      Dieser Kurs ist Teil der Data Analyst Ausbildungsreihe. Teilnehmer sollten zuvor den Kurs DI1000 Pentaho Data Integration Fundamentals absolviert haben. Vergleichbare PDI-Erfahrungen sind ebenfalls ausreichend. In diesem Kurs werden keine grundlegenden Konzepte behandelt.

      Voraussetzungen

      • Windows XP, Vista, 7 Desktop-Betriebssystem
      • RAM: mindestens 4 GB
      • Festplattenspeicher: mindestens 2 GB freier Festplattenspeicher (für Software und natürlich Dateien)
      • Prozessor: Dual-Core-AMD64 oder Intel EM64T
      • DVD-Laufwerk

      Kursablauf

      Tag 1
      Modul 1                           Meta Data-Injection
      Lektion                            Überblick über Meta Data-Injections Konzepte
      Lektion                            Meta Data-Injections Workflows
      Demo                               Standard Metadata-Injection
      Demo                               Push Meta Data-Injection
      Demo                               Pull Meta Data-Injection
      Demo                               Push/Pull Meta Data Injection
      Übung                              Push/Pull Meta Data Injection
      Übung                              Phasen Meta Data Injection
      Demo                               Verwendung von Filtern bei der Meta Data Injection (2-Phasen-Meta Data Injection)
      Übung                              Fallstudie zum Einzelhandelsumsatz
      Modul 2                           PDI als Datenquelle
      Lektion                            Report Designer
      Demo                               Pentaho Reporting Step
      Demo                               Pentaho Reporting - Parameter
      Demo                               Report Designer - PDI-Transformation
      Lektion                            Community Data Access
      Demo                               Community Data Access
      Lektion                            Datendienste
      Demo                               Konfigurieren eines Twitter-Datendienstes
      Lektion                            Maschinelles Lernen
      Demo                               Betrug im Einzelhandel
      Tag 2
      Modul 3                           Data-Streaming
      Lektion                            MQTT
      Demo                               MQTT mit GPS-Daten
      Lektion                            Kafka
      Demo                               Mit Kafka einen Twitter Feed in PDI nutzen
      Modul 4                           Skalierbarkeit
      Lektion                            Clustering von Carte Servern
      Demo                               Master- und Slave-Serverknoten konfigurieren
      Demo                               Überwachung von Master- und Slave-Serverknoten
      Demo                               Round-Robin vs. Kopieren
      Demo                               Clustering und Group by
      Lektion                            Partitionierung
      Demo                               Stream-Partitionierung
      Lektion                            Checkpoints
      Übung                              Verwenden von Checkpoints zum Neustart von Jobs
      Übung                              Verwendung von Checkpoints

      Sie möchten an dieser Inhouse-Schulung teilnehmen?

      Anrede:

      Vorname*:

      Name*:

      Firma*:

      Job Titel*:

      Telefon*:

      Kommentar*:

      Geschäftliche E-Mail*: