Skip to main content

Hitachi Data Connector SAP ERP & BW

Wissenswertes zur Technologie des Connectors

Anbindung an SAP ERPAnbindung an SAP BW
Mit dem Hitachi Data Connector for SAP ERP and Business Warehouse von it-novum können Sie sämtliche Daten aus allen SAP-Modulen (z. B. FI, CO, MM, etc.) auslesen. Technisch greift der Connector dabei auf RFC Funktionsbausteine (BAPI’s) und SAP-Tabellen zurück. Dabei können auch komplexe und verschachtelte SAP-Strukturen abgefragt werden (wie z.B. Kostenstellengruppen oder nur zur Laufzeit des SAP-Systems vorhandene Strukturen/Daten). Der Hitachi Data Connector for SAP ERP and Business Warehouse von it-novum bietet eine kostensparende Möglichkeit SAP-Daten durch Off-Load Szenarien aus „teuren“ SAP-Landschaften zu extrahieren und anschließend weiter zu verarbeiten. Der Zugriff auf die BW-Daten ist über zwei verschiedene Szenarien möglich:  Zum einen lassen sich die Daten der Staging-Area durch den Zugriff auf SAP Data Store Objects (DSO) extrahieren, zum anderen über analytische Workloads (Querying) auf die Data Warehouse Layer (SAP Infocubes).

Verschiedene Anwendungsszenarien

SAP Data Integration

Herausforderungen

  • SAP Daten werden für strategische und taktische Entscheidungen benötigt
  • SAP Daten haben proprietäres Format und Struktur
  • SAP Daten sind transaktionsorientiert

Lösungen

  • Aufbereitung und Anreicherung der SAP Daten
  • Speicherung historischer Daten im Data Warehouse / Lake
  • Automatisierte, standardisierte Prozesse

Vorteile

  • Bessere Verfügbarkeit von Daten für Entscheidungen
  • Erhöhung der Datenqualität
  • Reduktion vieler manueller Tätigkeiten

SAP Data Blending

Herausforderungen

  • Daten von SAP und Non SAP System (z.B. NoSQL) sollen zusammengeführt werden
  • Daten sind in heterogenen Silos im Unternehmen gespeichert
  • KPIs benötigen Kontextinformationen

Lösungen

  • Integration der diversen Datenquellen
  • Datenaufbereitung für deskriptive und preskriptive Analysen
  • Self-Service-Analytics für Endanwender

Vorteile

  • Bessere Datennutzung ermöglicht tiefere Einblicke
  • Wettbewerbsvorteile durch maßgeschneiderte Bereitstellung von Informationen

SAP Data Offload

Herausforderungen

  • Steigendes Datenvolumen führt zu höheren Lizenzkosten
  • Daten müssen in Abhängigkeit von Volumen und Performance verteilt werden

Lösungen

  • Implementierung einer Architektur mit SAP Hana und Hadoop
  • Verteilung der Datenspeicherung bzw. -verarbeitung auf die geeignete Plattform

Vorteile

  • Sinkende Lizenzkosten
  • Hadooponomics (Quelle: Forrester)
  • 1 Node HANA ►  750k p.a.
  • 1 Node Hadoop ►  2-3k p.a.
  • Schnellerer Time-to-Value mit Pentaho

Feature Übersicht

Supported PDI Version7.x, 8.x

Connection method

RFC via SAP JCo
Unlimited record lengthvia customization
Search for tables fields in the user interface
(data directory)
Partial table load (filter)
Lookup / join functionalityvia customization
Data type support for negative packed,
floating points and raw hex fields
Chunk loading of big tablesvia customization
Call other RFCs (also for calling functions to read,
lock-up and write back)
SAP ERP Table InputSAP BW/ERP RFC ExecutorSAP BW DSO Input
Metadata Injection
Using Variables
Filter functionality
Selection of fields
Mapping of SAP/Java Datatype
SAP Table Read./.
BAPI Querying./.
Custom SAP Functionality
Multi-Language
Server Mode
Parallel Processing
Advanced-DSO (SAP Hana)./../.

SAP-Daten per Mausklick auswerten und visualisieren

SAP-Daten per Mausklick auswerten und visualisieren

Füllen Sie bitte das folgende Formular aus, um sich die Webinaraufzeichnung anzuschauen.

Anrede:

Vorname*:

Name*:

Firma*:

Job Titel*:

Telefon*:

Geschäftliche E-Mail*:


SAP Analytics

Vermeiden Sie die 7 Stolperfallen bei der SAP-Datenauswertung

Jetzt mehr erfahren

Info

Fragen und Antworten zum SAP Connector

Der Connector arbeitet als schreibgeschützter Remote-Funktionsaufruf. Es können auch Nicht-SAP-Datenquellen schnell, flexibel und einfach kombiniert werden. Die Benutzer erhalten Zugriff auf die Analyse sowohl auf aggregierter als auch auf detaillierter Transaktionsebene.

Erlaubt der Table Input Step auch eine Filterung der Tabelleninhalte im SAP ERP System?

Ja, im Table Input Step ist es möglich Filter anzulegen. Der Filter wird dann bei einem
Tabellenabruf mitgeschickt und im SAP-System ausgeführt.

Ist es auch möglich selbst geschriebene SAP-Funktionsbausteine aufzurufen?

Ja, der vorgestellte RFC Executor Step bietet dem Benutzer ein Interface, beliebige BAPI Bausteine in Pentaho aufzurufen. Auch eine Verkettung von mehreren Funktionsbausteinen ist möglich.

Können mit dem SAP Connector auch Daten aus dem SAP BW System geladen werden, wie z.B. Infocubes?

Ja, sowohl der vorgestellte SAP Table Input als auch der RFC Executor Step ist BW-fähig. Des Weiteren haben wir noch zusätzliche Steps wie bspw. den DSO- und Infocube-Input Step, um auf BW-spezifische Datenstrukturen zugreifen zu können.

Kann der SAP Connector auch auf große Cluster-Tabellen zugreifen, wie z.B. VBRP?

Ja, mit Hilfe des SAP Table Input Steps können Cluster-Tabellen wie die VBRP gelesen werden.

Lassen sich Queries erstellen?

Aktuell Bex Queries, die als Info Provider hinterlegt sind können mit Hilfe des RFC Executor Step durch einen Zugriff auf den entsprechenden BAPI Baustein abgerufen werden. Die Entwicklung eines separaten Step für diesen Use Case ist in unserer Roadmap vorgesehen.

Pentaho von Hitachi Vantara ist die führende Software für Data Integration und Big Data Analytics. Hitachi Vantara bietet ein umfassendes Lösungsportfolio für Big Data, Internet der Dinge und Cloud. it-novum ist Hitachi Vantara-Partner für Big Data Insights and IoT sowie größter Pentaho Implementierungs- und Trainingspartner in EMEA.