Wissenswertes zur Technologie des Connectors

Anbindung an SAP ERP | Anbindung an SAP BW | |
---|---|---|
Mit dem Hitachi Data Connector for SAP ERP and Business Warehouse von it-novum können Sie sämtliche Daten aus allen SAP-Modulen (z. B. FI, CO, MM, etc.) auslesen. Technisch greift der Connector dabei auf RFC Funktionsbausteine (BAPI’s) und SAP-Tabellen zurück. Dabei können auch komplexe und verschachtelte SAP-Strukturen abgefragt werden (wie z.B. Kostenstellengruppen oder nur zur Laufzeit des SAP-Systems vorhandene Strukturen/Daten). | Der Hitachi Data Connector for SAP ERP and Business Warehouse von it-novum bietet eine kostensparende Möglichkeit SAP-Daten durch Off-Load Szenarien aus „teuren“ SAP-Landschaften zu extrahieren und anschließend weiter zu verarbeiten. Der Zugriff auf die BW-Daten ist über zwei verschiedene Szenarien möglich: Zum einen lassen sich die Daten der Staging-Area durch den Zugriff auf SAP Data Store Objects (DSO) extrahieren, zum anderen über analytische Workloads (Querying) auf die Data Warehouse Layer (SAP Infocubes). |
Verschiedene Anwendungsszenarien
SAP Data Integration
Herausforderungen
- SAP Daten werden für strategische und taktische Entscheidungen benötigt
- SAP Daten haben proprietäres Format und Struktur
- SAP Daten sind transaktionsorientiert
Lösungen
- Aufbereitung und Anreicherung der SAP Daten
- Speicherung historischer Daten im Data Warehouse / Lake
- Automatisierte, standardisierte Prozesse
Vorteile
- Bessere Verfügbarkeit von Daten für Entscheidungen
- Erhöhung der Datenqualität
- Reduktion vieler manueller Tätigkeiten
SAP Data Blending
Herausforderungen
- Daten von SAP und Non SAP System (z.B. NoSQL) sollen zusammengeführt werden
- Daten sind in heterogenen Silos im Unternehmen gespeichert
- KPIs benötigen Kontextinformationen
Lösungen
- Integration der diversen Datenquellen
- Datenaufbereitung für deskriptive und preskriptive Analysen
- Self-Service-Analytics für Endanwender
Vorteile
- Bessere Datennutzung ermöglicht tiefere Einblicke
- Wettbewerbsvorteile durch maßgeschneiderte Bereitstellung von Informationen
SAP Data Offload
Herausforderungen
- Steigendes Datenvolumen führt zu höheren Lizenzkosten
- Daten müssen in Abhängigkeit von Volumen und Performance verteilt werden
Lösungen
- Implementierung einer Architektur mit SAP Hana und Hadoop
- Verteilung der Datenspeicherung bzw. -verarbeitung auf die geeignete Plattform
Vorteile
- Sinkende Lizenzkosten
- Hadooponomics (Quelle: Forrester)
- 1 Node HANA ► 750k p.a.
- 1 Node Hadoop ► 2-3k p.a.
- Schnellerer Time-to-Value mit Pentaho
Feature Übersicht
Supported PDI Version | 7.x, 8.x | ||
Connection method | RFC via SAP JCo | ||
Unlimited record length | via customization | ||
Search for tables fields in the user interface (data directory) | |||
Partial table load (filter) | |||
Lookup / join functionality | via customization | ||
Data type support for negative packed, floating points and raw hex fields | |||
Chunk loading of big tables | via customization | ||
Call other RFCs (also for calling functions to read, lock-up and write back) | |||
SAP ERP Table Input | SAP BW/ERP RFC Executor | SAP BW DSO Input | |
---|---|---|---|
Metadata Injection | |||
Using Variables | |||
Filter functionality | |||
Selection of fields | |||
Mapping of SAP/Java Datatype | |||
SAP Table Read | ./. | ||
BAPI Querying | ./. | ||
Custom SAP Functionality | |||
Multi-Language | |||
Server Mode | |||
Parallel Processing | |||
Advanced-DSO (SAP Hana) | ./. | ./. |
SAP-Daten per Mausklick auswerten und visualisieren
Fragen und Antworten zum SAP Connector
Der Connector arbeitet als schreibgeschützter Remote-Funktionsaufruf. Es können auch Nicht-SAP-Datenquellen schnell, flexibel und einfach kombiniert werden. Die Benutzer erhalten Zugriff auf die Analyse sowohl auf aggregierter als auch auf detaillierter Transaktionsebene.
Erlaubt der Table Input Step auch eine Filterung der Tabelleninhalte im SAP ERP System?
Ja, im Table Input Step ist es möglich Filter anzulegen. Der Filter wird dann bei einem
Tabellenabruf mitgeschickt und im SAP-System ausgeführt.
Ist es auch möglich selbst geschriebene SAP-Funktionsbausteine aufzurufen?
Ja, der vorgestellte RFC Executor Step bietet dem Benutzer ein Interface, beliebige BAPI Bausteine in Pentaho aufzurufen. Auch eine Verkettung von mehreren Funktionsbausteinen ist möglich.
Können mit dem SAP Connector auch Daten aus dem SAP BW System geladen werden, wie z.B. Infocubes?
Ja, sowohl der vorgestellte SAP Table Input als auch der RFC Executor Step ist BW-fähig. Des Weiteren haben wir noch zusätzliche Steps wie bspw. den DSO- und Infocube-Input Step, um auf BW-spezifische Datenstrukturen zugreifen zu können.
Kann der SAP Connector auch auf große Cluster-Tabellen zugreifen, wie z.B. VBRP?
Ja, mit Hilfe des SAP Table Input Steps können Cluster-Tabellen wie die VBRP gelesen werden.
Lassen sich Queries erstellen?
Aktuell Bex Queries, die als Info Provider hinterlegt sind können mit Hilfe des RFC Executor Step durch einen Zugriff auf den entsprechenden BAPI Baustein abgerufen werden. Die Entwicklung eines separaten Step für diesen Use Case ist in unserer Roadmap vorgesehen.
Pentaho von Hitachi Vantara ist die führende Software für Data Integration und Big Data Analytics. Hitachi Vantara bietet ein umfassendes Lösungsportfolio für Big Data, Internet der Dinge und Cloud. it-novum ist Hitachi Vantara-Partner für Big Data Insights and IoT sowie größter Pentaho Implementierungs- und Trainingspartner in EMEA.