Den Datenschatz im SAP-System heben Teil 3: Der Pentaho-SAP-Connector – Radar- und Bergungsgerät in einem

0
Den Datenschatz heben

SAP ist voll von (Daten)Schätzen

Um Pentaho Data Integration SAP-Daten zur Verfügung stellen zu können, braucht es einen Connector, der die Daten von SAP nach Pentaho verschiebt. Die auf dem Markt erhältlichen Lösungen haben seit längerem kein Update mehr erhalten und sind daher für die neueren Pentaho-Versionen nutzlos. Deshalb haben wir uns zu einer Eigenentwicklung entschlossen: unser Pentaho/SAP Connector punktet mit einer einfach zu bedienenden Oberfläche und hoher Funktionalität.

Mit dem Pentaho/SAP Connector lassen sich Anwendungsszenarien und Use Cases – wie beispielsweise das Onboarding, Blending oder Offloading von SAP-Daten – unkompliziert und kosteneffizient realisieren. Er unterstützt die SAP-Steps ERP Table Input, BW/ERP RFC Executor, BW DSO Input und BW Infocube Input.

Auf jedem Dampfer einsatzfähig

Der Pentaho/SAP Connector kann sämtliche Daten aus allen SAP-Modulen auslesen. Technisch greift er dabei auf RFC-Funktionsbausteine (BAPIs) und SAP-Tabellen zurück. Dabei können komplexe und verschachtelte SAP-Strukturen ebenso abgefragt werden wie nur zur Laufzeit des SAP-Systems vorhandene Strukturen und Daten. Der Datenzugriff ist über zwei verschiedene Szenarien möglich: Zum einen lassen sich die Daten der Staging Area durch den Zugriff auf SAP Data Store Objects (DSO) extrahieren, zum anderen greift der Connector über analytische Workloads (Querying) auf die Data Warehouse Layer (SAP-Infocubes) zu.

Der Kapitän und seine Crew sind immer im Bilde

Das Management kann sich jederzeit auf Knopfdruck eine aktuelle Datenanalyse durch Pentaho anzeigen lassen. Diese Automatisierung reduziert die manuellen Tätigkeiten beträchtlich und sorgt dafür, dass im Bruchteil eines Augenblicks jede mögliche Analyse zur Verfügung steht.

Die Anzeigetafel nach eigenem Gusto gestalten

Bei der Datenintegration werden die SAP-Daten zunächst in ein nutzerfreundliches Format umgewandelt und in der Staging Area abgelegt. Dabei greift der Connector auf die in SAP hinterlegten Metadaten zu. Der Nutzer erhält neben der technischen Feldbeschreibung auch den entsprechenden fachlichen Input. Bei der Entwicklung haben wir besonderen Wert auf die Nutzerfreundlichkeit gelegt: Sowohl die Anzeige der Datenbankfelder als auch die Preview-Funktion lassen sich nach eigenen Vorlieben konfigurieren. Der Nutzer kann unter anderem einen Filter anlegen, der dann bei einem Tabellenabruf mitgeschickt und im SAP-System ausgeführt wird. Selbst Cluster-Tabellen wie die VBRP können ausgelesen werden. Historische Daten sind in einer für den Nutzer nachvollziehbaren, logischen Struktur im Data Warehouse abgelegt.

Informationen nicht nur vom Unterdeck

Beim Data Blending im SAP BW/ERP RFC Executor werden SAP-Daten mit Daten aus anderen Systemen zusammengeführt. Dabei handelt es sich nicht nur um verschiedene Datenquellen, auch die Dateiformate und die Datenarten können sich unterscheiden. Denkbar wäre zum Beispiel die Verknüpfung von SAP-Daten mit einer NoSQL-Datenbank, um die Aussagekraft von KPIs durch Kontextinformationen zu erhöhen. Die aufbereiteten Daten dienen sowohl deskriptiven als auch prädiktiven Analysen. Es ist auch möglich, selbst geschriebene SAP-Funktionsbausteine wie BAPI-Bausteine aufzurufen. Sogar eine Verkettung von mehreren Funktionsbausteinen ist machbar. Der Connector kann überdies auf BW-spezifische Datenstrukturen wie Infocubes und DSO zugreifen.

Um im Meer an Information nicht unterzugehen

Um bei steigenden Datenvolumen höhere Lizenzkosten zu vermeiden und um die Kapazität des Rechensystems nicht an die Grenzen zu bringen, klassifiziert man die Daten nach ihrem Volumen und der Zugriffshäufigkeit in heiße, warme und kalten Daten. Dieser Data Offload geschieht im SAP BW DSO Input Step. Als heiß werden Daten bezeichnet, wenn sie fortwährend in Benutzung sind. Davon gibt es im normalen Geschäftsbetrieb eine eher geringe Menge. Die meisten sind dagegen kalte Daten: sie werden nur sporadisch benötigt. Man sollte sie daher auf geeigneten Plattformen außerhalb des ERP-Systems ablegen, etwa in Hadoop. Der entsprechende Baustein des Connectors macht genau dies möglich.

Kurs halten

Die Funktionalität des Pentaho/SAP Connectors ist State of the Art. Wir bauen ihn derzeit für weitere SAP Steps kontinuierlich aus. Da Pentaho ständig weiter entwickelt wird, sorgen wir dafür, dass er auch mit neuen Versionen von Pentaho kompatibel ist.

Laden Sie sich die ausführliche Broschüre zu dem Thema herunter: Mit Data Analytics SAP-Daten vergolden

Diese Artikel könnten Sie auch interessieren:

Tags: , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING