Ausbaustufen bei der Datenintegration in der Fertigung Datenintegration als Grundlage für Industrie 4.0 (Teil 3)

2

Blauer Baum

Datenfluss aller wichtigen Datenquellen

Während sich der zweite Teil der Serie zum Stellenwert von Datenintegration in der Fertigung um Produktionsdaten in der Wertschöpfungskette drehte, geht es im dritten Teil um die einzelnen Ausbaustufen bei der Zusammenführung aller wichtigen Datenquellen zu einem durchgehenden Datenfluss.

Ein optimaler Datenfluss versorgt alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten. Dafür lassen sich folgende Stufen identifizieren:

1. Data Warehouse

Fertigungsunternehmen, die am Anfang von Digitalisierungs- und Industrie 4.0-Initiativen stehen, sind zum einen mit einer Vielzahl von Datensilos in ihrer Organisation konfrontiert. Zum anderen drückt die Problematik von Dark Data, da Informationen von Maschinen und Anlagen nur schwer zugänglich sind oder erst entsprechende Sensorik angebracht werden muss. Auf dieser Stufe ist es das Ziel, manuelle Arbeit zu reduzieren und sich auf die Optimierung von kritischen Prozessen zu konzentrieren. Für diese Prozesse ist eine Datenanbindung zu schaffen.

Sodann geht es darum, die Anlagen und Prozesse weiter zu digitalisieren und dadurch die Verfügbarkeit von Daten zu erhöhen. Neben der Integration von Systemen im Shopfloor müssen sukzessive auch weitere IT-Systeme auf Ebene des Werkes und der gesamten Organisation angebunden werden.

Auf dieser Ebene findet man klassische Data Warehouse-Implementierungen, die Daten aus den unterschiedlichen Systemen automatisiert zusammenführen, aggregieren und Kennzahlen bereitstellen. Die Daten sind in der Regel strukturiert und stammen zum Beispiel aus dem Enterprise Resource Planning-System (ERP) oder aus Manufacturing Execution-Systemen (MES). ERP-Systeme enthalten alle wesentlichen Geschäftsinformationen wie beispielsweise zukünftige Kundenaufträge. Bringt man die Daten dieser beiden Systeme zusammen, erhöht sich ihr Informationsgehalt deutlich.

Auf dieser Stufe geht es beispielsweise um den Austausch von Informationen mit Lieferanten und anderen externen Teilnehmern der Wertschöpfungskette oder darum, die Genauigkeit von Forecasts und Prognosen zu erhöhen.

2. Data Lake

In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden.

Relationale Datenbanken, wie aus dem Data Warehouse-Umfeld bekannt, sind dafür nicht geeignet. Sensordaten, aber auch Video- oder Bilddaten können stattdessen in Data Lakes im großen Umfang gespeichert und analysiert werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

Die Kombination von Informationen aus dem Data Warehouse/Data Lake unterstützt wiederum den Gewinn neuer Erkenntnisse: werden Sensordaten im Rahmen von Predictive Maintenance zur Erkennung möglicher Ausfälle genutzt, bringt die Kombination mit Aufträgen oder Wartungsplänen aus dem Data Warehouse ein ganzheitlicheres Bild der Situation.

3. Near Realtime

Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics „on the Edge“ ermöglicht Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

Der Einsatz von Edge Analytics im Rahmen der industriellen Automatisierung lohnt sich besonders, wenn folgende Bedingungen vorliegen:

  • die Latenzzeit der Datenübertragung zwischen Sensor und Cloud ist zu hoch
  • die Maschinen sind nicht permanent mit einem Netzwerk verbunden
  • der Transfer sämtlicher Daten ins Rechenzentrum wird zu teuer oder ist technologisch nicht möglich

4. Data Blending

Data Blending bezeichnet die letzte Stufe der Datenintegration. Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden. Data Blending wird in Produktionsprozessen genutzt, um Maschinen- und Sensordaten mit anderen Datenbeständen z.B. aus SAP-Systemen zu mischen, um Ausfallzeiten und Kosten zu minimieren.

Im vierten und letzten Teil der Serie wird es um die einzelnen Stufen der Datenauswertung gehen: von der Analyse bis zur Handlungsempfehlung.

Das vollständige Whitepaper zu dieser Blogserie, „Stufen der digitalen Produktion“, können Sie hier herunterladen.

Diese Artikel könnten Sie auch interessieren:

Tags: , , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING