Daten: ein besonderer Rohstoff in der Produktion Datenintegration als Grundlage für Industrie 4.0 (Teil 2)

0
28.11.2019ǀ ǀ Big Data

Überblick behalten dank integrierter Datenbasis

Die digitale Produktion kommt nicht ohne Daten aus

Industrie 4.0 ist undenkbar ohne Daten. Im Kern von Smart Manufacturing und anderen Ansätzen liegt die Integration von Informationen aus verschiedenen Quellen und ihre Auswertung. Im zweiten Teil der Serie gehe ich auf die Rolle von Produktionsdaten als Rohstoff für die Wertschöpfungskette ein, sowohl im wörtlichen als auch im übertragenen Sinn.

Die klassische Industrie 3.0 hat einen hohen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Diese mangelnde Integration resultiert beispielsweise in dem typischen Problem, dass verschiedene Sichten auf die Fertigung, ja „unterschiedliche Wahrheiten“ existieren und dadurch suboptimale Entscheidungen getroffen werden. Eine Betrachtung und Verknüpfung von internen wie externen Daten findet häufig nicht statt.

Weniger als ein Prozent der unstrukturierten Daten eines Unternehmens werden gegenwärtig analysiert. Der Anteil unstrukturierter Daten macht allerdings bis zu 80 Prozent aus. Kein Wunder also, wenn man diese Daten „Dark Data“ nennt. Es werden viele Daten erzeugt, die im Anschluss nicht ausgewertet und genutzt werden. Dies liegt beispielsweise daran, dass es viele ältere Anlagen gibt, die eine Übertragung der Daten nicht ohne weiteres zulassen. In solchen Fällen lassen sich die Anlagen durch ein so genanntes Retro-Fitting aufrüsten, so dass auch diese Daten ausgewertet werden können.

Für erfolgreiche Industrie 4.0-Projekte geht es darum, alle Daten aus den relevanten Systemen unterschiedlichster Art und Beschaffenheit zusammenzutragen, zu integrieren und aufzubereiten, um sie beispielsweise für Predictive Maintenance oder Predictive Quality zu nutzen oder die Wertschöpfungskette – auch über mehrere Teilnehmer hinweg – weiter zu optimieren.

Ungeheures Potenzial: Daten in der Produktion

In den Daten von Fertigungsunternehmen steckt ein enormes Potential und dies lässt sich mit geeigneten Applikationen nutzen:

  • Volume – die Datenmenge
    Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. In Summe kommen hier beachtliche Datenmengen zusammen, die in leistungsfähigen Systemen gespeichert werden müssen. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.
  • Velocity – die Übermittlungsgeschwindigkeit
    Der Aspekt Geschwindigkeit ist ebenfalls von zentraler Bedeutung. Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.
  • Variety – die Datenvielfalt
    Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Der nächste Beitrag behandelt die einzelnen Ausbaustufen der Datenintegration, vom Data Warehouse bis zum Data Blending.

Das vollständige Whitepaper zu dieser Blogserie, „Stufen der digitalen Produktion“, können Sie hier herunterladen.

Diese Artikel könnten Sie auch interessieren:

Tags: , , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING