Use Cases für die digitale Produktion 2 weitere Datenanwendungsfälle für Smart Manufacturing (Teil 3)

0

Smarte Produktionsprozesse basieren auf integrierten Daten

Smarte Produktionsprozesse basieren auf integrierten Daten

Die Einbindung aller Daten für vollintegrierte Analysen und Prognosen ist das Ziel jeder Smart Manufacturing-Initiative. Im zweiten Beitrag unserer Smart Factory-Serie habe ich bereits zwei Use Cases vorgestellt. Im letzten Artikel der Serie stelle ich zwei weitere Beispiele vor.

Use Case 3: Mit Predictive Maintenance Ausfallzeiten vermeiden

Der dritte Use Case kommt aus dem Agrarbereich. Eigentlich sind die Wartungsintervalle für die chemischen Anlagen eines Düngemittelproduzenten durch den Maschinenlieferanten vorgeschrieben. Doch damit ist der Hersteller noch nicht auf der sicheren Seite. Die Krux bei festen Wartungsintervallen besteht darin, dass sie weder die Maschinenauslastung noch den Verschleiß durch besonders abrasive Düngerbestandteile, etwa bei den Siebmaschinen, berücksichtigt. Die Anlagen sind zwar mit entsprechenden Sensoren ausgestattet, die auftretende Fehler zum Beispiel in der Granulierung sofort erkennen und die Produktion stoppen, aber dann ist eine Produktionsunterbrechung bereits unvermeidlich.

Die vorausschauende Wartung

Es wurde daher eine Lösung benötigt, die vorab anzeigt, wenn sich der Maschinenzustand so verschlechtert, dass ein baldiger Ausfall droht. Dafür sind nicht nur die Maschinendaten, sondern auch Informationen zur Anlagenperipherie einzubeziehen, wie Temperatur oder Luftfeuchtigkeit, die die Fertigungsprozesse signifikant beeinflussen können. Das zugrunde liegende Machine Learning-Modell berücksichtigt also nicht nur die aktuellen Betriebsdaten, sondern auch verfahrenstechnische Zusammenhänge. Alle Messwerte müssen kontinuierlich erfasst werden, um auf Anomalien zeitnah zu reagieren. Diese lassen sich durch den Vergleich mit historischen Daten erkennen. Das System erfasst dabei sogar, welche Einzelteile betroffen und zu reparieren oder auszutauschen sind.

Eingesetzte Technologien

  • Pentaho für Data Integration, Data Preparation und Visualisierung (Dashboarding und Alerting)
  • R und Weka für die Entwicklung der Machine Learning-Modelle
  • Cloudera für Data Lake

Use Case 4: Dank Predictive Quality die Fehlerquote senken

Im vierten Beispiel geht es um Qualitätssicherung. Viele Fehler lassen sich mit dem menschlichen Auge nicht auf Anhieb erkennen. Einen Haarriss bespielweise in einem Gussteil kann der Prüfer schnell übersehen. Ist die Ursache prozessbedingt, dann tritt der gleiche Mangel bei jedem Fertigungsteil auf. Das heißt, bis sich ein Fehler so fortentwickelt hat, dass er zu erkennen ist, läuft die Produktion weiter und stellt fehlerhafte Teile oder gar Ausschuss her. Viele Unternehmen setzen deshalb Sensoren ein, die entsprechende Fehler schon früher erfassen. Doch das war einem namhaften Spritzgusslieferanten nicht genug: Das System sollte erkennen, wie relevant ein Fehler ist, der zunächst noch innerhalb der Toleranz liegt. Wird er sich so weiter entwickeln, dass das Bauteil beschädigt oder gar zerstört wird oder ist er vernachlässigbar?

Der virtuelle Qualitätsmanager lernt mit

Die Lösung ist prädiktive Qualitätssicherung: auf der Grundlage von Prozess- und Betriebsdaten entscheidet das System in Echtzeit, ob die Qualität der Endprodukte akzeptabel sein wird. Es reicht dafür nicht aus, dass es den Fehler selbst bewertet, etwa seine Größe oder Form. Weitere Parameter spielen eine nicht zu vernachlässigende Rolle, so beispielsweise der Einspritzdruck, die Materialtemperatur und der Feuchtegehalt der Umgebung. Das System erfasst, verknüpft und analysiert alle Daten und entwickelt das Prognosemodell ständig weiter – es lernt selbstständig, welche Datenkombination zu welchem Fehler führt. Damit ist es möglich, nicht nur rechtzeitig gegenzusteuern, sondern auch überflüssige Eingriffe in die Produktion zu unterbinden.

Eingesetzte Technologien

  • Pentaho in der Cloud
  • Python für Machine Learning
  • AWS-Infrastruktur für Pentaho auf AWS, in der Cloud

Fazit: Der Praxisbeweis ist erbracht

Viele Hersteller haben ihre Fertigung – von der eigentlichen Produktion bis hin zu vollständigen Wertschöpfungsketten – bereits erfolgreich digitalisiert. Sie gewinnen datenbasierte Erkenntnisse quasi in Echtzeit und können so auf der Grundlage stets aktueller Fakten ihre Entscheidungen treffen. Mit Hilfe fundierter Prognosen lassen sich die Produktqualität, die operative Effizienz und die Anlagenauslastung verbessern und Produktionsausfälle reduzieren — Wettbewerbsvorteile, die es zu nutzen gilt. Wie ist die Situation in Ihrem Unternehmen? Können Sie bereits Fertigungsdaten auswerten? Haben Sie schon alle wichtigen Anwendungen angebunden?

Diese Artikel könnten Sie auch interessieren:

Tags: , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING