Daten in der digitalen Produktion Vier Datenanwendungsfälle für die Smart Factory (Teil 1)

0

Überblick behalten dank integrierter Datenbasis

Daten sind essentiell für eine optimale Fertigungskette

Welche Chancen hat die Digitalisierung für produzierende Unternehmen? Wo können in der Fertigung Potenziale ausgeschöpft werden durch die geschickte Verknüpfung von Daten? Vier Usecases verdeutlichen den Nutzen, den ein integrierter Ansatz für Daten aus der Fertigung hat.

Fundierte Entscheidungen für die Produktion lassen sich nur auf der Grundlage der richtigen und vollständigen Informationen treffen. Dabei ist es zunächst erst einmal zweitrangig, ob es sich um einen Menschen oder einen Algorithmus handelt, der aus der Datenanalyse die weitere Vorgehensweise ableitet. Es gilt, eine 360°-Sicht auf die Fertigungskette zu erhalten. Das gelingt nur, wenn Unternehmen ihre vorhandenen Datensilos aufbrechen und alle relevanten Informationen miteinander verknüpfen (alle Usecases gibt es zusammengefasst in der Broschüre „Chancen in der digitalen Produktion nutzen“.

Erst diese Verknüpfung schafft die Grundlage für weitreichendere prädiktive und präskriptive Auswertungen, sowie datengetriebene Entscheidungen und umfassende Diagnosen. Zumal die Produktion nicht losgelöst von anderen Bereichen betrachtet werden darf. Schließlich haben beispielsweise der Einkauf, der Vertrieb, die Logistik und die Instandsetzung direkten Einfluss darauf, ob die Produktion reibungslos von statten gehen kann.

Daten verknüpfen als oberstes Ziel

Ziel ist es also, die unterschiedlichsten Daten aus einer Vielzahl von Quellen miteinander zu verknüpfen und die zumeist sehr großen Datenmengen in Echtzeit auszuwerten. Dadurch lassen sich verborgene Zusammenhänge und Muster erkennen und daraus faktenbasierte Prognosen ableiten.

Viele Faktoren können die laufende Produktion beeinträchtigen, so etwa durch einen Maschinenausfall, Ausschuss, Lieferverzögerungen bei Roh-, Hilfs-, und Betriebsstoffen (RHB) oder durch die Überauslastung einzelner Produktionsmittel. Diese Schwierigkeiten effizient zu beheben ist gut, sie vorauszusehen und zu verhindern ist besser:

1. Vorbeugen und vorbereitet sein

Im ersten Schritt muss man Sensoren in Produktionsanlagen installieren, die permanent und in Echtzeit Daten über die unterschiedlichsten Maschinenparameter liefern. Anschließend muss man für die wesentlichen Störfallszenarien herausfinden, welche Daten relevant sind und wo man sie findet. Treten beispielsweise Anomalien bei Messgrößen auf, so können diese ein Indiz dafür sein, dass sich der Zustand der Anlage verschlechtert, selbst wenn diese Werte noch innerhalb der Toleranz sind. Es ist nun an den Analysetools, aus der Kombination dieser und weiterer Daten Muster zu erkennen und so das künftige Maschinenverhalten korrekt vorauszusagen. Damit haben es die Verantwortlichen in der Hand, sich rechtzeitig um Ersatzteile zu kümmern oder eine Wartung durchzuführen, bevor die Maschine komplett ausfällt. Am besten zu einem selbst gewählten Zeitpunkt und nicht ungeplant.

2. Alles im Blick haben

Immer noch liegen in vielen Unternehmen unstrukturierte Daten vor, die sich in dieser Form kaum nutzen lassen wie Video- oder Logdaten. Weiteres Potential wird durch die starke Fragmentierung der Daten verschenkt, die mangels Vernetzung in Datensilos liegen. Deshalb fehlt häufig eine ganzheitliche Betrachtung. Das führt dazu, dass es im Unternehmen verschiedene Sichtweisen und Schwerpunkte gibt, je nachdem welche Einzeldaten eine Abteilung zur Verfügung hat. Geht es dem Logistikleiter beispielsweise hauptsächlich darum, den Fuhrpark best möglich auszulasten, so ist dem Verantwortlichen für das Lager daran gelegen, die Platzkapazität möglichst optimal zu gestalten, während der Einkauf die Beziehungen zu den Lieferanten im Blick hat.

In kleineren Unternehmen lassen sich diese Fragen sicher durch direkte Absprachen klären. Sind jedoch mehrere Standorte involviert oder hat die Fabrik eine entsprechende Größe, muss eine vollständige Datenverfügbarkeit in Echtzeit für alle Betroffenen gewährleistet sein. Ein weiterer Schritt in Richtung Produktionsdigitalisierung besteht deshalb darin, alle Daten in einem Data Warehouse oder Data Lake zusammenzuführen. Analytics Software ist dann in der Lage, große Datenmengen in Echtzeit zu analysieren und Handlungsempfehlungen just-in-time abzugeben.

3. Unter vielen Optionen die Beste herausfiltern

Mehr noch: mit Analyselösungen/Analytics lassen sich auch verschiedene Szenarien schnell und unkompliziert miteinander vergleichen. Etwa, wenn ein Engpass in der Anlagenverfügbarkeit auftritt und entschieden werden muss, in welcher Reihenfolge die Fertigungsaufträge abzuarbeiten sind. Dabei spielen Vertragsbedingungen wie Konventionalstrafen ebenso eine Rolle wie eine A-B-C-Einstufung des Kunden oder logistische Fragen. Voraussetzung ist, dass ERP-System und Fertigungsplanung miteinander verbunden und die Daten integriert sind. Das System wertet alle Informationen aus und gibt mit hoher Wahrscheinlichkeit an, bei welchem Auftrag ein verzögerter Liefertermin zum größten Schaden für das Unternehmen führt. Dieser Auftrag ist dann vordringlich zu erfüllen.

4. Eine Vergleichbarkeit der Werke herstellen

Hat ein Unternehmen mehrere Werke zumal in verschiedenen Ländern, so ist es dem Management oft nur schwer oder nur mit hohem Aufwand möglich, die Performance der verschiedenen Standorte miteinander zu vergleichen. Einerseits, weil jede Tochter ihre eigenen Datensilos hat, also der direkte Zugriff auf die Informationen fehlt. Andererseits aber auch, weil sich KPIs unterschiedlich ermitteln lassen und es deshalb Abweichungen in ihrem Aussagegehalt gibt. Mit einer unternehmensweiten Datenintegration gehören die Schwierigkeiten der Vergangenheit an – alle Parameter, etwa Durchlaufzeiten, Ausschussquote oder Produktionseffektivität, werden auf einheitlicher Datenbasis und nach identischen Standards berechnet.

Im 2. Teil beschreibe ich die vier Usecases, bei denen die Digitalisierung neue Geschäftspotenziale freisetzt.

Diese Artikel könnten Sie auch interessieren:

Tags: , , ,

Stefan Müller - Director Big Data Analytics
Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management ist Stefan Müller bei it-novum gelandet, wo er den Bereich Big Data Analytics aufgebaut hat. Stefans Herz schlägt für die Möglichkeiten, die die BI-Suiten von Pentaho und Jedox bieten, er beschäftigt sich aber auch mit anderen Open Source BI-Lösungen. Seine Begeisterung für Business Open Source im Bereich Datenintelligenz gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.
Webprofile von Stefan: Twitter, LinkedIn, XING