Industrie 4.0 ohne Daten

Industrie 4.0 ohne Daten

Was auf den ersten Blick nach einem Widerspruch in sich selbst tönt, ist gemäss einer informellen Umfrage unter Kollegen offenbar gar nicht so selten: angewandte Forschungsprojekte in Industrie 4.0 oder Big Data – ohne Daten. Oft passiert es, dass der Industriepartner viel weniger Daten liefert, als im Projektplan vorgesehen waren, oder dass diese Daten nicht die nötige Qualität besitzen. Die Gründe für den ausgetrockneten Informationsfluss mögen von Projekt zu Projekt unterschiedlich sein, aber wenn auch intensives Nachbohren nichts mehr hilft, gibt es nun einen Beitrag eines ZHAW-Teams, wie man in solchen Situationen doch noch weiter kommen könnte.

Bei diesem Projekt ging es ursprünglich darum, «Komplexität» in einem industriellen Produktionsprozess möglichst automatisiert zu messen. Das Ziel war, «schlechte» Komplexität (Mehrspurigkeiten, Organisationsverluste, etc) zu reduzieren, ohne die «gute» Komplexität, welche zur Erfüllung der Kundenwünsche nötig ist, zu gefährden. Da der Industriepartner jedoch bis zum Projektende nicht ausreichend Daten der zu untersuchenden Produktionsprozesse lieferte, musste ein Plan B entwickelt werden.

Der Leitgedanke bei der Entwicklung eines solchen «datenlosen» Systems war, dass die fehlenden Daten, falls sie nachgeliefert würden, möglichst einfach integriert werden können. Als Schnittstelle wurde deshalb ein Rohdatenformat in Form von «timestamped events» aus einem Produktionsprozess gewählt, wie sie typischerweise aus Industrie 4.0 Prozessen zur Verfügung stehen.

Auf der einen Seite wurde dann aus vorhandenen high-level Beschreibungen eine Simulation des anvisierten Produktionsprozesses erstellt, in abstrahierter und vereinfachter, aber später gut erweiterbarer Form eines «Job-Shops». Diese virtuelle Produktionsanlage lieferte dann die benötigten Daten in Form von Prozesschritten mit zugehörigem Zeitstempel, welche schliesslich auf der anderen Seite durch ein autoencoder-basiertes neuronales Netzwerk im Hinblick auf ihre Komplexität analysiert wurden.

Dieser Ansatz erlaubte es einerseits, ein vollständig automatisiertes Verfahren zur Berechnung der «Komplexität» von solchen Produktionsprozessen zu entwickeln, das vorgeschlagene neue Komplexitätsmass zu validieren und dieses mit bekannten Methoden aus der Literatur zu vergleichen, auch ohne dass die tatsächlichen Daten verfügbar waren. Andererseits kann das System bei Ankunft dieser Daten mit geringem Aufwand angepasst und für den Kunden nachvollziehbar mit dem rein virtuellen Szenario verglichen werden.

Im Detail nachzulesen ist dieser Beitrag im bald erscheinenden Buchkapitel [1]. Für den Fall, dass wieder einmal ein Industrie 4.0 Projektteam ohne Daten bleibt.

[1] Hollenstein, L., Lichtensteiger, L., Stadelmann, T., Amirian, M., Budde, L., Meierhofer, J., Füchslin, R. M., and Friedli, T. (2018). Unsupervised Learning and Simulation for Complexity Management in Business Operations. In: Braschler, M., Stadelmann, T. & Stockinger, K. (Eds.) (2018). “Applied Data Science – Lessons Learned for the Data-Driven Business”, Berlin, Heidelberg: Springer, expected 2018.

 

Blogautor:

Lukas Lichtensteiger


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert