
im ProDok 4.0-Projekt startet
Wir lassen zum dritten Mal ein erfolg- und arbeitsreiches Projektjahr hinter uns, worüber wir am 5.12.2018 in Form einer Tagung reflektieren konnten.
Wir – das ist der Projektverbund im BMBF-Projekt ProDok 4.0 – prozessorientierte Dokumentation für Industrie 4.0. Im Verbund arbeiten wir als dictaJet GmbH gemeinsam mit der Hochschule Darmstadt (h_da), der KUKA Deutschland GmbH und der ISRA Surface Vision GmbH an einem Demonstrator, der Informations- und Dokumentationsprozesse für Industrie 4.0 optimieren soll.
In diesem Jahr wollten wir unserem Industriebeirat nicht nur die Projektergebnisse in Form von Präsentationen zeigen, sondern ihm auch die Gelegenheit geben, unsere Entwicklungsarbeit live zu begutachten. Am Nachmittag konnten die Teilnehmerinnen und Teilnehmer unsere drei Demonstratoren anschauen und mit uns diskutieren.
Unser Industriebeirat
Wir durften sowohl bereits bekannte als auch neue Mitglieder zum Kreise unseres diesjährigen Industriebeirates zählen, was uns gleichermaßen freut. Unser Industriebeirat war dieses Jahr wieder breit aufgestellt und repräsentierte die Bereiche Maschinen- und Anlagenbau, Fördertechnik, Technische Dokumentation, Prozess- und Informationsmanagement sowie Forschung.
Im Folgenden fassen wir die wesentlichen Ergebnisse des Tages für Sie zusammen.
Präsentationen der Projektergebnisse am Vormitag
Wie reif ist Ihre Dokumentation für Industrie 4.0? Ein Reifegradmodell
Erstmalig berichtete dictaJet im Rahmen einer Industriebeiratsveranstaltung über Inhalt und Fortschritt ihres Teilvorhabens „Untersuchung des Dokumentationsprozesses im Kontext von Industrie 4.0“. Im Mittelpunkt der diesjährigen Ergebnisse stand die Entwicklung eines Reifegradmodells für die Dokumentation der Industrie 4.0.

Gegen Ende 2016 legte dictaJet die inhaltliche Ausrichtung ihrer Forschungsarbeit auf die Entwicklung eines „Reifegradmodells 4.0“. Zunächst stand die Entwicklung eines geeigneten Messinstrumentes im Vordergrund: Was sollte gemessen werden? Wie sollte es gemessen werden und mit welcher Skala? Im Kontext von Industrie 4.0 steht der physischen Produktionsmaschine deren stets aktuelles virtuelles Abbild zur Verfügung: ihr sogenannter „digitaler Zwilling“. Um den Anforderungen der Industrie 4.0 zu genügen, muss die Technische Dokumentation in den digitalen Zwilling integriert werden. Das entwickelte Reifegradmodell zielt darauf ab, zu messen, wie einerseits der Dokumentationsprozess in einem Unternehmen auf dieses Ziel vorbereitet ist, und wie andererseits die „Integrationstiefe“ zur Einführung einer prozess- und nutzerorientierten, mobilen Dokumentation wie ein ProDok 4.0-System aussieht.
Es entwickelte sich bald die Erkenntnis, dass die Messung sich am besten anhand von Fragen, idealerweise in digitaler Form, vornehmen ließ. Aus diesem Grund wurde dieses Reifegradmodell in Form eines Online-Fragebogens realisiert. Die Fragestellungen um die Integration von Dokumentationsprozesse im Kontext von Industrie 4.0 sind jedoch derart komplex, dass sie nicht mit einem „stand-alone“ Fragebogen realitätsnah zu beantworten sind. Deshalb wird die Durchführung des Fragebogens in ein mehrstufiges Beratungskonzept eingebettet.
Für die noch ausstehende Projektlaufzeit sind ausgiebige Nutzertests, u.a. mit Mitgliedern des Industriebeirats, geplant.
Von der Anomalie-Detektion zur Fehlerdokumentation

In der Präsentation von ISRA SURFACE VISION, Business Unit Glass, wurde der zentrale Forschungsschwerpunkt „Erkennen von Anomalien und Bereitstellung der jeweils passenden Dokumentation“ erläutert. Jens Hülsmann erklärte die Unterschiede zwischen drei typischen Fehlerklassen:
- Die bekannten, spezifischen Fehler, die mit dem direkten Zugriff auf das passende Dokument der technischen Dokumentation verknüpft werden können.
- Die Fehler und Probleme, die mittels Regeln beschreibbar sind. Dabei erfolgt die Fehlererkennung über die automatische Erkennung einer unerwünschten Ereignisabfolge.
- Die unbekannten Fehler (Anomalien). Da diese Fehler „unbekannt“ sind, lassen sie sich zunächst weder identifizieren noch regelhaft beschreiben.
Innerhalb ProDok 4.0 werden im Wesentlichen zwei Methoden der Künstlichen Intelligenz angewandt, die eine, um Anomalien zu detektieren, und die andere, um die passgenaue Dokumentation zu ermitteln.
- Methoden der wissensbasierten Künstlichen Intelligenz wie Ontologien und Complex Event Processing (CEP) sind anwendbar, um Fehler der Klassen vom Typ A und B zu analysieren und mit der ontologiebasiert verwalteten Fehlerdokumentation passgenau zu verknüpfen.
- Methoden des Machine Learning (Neuronale Netze) werden angewandt, um Fehler der Klasse vom Typ C zu detektieren.
In Zusammenarbeit mit der Hochschule Darmstadt, Fachbereich Informatik, wurden insbesondere neuronale Netze in Form von Autoencodern auf ihre Eignung für eine Anomalieerkennung im Anwendungsfall der ISRA SURFACE VISION untersucht. Marco Hutter von der Hochschule Darmstadt erläuterte, wie ein Autoencoder dabei funktioniert:
- Sensordaten werden im Normalbetrieb aufgezeichnet.
- Der Autoencoder komprimiert diese Daten und wird mit ihnen trainiert.
- Anschließend dekomprimiert der Autoencoder die Daten wieder. Durch diese Dekomprimierung können Abweichungen von den „normalen“ Daten durch den Autoencoder erkannt werden.
Nennenswert ist, dass der Autoencoder zunächst kein Domainwissen benötigt, um Abweichungen von den „normalen“ Daten zu erkennen. Allerdings bleibt Domainwissen im Anschluss unerlässlich, um diese Abweichungen richtig zu deuten: Handelt es sich dabei wirklich um eine Anomalie oder ist die hier erkannte Abweichung im Kontext doch als „normal“ zu bewerten?
Auch die Vorgehensweise von Fehlererkennungen mittels CEP und die Wiedergewinnung der passgenauen Dokumentation mittels Ontologien innerhalb ProDok 4.0 wurde beschrieben. Da dieses Vorgehen ebenfalls im Anwendungsfall von KUKA angewandt wird, zeigt sich hier das verbindende Element des Gesamtforschungsprojektes über die Beteiligung der Hochschule Darmstadt – nämlich der Einsatz von semantischen Technologien wie Ontologien und CEP.
Dokumentation für fehlgeschlagene Prozesse in der sensitiven Robotik

Im Vortrag zum Anwendungsfall der KUKA Deutschland GmbH ging es vorrangig um die Herausforderung, die die Dokumentation komplexer Prozesse in der sensitiven Robotik darstellt. Der von KUKA untersuchte Anwendungsfall ist der einer Schaltschrankmontage mit dem sensitiven Leichtbauroboter LBR iiwa. Schlägt die Montage eines Werkstücks auf eine Hutschiene fehl, erfolgt die Identifikation der relevanten Ursachen- und Lösungsdokumentation über die Abbildung des Kontextes in das „Symptom-Cause-Solution“ (SCS)-Triplet. Über das Triplet können Ursachen für auftretende Symptome identifiziert und die passende Lösungsdokumentation bereitgestellt werden.
Der sensitive Roboterprozess im Anwendungsfall lässt sich wie folgt beschreiben:
- Aufnahme des Bauteils mit Universalgreifer
- Hinführen zur Hutschiene
- Kraftgeregeltes „Einschnappen“ des Bauteils
- Zusammenschieben der Bauteile auf der Hutschiene
- Im Fehlerfall: Ablage des nicht korrekt gesetzten Bauteils in den roten Behälter
Mehrere Ursachen wurden identifiziert, die zu einer fehlgeschlagenen Durchführung des Prozesses durch den KUKA LBR iiwa führen können, z.B. Bauteil nicht vorhanden, Schnappmechanismus des Bauteils defekt, Montageposition belegt, Hutschiene nicht vorhanden oder unpassender Montagewinkel.
Der Lösungsansatz besteht im kontinuierlichen Sammeln von Daten aus den verschiedenen Komponenten des Roboters und dem anschließenden semantischen Lifting der Rohdaten zu höherwertigen (symbolischen) Repräsentation von (Problem-)Situationen. Dabei ist die Unterscheidung zwischen applikationsspezifischen und applikationsunabhängigen Situationsbeschreibungen sehr wichtig. Im nächsten Schritt erfolgt eine eine Verknüpfung der Situation mit möglichen Problemursachen und der jeweiligen Lösungsdokumentation.
Das semantische Lifting basiert auf vier Säulen (Methoden) sowie drei Phasen zur Identifikation applikationsspezifischer Ursachen von fehlgeschlagenen Prozessen in der Robotik. Dr. Jürgen Bock von KUKA erläuterte die Methoden des Machine Learnings und der Data Analytics, während Ulrich Beez von der Hochschule Darmstadt die CEP-Methoden beschrieb, die eingesetzt werden, um von gesammelten Maschinendaten zu einer applikationsspezifischen Ursache schließen zu können – über die Identifikation von „situation primitives“ und deren Aggregation und Klassifikation zu „complex situations“. Sind mögliche applikationsspezifische Ursachen einmal identifiziert, kann ProDok 4.0 über seine Ontologie der Triplets „Symptom-Cause-Solution“ die Wiedergewinnung der passgenauen Dokumentation starten.