Prädiktive Qualitätssicherung mit Prozess- und Betriebsdaten

Predictive Quality

Innovative Produktideen und hohe Ansprüche an die Produktqualität erfordern häufig komplexe Produktionsprozesse, die sich am Rande des technologisch Machbaren bewegen. Kostenintensive 100%-Prüfungen und vergleichsweise hohe Ausschussraten sind die Folge. Mit einer ´Prädiktiven Qualitätssicherung´ auf Basis von Prozess- und Betriebsdaten können diese Kosten reduziert werden. Dazu wird im Produktionstakt bereits vorausschauend - also quasi in Echtzeit - auf die Qualität der gefertigten Produkte geschlossen und so die Qualitätsregelschleife deutlich verkürzt.


Jeder Fertigungsprozess wird so stabil wie möglich eingerichtet, um Ausschuss und Nachprüfungen zu vermeiden, dennoch geht die Gleichung in vielen Fällen nicht auf. Zwar bewegen sich alle Prozessparameter innerhalb der Toleranzgrenzen, aber Nacharbeit und Verwurf sind trotzdem nicht bei null. Zudem sind die Prozesszusammenhänge oft komplex und die Zahl der möglichen Einflussparameter hoch. Hier können selbst Prozessexperten häufig nicht eindeutig klären, welche Parameter wie verändert werden müssen, um dem Ziel Null-Fehler näherzukommen. Ein typisches Beispiel für derartige Fertigungsszenarien ist der Spritzguss großer und (halb-)transparenter Bauteile, die ohne Transparenzfehler und mit makellosen Oberflächen gefertigt werden müssen. Manuell durchgeführte Prüfungen an 100 Prozent der gefertigten Teile sind dort kaum zu umgehen.

Datenbasierter Lösungsansatz

Soll dieser Aufwand reduziert und indirekt auf Basis der aktuellen Produktionsparameter eine automatisierte IO/NIO-Aussage getroffen werden, sind zunächst alle Einflussgrößen zu betrachten. In erster Line sind dies die Parameter des Spritzgussprozesses selbst, wie etwa die verschiedenen Einspritzdrücke und Temperaturen des aufgeschmolzenen Materials. Diese Parameter regelt jede Spritzgussanlage selbst innerhalb spezifizierter Grenzen, was aber sporadisch trotzdem zu Produktionsausschuss führt. Allerdings haben auch zahlreiche weitere Parameter Einfluss auf die Produktqualität. Von aktuellen Eigenschaften des eingesetzten Materials, wie Feuchtegehalt und Lagertemperatur, über die Werte der Hallenklimatisierung bis hin zur Einsatzhistorie des Spritzgusswerkzeuges reicht die Liste der möglichen Parameter. Für einen datenbasierten Lösungsansatz ist es daher sinnvoll, zunächst alle überwachbaren Parameter zu erfassen, unabhängig davon, ob ihr Einfluss offensichtlich ist oder nur theoretisch vermutet wird. Neben der Erfassung von Online-Daten aus bestehenden Systemen sind auch viele Offline-Datenquellen relevant, z.B. aus Schichtbüchern, Material- und Bauteil-Bemusterungen oder Qualitätsmeldungen aus nachgelagerten Prozessen. Als nächster Verarbeitungsschritt in der digitalen Wertschöpfungskette schließt sich die automatisierte Bereinigung und Harmonisierung der erfassten Daten an. Datenspeicherung, Analysefunktionen, Entscheidungsaufbereitung und Visualisierungen für die Anwender sind weitere Schritte.

Anzeige

Machine Learning und Big Data

Um eine industriell einsetzbare Plattform darzustellen, muss diese Verarbeitungskette verschiedenen Kriterien genügen. Neben einem modularen Aufbau und den Verzicht auf proprietäre Software ist eine hohe Skalierbarkeit für die echtzeitnahe Verarbeitung großer Datenmengen erforderlich. Weiterhin müssen, nicht nur für das Beispiel einer vorausschauenden Qualitätssicherung, Werkzeuge für die Erstellung valider Prognosemodelle verfügbar sein. Als technologische Plattform bietet sich das Apache Hadoop Eco-System an, das als freie Software-Lizenz verfügbar ist. Aus diesem Eco-System sind für den genannten Anwendungsfall nur einige Komponenten erforderlich. Als wesentliche Komponente ist das Kafka-Streaming zu nennen, ein Baustein, mit dem sich große Datenmengen in Echtzeit akquirieren und an die eigentlichen funktionalen Anwendungen weitergeben lassen. Die Daten aus den verschiedenen - in der industriellen Praxis recht heterogenen - Quellen zu bereinigen und zu harmonisieren übernehmen dabei sogenannte Producer. Die Datenweitergabe erfolgt durch Bausteine, die sich Consumer nennen. Eine Schema Registry enthält dabei stets den aktuellen semantischen Bezug zwischen den Daten. Durch diese modulare Architektur lässt sich die Plattform leicht an die Erfordernisse verschiedener Fertigungsprozesse anpassen. Das Erstellen valider Prognose-Modelle erfordert teilweise lange Betrachtungszeiträume des Produktionsgeschehens. Um Daten dafür vorzuhalten bietet sich die Couchbase-DB an, eine NOtonlySQL-Datenbank, die insbesondere bei den in der Produktion häufig vorkommenden langen Prozesswertreihen deutliche Performance-Vorteile bietet. Mit Spark Machine Learning, der Statistik-Sprache R und fallweise mit Hilfe von SQL-Programmierung, werden aus dieser Datenbank die Prognose-Modelle erstellt und bei Bedarf den aktuellen Produktionsprozessen angepasst. Diese Modelle finden nun ihre Anwendung in dem Echtzeitdatenstrom, sodass bei Qualitätsabweichungen Fertigungseingriffe sofort ausgelöst oder Mitarbeiter benachrichtigt werden können.

Prognose-Modelle schneller trainieren

Für ein wirksames Prognose-Modell ist also das initiale - und später auch immer wieder korrektive - ´Lernen´ der Zusammenhänge zwischen Prozess- und Betriebsdaten und den gefertigten IO/NIO-Teilen mit Fehlerklassifikation erforderlich. Dabei kann eine gleichmäßig verteilte Stichprobe aus dem Produktionsprozess ausreichen, sodass nicht im Produktionstakt geprüft werden muss. Eine solches 'Lernen' wird durch eine Roboterprüfzelle mit Bildverarbeitung realisiert, die in den bestehenden Materialfluss integriert werden kann. Der Roboter übernimmt dabei die Aufgabe des Materialhandlings/-transports sowie die Positionierung der Kamera für die zu prüfenden Bauteile, um mehrere Aufnahmen des Bauteils zu ermöglichen. Hierbei unterscheiden sich die einzelnen Aufnahmen durch den Winkel zwischen Kamera und Prüfteil, wodurch die Klassifizierung unterschiedliche Fehlerarten möglich ist. Die Bildverarbeitung findet in der intelligenten Kamera statt und beinhaltet neben der Identifikation eines Oberflächenfehlers - in Verbindung mit den Koordinaten des Roboters - die genaue Lokalisierung des Fehlers auf dem Bauteil. Nach der Überprüfung des Bauteils wird dieses vom Roboter aufgenommen und zurück in den Materialfluss gebracht. Die Steuerung des Ablaufs erfolgt durch einen Industrie-PC. Dieser überträgt auch die Prüfergebnisse, zusammen mit gegebenenfalls gefundenen Fehlermarkierungen, an die Prädiktions-Plattform. Dort erfolgt die Zuordnung der Informationen zu den übrigen Daten des Bauteils. Auf Basis dieser Daten wird das Modell für die Qualitätsprognose also laufend verbessert.

Empfehlungen der Redaktion

Fazit

Die vorgestellte Architektur wird im dem vom BMWi geförderten Verbundprojekt ´Offene, intelligente Services für die Produktion´ entwickelt und erprobt. Dabei wurde bereits eine breit einsetzbare Big Data Architektur erarbeitet, mit der Machine Learning Anwendungen nicht nur für das gezeigte Beispiel, sondern auch für andere Aufgabenstellungen für prädiktive Dienste in der Produktion implementiert werden können. Neben Funktionen für die vorausschauende Qualitätssicherung stehen dabei Instandhaltungsoptimierungen und das Risiko-Management in Prozessketten im Fokus des Projektes.

Anzeige