Anil Antac Korkut, Senior Consultant Big Data & Artificial Intelligence
Anil steht Ihnen bei Fragen rund um die Themenbereiche Big Data, Deep Learning, Machine Learning oder Anomaly Learning jederzeit gerne zur Verfügung.
Eine Fallstudie aus der Fertigungsindustrie
Ein Fertigungsunternehmen stellt Motorblöcke aus Aluminium her, die in mehreren Hochdrucköfen gegossen werden. Jeder Motorblock erhält sechs Zylinder, um später als Drei- oder Sechszylinder-Reihenmotor oder Sechszylinder-V-Motor weiterverarbeitet zu werden. Das Unternehmen arbeitet im Dreischichtbetrieb und fertigt knapp 5.000 Motorblöcke pro Tag.
Alle Hochdrucköfen werden mit Siemens SPS 7 Systemen gesteuert und mit mehreren Sensoren überwacht, die Daten wie z. B. Gießtemperatur, Gießdruck oder Luftfeuchtigkeit in Echtzeit mit dem Überwachungssystem austauschen. Mit diesem „State-of-the-Art“-System gelingt es, die Ausschussrate auf lediglich zwei Prozent zu senken.
Die Gussqualität wird mit Hilfe von Röntgenbildern kontrolliert. Jeder gekühlte Motorblock wird dazu mit X-Rays beschossen. Die Röntgenaufnahmen werden im Anschluss von Experten geprüft. Werden Micro-Risse oder Micro-Bubbles entdeckt, wird der entsprechende Motorblock als Ausschuss markiert.
1. Trotz der geringen Fehlproduktion von zwei Prozent, werden nicht alle Mängel entdeckt. Defekte Motorblöcke werden weiterverarbeitet.
2. Die Qualitätskontrolle ist ein langsamer Prozess und für die betroffenen Mitarbeiter ggfs. gesundheitsschädlich (Röntgenkammer).
3. Die Qualität der produzierten Teile wird per Sichtkontrolle überprüft. Das menschliche Auge ermüdet jedoch mit der Zeit, was dazu führen kann, dass nicht alle Fehler-Merkmale erkannt werden.
1. Von jedem einzelnen Gießprozess liegen Sensordaten vor. Auf Basis dieser Daten wird nun mit Hilfe von Machine Learning Algorithmen versucht, ein Fehler-Muster zu erkennen. So kann ein Modell erstellt werden, das fehlerhafte Teile sofort nach dem Guss voraussagen kann.
2. Von jedem einzelnen Motorblock liegen Röntgenbilder vor. Mit Hilfe dieser Aufnahmen wird nun versucht, ein Deep Learning Fehler-Erkennungs-Modell zu entwickeln, das in der Lage ist, alle Mängel ohne menschliche Unterstützung zu erfassen.
Im ersten Schritt werden die historischen Sensordaten eines Hochdruckofens analysiert.
Folgende Felder stehen zur Verfügung:
Hinweis: Die Teile-ID-, Gießzeit- und Gießort-Felder werden in dieser Case Study nicht berücksichtigt und sind nicht im Datensatz enthalten.
Mit Hilfe der AI/21 Plattform von SPIRIT/21 kann jetzt auf Basis der historischen Daten sehr schnell ein entsprechendes Modell trainiert werden. Im aktuellen Beispiel liegt eine CSV-Datei mit 5.000 Zeilen aus einem der Hochdrucköfen vor, die ganz einfach in das AI/21 System geladen werden kann.
Wie das genau geht, erfahren Sie in folgendem Video:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Im nächsten Schritt können wir die Datei anschauen, plotten und beschreiben. So erhält man eine generelle Übersicht.
Mehr dazu in Video 2:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Um mit einem Modell arbeiten zu können, muss nun ein sogenannter Data Frame erstellt werden. Dazu konvertieren wir die CSV-Datei, nehmen ggfs. Datensäuberungen vor oder Felder heraus, die wir im Modell nicht benötigen, hier z.B. die Ofen-ID.
Wie das im Einzelnen funktioniert, zeigt Video 3:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Jetzt haben wir unseren Basis-Data Frame. Um ein Model zu trainieren, brauchen wir jedoch zusätzlich noch einen Trainings-, Validierungs- und Test-Data Frame. Diese können ganz einfach über die Data Split-Funktion generiert werden.
Siehe Video 4:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Nun sind wir „ready to go“ und können mit dem Training beginnen. Dazu steht eine ganze Reihe verschiedener Modell-Algorithmen zur Verfügung. Für den Datensatz in unserem Fallbeispiel werden wir den sogenannten „Distributed Random Forest“ benutzen.
Wie das geht, erfahren Sie in Video 5:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Jetzt wird das Modell trainiert. Nach kurzer Zeit ist bereits eine detaillierte Übersicht verfügbar - mit Top Scoring, Scoring History, Variable Importance und einer Tabelle mit den Vorhersagen auf Basis der Test-Datei.
Mehr Details dazu in Video 6:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Ist man mit der Modellierung zufrieden, kann ganz einfach ein Prädiktions-Service zur Verfügung gestellt werden, um weitere Integrationen zu ermöglichen.
Siehe Video 7:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Dieser Service kann anschließend mit einem integrierten Test-Modul überprüft werden. Es ist aber auch möglich, dafür eine externe Test-App zu benutzen.
Mehr dazu in Video 8:
Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden
Jetzt steht ein Prädiktions-Service zur Verfügung, der Fehlproduktionen vorhersagen kann. Sofort einsetzbar, kann dieser Service über API direkt in die Produktion integriert werden. So kann sofort nach dem Gießprozess eine Vorhersage und damit eine automatische Qualitätskontrolle durchgeführt werden.
Die AI/21 Plattform von SPIRIT/21 wurde in dieser Case Study sehr erfolgreich eingesetzt. Der Ausschuss konnte auf bis zu 0,6 Prozent verringert werden. Gleichzeitig gelang es, Prozesse zu beschleunigen, Zeit einzusparen und vor allem die Sicherheit der Mitarbeitenden in der Produktion zu erhöhen. Dieses Projekt hat schließlich pro Jahr zu Kosteneinsparungen im sechsstelligen Bereich geführt.
Anil Antac Korkut, Senior Consultant Big Data & Artificial Intelligence
Anil steht Ihnen bei Fragen rund um die Themenbereiche Big Data, Deep Learning, Machine Learning oder Anomaly Learning jederzeit gerne zur Verfügung.