Potenziale über Big Data ausschöpfen

Case Study – Potenziale über Big Data ausschöpfen

Wie Sie mit Hilfe von Datenanalysen Qualitätsprozesse automatisiert verbessern können

Eine Fallstudie aus der Fertigungsindustrie

Ausgangszenario:

Ein Fertigungsunternehmen stellt Motorblöcke aus Aluminium her, die in mehreren Hochdrucköfen gegossen werden. Jeder Motorblock erhält sechs Zylinder, um später als Drei- oder Sechszylinder-Reihenmotor oder Sechszylinder-V-Motor weiterverarbeitet zu werden. Das Unternehmen arbeitet im Dreischichtbetrieb und fertigt knapp 5.000 Motorblöcke pro Tag.

Alle Hochdrucköfen werden mit Siemens SPS 7 Systemen gesteuert und mit mehreren Sensoren überwacht, die Daten wie z. B. Gießtemperatur, Gießdruck oder Luftfeuchtigkeit in Echtzeit mit dem Überwachungssystem austauschen. Mit diesem „State-of-the-Art“-System gelingt es, die Ausschussrate auf lediglich zwei Prozent zu senken.

Die Gussqualität wird mit Hilfe von Röntgenbildern kontrolliert. Jeder gekühlte Motorblock wird dazu mit X-Rays beschossen. Die Röntgenaufnahmen werden im Anschluss von Experten geprüft. Werden Micro-Risse oder Micro-Bubbles entdeckt, wird der entsprechende Motorblock als Ausschuss markiert.

Wo stecken in diesem Szenario Möglichkeiten zur Prozessoptimierung?

1.     Trotz der geringen Fehlproduktion von zwei Prozent, werden nicht alle Mängel entdeckt. Defekte Motorblöcke werden weiterverarbeitet.

2.     Die Qualitätskontrolle ist ein langsamer Prozess und für die betroffenen Mitarbeiter ggfs. gesundheitsschädlich (Röntgenkammer).

3.     Die Qualität der produzierten Teile wird per Sichtkontrolle überprüft. Das menschliche Auge ermüdet jedoch mit der Zeit, was dazu führen kann, dass nicht alle Fehler-Merkmale erkannt werden.

Wo liegt hier das Automatisierungspotenzial?

1.     Von jedem einzelnen Gießprozess liegen Sensordaten vor. Auf Basis dieser Daten wird nun mit Hilfe von Machine Learning Algorithmen versucht, ein Fehler-Muster zu erkennen. So kann ein Modell erstellt werden, das fehlerhafte Teile sofort nach dem Guss voraussagen kann.

2.     Von jedem einzelnen Motorblock liegen Röntgenbilder vor. Mit Hilfe dieser Aufnahmen wird nun versucht, ein Deep Learning Fehler-Erkennungs-Modell zu entwickeln, das in der Lage ist, alle Mängel ohne menschliche Unterstützung zu erfassen.

Wie gehen wir vor?

Im ersten Schritt werden die historischen Sensordaten eines Hochdruckofens analysiert.

Folgende Felder stehen zur Verfügung:

  • OSPID – Ofen-ID
  • OTEMP – Ofen-Temperatur
  • GTEMP – Giess-Temperatur
  • KTEMP – Kühl-Temperatur
  • KUHLWZ – Abkühlungs-Wartezeit (Minuten)
  • GPSI – Gieß PSI
  • EXPSI – Exit PSI
  • LFT – Luftfeuchtigkeit
  • LP – Luftdruck
  • RAUMT – Raum/Hallen-Temperatur
  • TOOLT – Tool-Temperatur
  • AB1,AB2,AB3,AB4 – Spritz-Geschwindigkeit – (M/s) – Erste Ecke
  • BC1,BC2,BC3,BC4 – Spritz-Geschwindigkeit – (M/s) – Zweite Ecke
  • CD1,CD2,CD3,CD4 – Spritz-Geschwindigkeit – (M/s) – Dritte Ecke
  • DA1,DA2,DA3,DA4 – Spritz-Geschwindigkeit – (M/s) – Vierte Ecke
  • STAND – Ausschuss (0 = nein, 1 = ja)

Hinweis: Die Teile-ID-, Gießzeit- und Gießort-Felder werden in dieser Case Study nicht berücksichtigt und sind nicht im Datensatz enthalten.

Mit Hilfe der AI/21 Plattform von SPIRIT/21 kann jetzt auf Basis der historischen Daten sehr schnell ein entsprechendes Modell trainiert werden. Im aktuellen Beispiel liegt eine CSV-Datei mit 5.000 Zeilen aus einem der Hochdrucköfen vor, die ganz einfach in das AI/21 System geladen werden kann.

Wie das genau geht, erfahren Sie in folgendem Video:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: V1tuzo7htrU

Im nächsten Schritt können wir die Datei anschauen, plotten und beschreiben. So erhält man eine generelle Übersicht.

Mehr dazu in Video 2:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: aD8YEcD3yF0

Um mit einem Modell arbeiten zu können, muss nun ein sogenannter Data Frame erstellt werden. Dazu konvertieren wir die CSV-Datei, nehmen ggfs. Datensäuberungen vor oder Felder heraus, die wir im Modell nicht benötigen, hier z.B. die Ofen-ID.

Wie das im Einzelnen funktioniert, zeigt Video 3:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: De6Yq2SNFiM

Jetzt haben wir unseren Basis-Data Frame. Um ein Model zu trainieren, brauchen wir jedoch zusätzlich noch einen Trainings-, Validierungs- und Test-Data Frame. Diese können ganz einfach über die Data Split-Funktion generiert werden.

Siehe Video 4:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: uuTzArsB1pw

Nun sind wir „ready to go“ und können mit dem Training beginnen. Dazu steht eine ganze Reihe verschiedener Modell-Algorithmen zur Verfügung. Für den Datensatz in unserem Fallbeispiel werden wir den sogenannten „Distributed Random Forest“ benutzen.

Wie das geht, erfahren Sie in Video 5:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: 6HhkdWFyjwQ

Jetzt wird das Modell trainiert. Nach kurzer Zeit ist bereits eine detaillierte Übersicht verfügbar - mit Top Scoring, Scoring History, Variable Importance und einer Tabelle mit den Vorhersagen auf Basis der Test-Datei.

Mehr Details dazu in Video 6:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: rKnXhuWiP4o

Ist man mit der Modellierung zufrieden, kann ganz einfach ein Prädiktions-Service zur Verfügung gestellt werden, um weitere Integrationen zu ermöglichen.

Siehe Video 7:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: 3Gr87vcQpiA

Dieser Service kann anschließend mit einem integrierten Test-Modul überprüft werden. Es ist aber auch möglich, dafür eine externe Test-App zu benutzen.

Mehr dazu in Video 8:

Wir respektieren deinen Datenschutz!

Klicke zum Aktivieren des Videos auf den Link. Wir möchten darauf hinweisen, dass nach der Aktivierung deine Daten an YouTube übermittelt werden

YouTube ID: bbA4QJ9Vf40

Jetzt steht ein Prädiktions-Service zur Verfügung, der Fehlproduktionen vorhersagen kann. Sofort einsetzbar, kann dieser Service über API direkt in die Produktion integriert werden. So kann sofort nach dem Gießprozess eine Vorhersage und damit eine automatische Qualitätskontrolle durchgeführt werden.

Welche Ergebnisse konnten in unserem Fallbeispiel erzielt werden?

Die AI/21 Plattform von SPIRIT/21 wurde in dieser Case Study sehr erfolgreich eingesetzt. Der Ausschuss konnte auf bis zu 0,6 Prozent verringert werden. Gleichzeitig gelang es, Prozesse zu beschleunigen, Zeit einzusparen und vor allem die Sicherheit der Mitarbeitenden in der Produktion zu erhöhen. Dieses Projekt hat schließlich pro Jahr zu Kosteneinsparungen im sechsstelligen Bereich geführt.

Profilbild Anil Korkut

Anil Antac Korkut, Senior Consultant Big Data & Artificial Intelligence

akorkut@spirit21.com

Anil steht Ihnen bei Fragen rund um die Themenbereiche Big Data, Deep Learning, Machine Learning oder Anomaly Learning jederzeit gerne zur Verfügung.