SAP Analytics Blog

Wie Künstliche Intelligenz die Produktionsprozesse überwacht

Data Science oder wie man potenzielle Störungen frühzeitig erkennen und Ausfallzeiten präventiv minimieren kann.

14.08.2023


Die Industrie 4.0 als modernes Produktionskonzept ist längst in Fertigungsunternehmen angekommen. Mittlerweile spricht jeder von Künstlicher Intelligenz (KI) und ihren Möglichkeiten. Data Science als Überbegriff für Methoden, um Daten in wertvolles Wissen umzuwandeln, spielt eine entscheidende Rolle in der Produktion, insbesondere wenn es um die Integration von KI und die frühzeitige Erkennung von Störungen geht. Machine Learning als Teilbereich der KI kommt überall dort zum Einsatz, wo Maschinen und Prozesse über das Industrial Internet of Things (IoT) miteinander vernetzt sind und große Datenmengen entstehen.   Machine Learning ermöglicht es, diese Daten zu analysieren und Produktionsprozesse zu optimieren. T.CON bietet umfassende Dienstleistungen im Bereich Data Science an und unterstützt Unternehmen dabei, die erforderliche Infrastruktur und das Know-how aufzubauen. 
 

Die frühzeitige Erkennung von potenziellen Störungen und die Implementierung von präventiven Wartungsstrategien, um Ausfallzeiten zu minimieren und die Gesamtproduktivität zu steigern, steht in allen Produktionsunternehmen an oberster Stelle. Eine konkrete Anwendung von Data Science im Bereich der Produktion ist Predictive Quality. Hierbei nutzt man Machine-Learning-Algorithmen und statistische Methoden, um aktuelle Daten während des Produktionsprozesses – und auch danach – zu erheben und in ihnen Anomalien zu erkennen. Daraus lassen sich anschließend fallbezogene Modelle trainieren, um eine fehlerfreie, qualitativ hochwertige und kosteneffiziente Fertigung zu ermöglichen. 
Am Beispiel eines Fertigungsunternehmens im Spritzgussbereich wollen wir nachfolgend einige Beispiele geben.

Wer Anomalien rechtzeitig erkennt, vermeidet Fehler und hält die Qualität hoch

Maschinen, die über das IoT vernetzt sind, werden dafür mit Sensoren ausgestattet, deren Prozessdaten vom Menschen analysiert und ausgewertet werden können. So lässt sich überwachen, ob der Produktionszyklus konstant und fehlerfrei abläuft. Bei einer Spritzgussmaschine steigt die Temperatur unüblich stark an? Dies kann ein Hinweis dafür sein, dass schlechte Qualität bzw. Ausschuss produziert wird. Wartezeiten, Wartung und Produktionsstillstand wären die Folge. Grenzwerte einzelner Sensoren lösen jedoch häufig einen Alarm aus, wenn die Maschine anfährt, neue Produkte auf der Maschine gefertigt werden oder die Maschine lange läuft und sich dadurch die Sensordaten verändern. 

In diesem dynamischen Sensorwertefeld eine verlässliche Alarmierung zu erhalten ist schwierig. Mögliche Qualitätseinbußen rechtzeitig erkennen und zu vermeiden, darum geht es also. Dies ist der Kerngedanke von Predictive Quality. 

Solche Auffälligkeiten können unterschiedlich aussehen:  

 

  • Thresholds
    Die Messwerte liegen außerhalb der kritischen Grenzen (sog. Thresholds).  

  • Drift
    Es gibt eine Verschiebung (Drift) von Sensorwerten über die Zeit hinweg. Solche Verschiebungen können sich langsam entwickeln (Gradual Drift) oder auch abrupt entstehen (Rapid Drift). Zeigt die Spritzgussmaschine also über einen längeren Zeitraum einen Gradual Drift an (d.h. immer höhere Temperaturen), kann dies verschiedenste Gründe haben, auch unbedenkliche. Wichtig ist nur, den Drift frühzeitig zu erkennen, um im Falle des Falles rechtzeitig eingreifen zu können.
     

  • Dynamic Thresholds
    Manchmal ändern sich Messdaten auch gewollt. Zum Beispiel, wenn die Maschine auf die Produktion eines anderen Fertigungsstücks umgestellt wird, für welche eine höhere Temperatur sogar benötigt wird. Hier werden also nicht vorab allgemeine Grenzwerte festgelegt. Sonst würden bei der Produktionsumstellung Anomalien erkannt, die gar keine sind (oder umgekehrt mögliche Fehler nicht auffallen, da die Grenzen zu weit eingestellt sind). Vielmehr muss es in diesem Fall möglich sein, Thresholds automatisch neu zu bestimmen, sobald der Sensor aufgrund einer signifikanten Messwertveränderung eine Produktionsumstellung diagnostiziert.

Daten betrachten und daraus Erkenntnisse ableiten

Solche Auffälligkeiten im Produktionsprozess können einen erheblichen Einfluss auf die betriebswirtschaftliche Leistung eines Unternehmens haben, insbesondere in Bezug auf die Fehlerproduktion sowie auf die rechtzeitige Erkennung der Fehler. Für diese Fälle hat T.CON eine Software in Python entwickelt, der im Bereich Datenwissenschaft und ML führenden Programmiersprache. Verschiedene Open-Source-Technologien wurden dafür miteinander kombiniert. Die Methode ist unabhängig und standalone einsetzbar; darüber hinaus lässt sie sich kundenindividuell in verschiedenste Lösungen integrieren. Als SAP Gold Partner ermöglicht T.CON seinen Kunden die Einbettung der Data- Science-Anwendung in diverse SAP-Lösungen. Die Integration von SAP-Daten oder Daten aus der Azure/AWS Cloud ist möglich. In einem aktuellen Kundenprojekt etwa hat T.CON die Lösung als Komponente des dort eingesetzten Shop-Floor-Systems implementiert.  

Nutzen der Software in allen Fällen: Sie betrachtet Daten und leitet daraus Erkenntnisse ab. Richtig eingesetzt, sorgen diese dafür, dass weniger Ausschuss anfällt und sich die Produktqualität erhöht. Anwender können Daten in einem jeweils 24-Stunden-Zeitfenster vergleichen (Rückschau von bis zu einer Woche). Dazu müssen zahlreiche Algorithmen des Unsupervised Machine Learnings getestet, verglichen und die Ergebnisse ausgewertet werden. Diese Tests sind erforderlich, weil die Sensoren verschiedene physikalische Größen messen, was sich in einer unterscheidenden Datengrundlage niederschlägt. Auf Basis der Testergebnisse, werden die Parameter der Algorithmen sensorspezifisch für optimale Funktionalität angepasst. 

Abb.1: Thresholding

Software definiert selbstständig Grenzwerte

Umstellungen in der Produktion registriert die Software durch Clustern der Daten. Hier wird mittels Machine Learning ermittelt, welche Datenpunkte zusammengehören, d.h. einem gemeinsamen Produktionszyklus angehören. Für die einzelnen Produktionsabläufe kann sie schließlich selbstständig Grenzwerte definieren (siehe Abb. 1: Thresholding). Auch dies geschieht wiederum mithilfe von ML, zur Abgrenzung von Daten, die Anomalien indizieren. Bei Messdaten außerhalb dieser Werte kann die Software selbstständig einen Alarm auslösen.  Gradual und Rapid Drifting erkennt sie automatisch mittels einer Kombination von Regressionsmethoden, die jeweils auf den Daten des gesamten Clusters bzw. auf konsekutiven Teilstichproben operieren (siehe Abb. 2: Drifting). 

Abb 2.: Drifting

Fazit

Durch den Einsatz von Machine Learning kann die Qualität der Produkte, die in diesem Fall durch eine Spritzgussmaschine produziert werden, deutlich gesteigert werden. Qualitätsprobleme können mit der Lösung sofort identifiziert und behoben werden. Bisher wurden Qualitätsprobleme erst in der Qualitätssicherung festgestellt, was oft zu Mehrkosten und auch Zeitverlusten geführt hat. Es besteht die Möglichkeit, diese Erkenntnisse direkt in die Produktionssteuerung zu integrieren. 

KI-gestützte Digitalisierung wird die Industrie in den nächsten Jahren maßgeblich beeinflussen. Kontaktieren Sie uns, wenn Sie Fragen oder konkrete Projekte haben, die wir gemeinsam angehen können.


Haben Sie Fragen zu diesem Thema? Dann kontaktieren Sie mich gerne.

Stefan Schwenzl | Business Lead SGF Analytics | analytics.experte@team-con.de
Gratis Download | Unterlagen für Ihren Weg zum vernetzten Unternehmen | T.CON

Gratis Download

  • Workshop SAP-Analytics-Strategie
  • Workshop Move to SAP Datasphere
  • Enablement Package Data Science
  • Projektbericht Frenzelit SAP Analytics Cloud