In diesem Praxisbeispiel wurden Maschinendaten, die verschiedene Parameter wie Lufttemperatur, Drehmoment, Werkzeugverschleiss und andere relevante Messgrössen beinhalten, von SAP Datasphere nach Databricks föderiert. Dies wurde unter Verwendung der Federated Machine Learning (FedML)-Bibliothek umgesetzt, wodurch eine Replikation der Daten nicht notwendig war.
Analyse und Modellierung in Databricks
Im nächsten Schritt wird in Databricks ein Random Forest Modell eingesetzt, um Maschinendaten zu analysieren und potenzielle Ausfallmuster zu erkennen. Random Forest ist nur eines von vielen Machine-Learning-Verfahren, die in Databricks verwendet werden können, um umfangreiche und komplexe Datensätze zu verarbeiten.
Die Daten werden dabei hauptsächlich in Notebooks verarbeitet, die eine interaktive Umgebung für Datenanalysen bieten. Diese Notebooks ermöglichen es, Python, SQL und andere Programmiersprachen direkt auszuführen, um Daten zu visualisieren und die Ergebnisse in Echtzeit zu interpretieren. Dieser Ansatz bietet nicht nur Flexibilität bei der Programmierung, sondern unterstützt auch die kontinuierliche Verbesserung von Machine-Learning-Modellen. Durch die Möglichkeit, verschiedene Sprachen und Tools in einem zentralen Arbeitsbereich zu verwenden, können Nutzer sehr effizient verschiedenste Erkenntnisse aus den Daten ziehen und diese effektiv in ihre Analysen einfliessen lassen.
Das folgende Bild zeigt beispielsweise eine Visualisierung der Feature Importance (Variablenbedeutung) des Modells. Aus dieser geht hervor, dass das Drehmoment (Torque_Nm) die grösste Bedeutung für die Vorhersagen hat, gefolgt von der Werkzeugverschleisszeit (Tool_wear_min) und der Rotationsgeschwindigkeit (Rotational_speed_rpm). Der Nutzer kann anschliessend die fachliche Bedeutung der Ausprägung interpretieren.
Rückführung und Weiterverarbeitung der Ergebnisse
Nachdem das Random-Forest-Modell erfolgreich trainiert und validiert wurde, kann es verwendet werden, um Vorhersagen anhand neuer Datensätze zu treffen. Diese Vorhersagen werden entweder föderiert oder repliziert in die SAP Datasphere-Prozesse eingebunden, wo sie weiter angereichert oder verarbeitet werden können, um zusätzliche Erkenntnisse zu gewinnen oder spezifische Geschäftsanforderungen zu erfüllen.
Visualisierung in SAP Analytics Cloud
Die aufbereiteten Ergebnisse werden schliesslich in SAP Analytics Cloud visualisiert. Im folgenden Bild sind die vorhergesagten Maschinenausfälle sowohl tabellarisch als auch graphisch dargestellt. Die benutzerfreundlichen Dashboards bieten nicht nur technische Einblicke, sondern auch fundierte Entscheidungsgrundlagen, um proaktiv auf mögliche Maschinenausfälle zu reagieren. Die Visualisierung zeigt deutlich die kritischen Bereiche, in denen präventive Massnahmen ergriffen werden sollten, um Ausfallzeiten zu minimieren und die Effizienz der Produktion zu sichern.