Die Datenexplosion in den Griff bekommen

Wie entstehen aus der Sensordatenflut optimierte Produktionsprozesse?

Ein Gastbeitrag von Christoph Sporleder, Executive Advisor, SAS

Derzeit wird alles mit allem vernetzt: Produktionsstraßen mit der Office-IT, Autos mit Verkehrssystemen, Logistikprozesse mit Kundendatenbanken. Damit die Prozesse im Internet der Dinge besser gesteuert werden können, erheben zahlreiche Sensoren permanent Messdaten. Dies erhöht das bisher schon als „Big Data“ bekannte Datenvolumen um ein Vielfaches.

Um diese intelligenten Prozesse zu bewältigen, sind umfassende und hochleistungsfähige Analysesysteme notwendig. Machine Learning und Deep Learning sind hier die Stichworte. Maschinelles Lernen beschreibt ein künstliches System, das aus Beispielen lernt und das Vorgehen verallgemeinern kann. Es handelt sich also nicht einfach um auswendig gelerntes Wissen, sondern das System erkennt Muster und Gesetzmäßigkeiten, mit deren Hilfe es auch unbekannte Aufgaben richtig lösen kann. Das bekannteste Beispiel für ein solches System ist wohl der Computer Deep Blue, der 1996 als erste Maschine den damaligen Schachweltmeister schlagen konnte.

Einen Schritt weiter geht Deep Learning. Bei diesem Verfahren werden künstliche neuronale Netze zu Ebenen angeordnet, die immer komplexere Merkmale verwenden. Mit dieser Methode lassen sich zum Beispiel Gesichter erkennen oder große Datenbestände in Kategorien einteilen. Gerade dieser Ansatz profitiert von Big Data, denn je mehr Daten zur Verfügung stehen, desto besser sind die Ergebnisse.

Die Industrialisierung der Prozesse

Machine Learning und Deep Learning sind wichtige Voraussetzungen für die Industrialisierung der IoT-Prozesse. So gibt es im Internet der Dinge viele spezifische Anwendungsfälle (Use Cases) mit eigenen Regeln. Diese wiederum erfordern eine große Anzahl analytischer Modelle, um die entstehenden Daten sinnvoll zu nutzen. Insbesondere bei der Maschine-zu-Maschine (M2M)-Kommunikation liefern Sensoren Messdaten teilweise im Mikrosekundentakt. Damit ergibt sich ein anderes Verständnis für den Begriff „Echtzeit“. Um die immer größeren Datenmengen in immer kürzeren Zeitabständen auszuwerten, sind neue Analysemodelle und -methoden nötig. Das Internet of Things zündet nur richtig mit Analytics of Things.




Im IoT Analytics Lab können Unternehmen mögliche Use Cases schnell konzipieren und validieren, um die Blaupause für eine funktionierende Lösung zu erhalten. Die Analysesysteme graben sich dabei durch die Datenflut um Muster zu erkennen und im Labor die richtigen Anwendungsfälle zu entwickeln. Eine hohe Automatisation stellt die nötige Geschwindigkeit für diese Big Data-Analysen sicher. Die Fachexperten müssen die Ergebnisse abschließend prüfen und freigeben. Die so definierte Erfolgsformel lässt sich dann im Unternehmen mit Hilfe einer analytischen Factory industrialisieren. Anschließend und abschließend sind die entwickelten Prozesse in die klassische IoT-Prozesskette zu installieren und zu integrieren.

Wer nicht über die dazu nötigen technischen Fertigkeiten und Fähigkeiten verfügt oder bei der Umsetzung eine zu hohe Kapazität benötigt, kann auf externe Partner zurückgreifen. Auch bei den Themen Wertschöpfung, operative Verbesserung und Entwicklung neuer Geschäftsmodelle sollten Unternehmen externe Hilfe nutzen. Denn schließlich handelt es sich hier um Projekte, die nicht jeden Tag umgesetzt werden. Daher sollte möglichst viel Erfahrung einfließen, um die Erfolgschancen zu optimieren.