Aktuelle Anforderungen erfüllen: Bieten IoT-Daten Innovationspotenzial?

Ein Gastbeitrag von Christoph Sporleder, Executive Advisor, SAS

Digitalisierung, Effizienzsteigerung, neue Geschäftsmodelle: Das sind aktuell die drei großen Problemstellungen in Unternehmen. Mit der Digitalisierung ihrer Infrastrukturen, Prozesslandschaften und Lieferketten möchten sie vor allem die Wertschöpfung in ihren Prozessen steigern.

Die Anforderungen sind branchenübergreifend. Denn praktisch alle Unternehmen sind von den aktuellen Herausforderungen betroffen. Versicherungen beschäftigen sich heute unter anderem mit Telematik, Connected Home im Bereich Warnsysteme oder Connected Health zur Entwicklung individueller Tarife. Automobilunternehmen binden zahlreiche Sensoren ein. Energieversorger nutzen Smart Grids. Und Fertigungsunternehmen können im Zuge von Industrie 4.0 individuelle Produkte auf Kundenanfrage herstellen. Auf Basis der Daten aus dem Internet der Dinge sind zahlreiche neue Fragestellungen zu beantworten und Lösungen zu entwickeln, die auch sehr komplex sein können.

Um diese Anforderungen zu erfüllen, können Unternehmen Anwendungsfelder identifizieren, validieren und industrialisieren. Denn im Rahmen der Digitalisierung sowie für neue Geschäftsmodelle wird nicht nur ein Use Case entstehen, sondern ein kontinuierlicher Strom davon. Es ist jedoch nicht effizient, für jeden Nutzungsfall individuell eigene Prozesse oder gar eigene Infrastrukturen aufzusetzen. Unternehmen benötigen deshalb eine Strategie, um analytische Lösungen schneller zu entwickeln, zu abstrahieren und zu industrialisieren. Hierzu können sie Konzepte wie das IoT Analytics Lab nutzen, in dem IoT-Daten aufbereitet, mit Geschäftsdaten verbunden und analysiert werden. Das steuert dem ‚Mangel an Experimentierlust’ in den Unternehmen entgegen, der oft durch Ängste der Verantwortlichen getrieben ist.

Denn mit Hilfe einer prädiktiven Analytik können Unternehmen schnell neue technologische Ansätze validieren. Sehr unsichere Nutzerprognosen auf Basis des Bauchgefühls bestimmter Entscheider gehören so der Vergangenheit an. Man kann nach den Analysen Entscheidungen auf Faktenbasis und ohne Zeitverluste fällen.

Aufgrund der hohen Schnelligkeit der Entwicklung ergibt sich jedoch häufig zunächst auch hier eine Fehlerquote. Doch dies ist kein Problem, solange die Fehler schnell erkannt und daraus die richtigen Lektionen gelernt werden. Die Nachjustierung und Analyse auf Basis weiterer Daten ist hier erforderlich. Das ist der Ansatz vieler erfolgreicher Start-ups und digitaler Unternehmen, die teilweise etablierten Konzerne in ihren angestammten Branchen Konkurrenz machen.

Innovationen fördern

Doch eine rein an den Anforderungen orientierte Lösungsentwicklung ist nur der halbe Weg. Ergänzt werden muss dieser Ansatz durch Innovationen der Mitarbeiter. Daher sollten Unternehmen Anreize bieten, um viele neue Ideen zu generieren. Dies lässt sich aber nicht von oben verordnen. Stattdessen ist die Unternehmenskultur entsprechend anzupassen, um Fehler zu tolerieren, sich nicht ausschließlich am Erfolg zu orientieren und den Mitarbeitern möglichst viele Freiheiten zu ermöglichen. Die Unternehmen sollten gezielt die Kreativität fördern und Ideen nach ihrem möglichen Mehrwert für das Business oder die Prozesse einstufen und bewerten.


Diese Überprüfung des Potentials und der technischen Umsetzbarkeit der Ideen lässt sich auf Basis von Big Data-Analysen industrialisieren. Nach erfolgreicher Validierung und Erprobung ist ein analytisches Modell zu schaffen, um die Idee erfolgreich umzusetzen und industriell zu nutzen.

Dabei muss die interne Organisation an die neue digitale Welt angepasst werden. Bislang ist die Entwicklung und Umsetzung der Lösungsmodelle strikt getrennt. Dies führt jedoch häufig dazu, dass die Data Scientists praktisch alles machen können, was sie möchten, um Modelle zu generieren. Dabei berücksichtigen sie häufig nicht deren Umsetzbarkeit. Entwicklung und Betrieb müssen aber Hand in Hand arbeiten, um effiziente Lösungsansätze zu finden. Dazu ist ein engerer Rahmen für die Infrastruktur und die Prozesse abzustecken, die den Handshake zwischen Entwicklung und Betrieb optimieren. Zudem sind die konkreten Vor- und Nachteile der neuen Modelle zu validieren.

Die Datenexplosion in den Griff bekommen

Wie entstehen aus der Sensordatenflut optimierte Produktionsprozesse?

Ein Gastbeitrag von Christoph Sporleder, Executive Advisor, SAS

Derzeit wird alles mit allem vernetzt: Produktionsstraßen mit der Office-IT, Autos mit Verkehrssystemen, Logistikprozesse mit Kundendatenbanken. Damit die Prozesse im Internet der Dinge besser gesteuert werden können, erheben zahlreiche Sensoren permanent Messdaten. Dies erhöht das bisher schon als „Big Data“ bekannte Datenvolumen um ein Vielfaches.

Um diese intelligenten Prozesse zu bewältigen, sind umfassende und hochleistungsfähige Analysesysteme notwendig. Machine Learning und Deep Learning sind hier die Stichworte. Maschinelles Lernen beschreibt ein künstliches System, das aus Beispielen lernt und das Vorgehen verallgemeinern kann. Es handelt sich also nicht einfach um auswendig gelerntes Wissen, sondern das System erkennt Muster und Gesetzmäßigkeiten, mit deren Hilfe es auch unbekannte Aufgaben richtig lösen kann. Das bekannteste Beispiel für ein solches System ist wohl der Computer Deep Blue, der 1996 als erste Maschine den damaligen Schachweltmeister schlagen konnte.

Einen Schritt weiter geht Deep Learning. Bei diesem Verfahren werden künstliche neuronale Netze zu Ebenen angeordnet, die immer komplexere Merkmale verwenden. Mit dieser Methode lassen sich zum Beispiel Gesichter erkennen oder große Datenbestände in Kategorien einteilen. Gerade dieser Ansatz profitiert von Big Data, denn je mehr Daten zur Verfügung stehen, desto besser sind die Ergebnisse.

Die Industrialisierung der Prozesse

Machine Learning und Deep Learning sind wichtige Voraussetzungen für die Industrialisierung der IoT-Prozesse. So gibt es im Internet der Dinge viele spezifische Anwendungsfälle (Use Cases) mit eigenen Regeln. Diese wiederum erfordern eine große Anzahl analytischer Modelle, um die entstehenden Daten sinnvoll zu nutzen. Insbesondere bei der Maschine-zu-Maschine (M2M)-Kommunikation liefern Sensoren Messdaten teilweise im Mikrosekundentakt. Damit ergibt sich ein anderes Verständnis für den Begriff „Echtzeit“. Um die immer größeren Datenmengen in immer kürzeren Zeitabständen auszuwerten, sind neue Analysemodelle und -methoden nötig. Das Internet of Things zündet nur richtig mit Analytics of Things.




Im IoT Analytics Lab können Unternehmen mögliche Use Cases schnell konzipieren und validieren, um die Blaupause für eine funktionierende Lösung zu erhalten. Die Analysesysteme graben sich dabei durch die Datenflut um Muster zu erkennen und im Labor die richtigen Anwendungsfälle zu entwickeln. Eine hohe Automatisation stellt die nötige Geschwindigkeit für diese Big Data-Analysen sicher. Die Fachexperten müssen die Ergebnisse abschließend prüfen und freigeben. Die so definierte Erfolgsformel lässt sich dann im Unternehmen mit Hilfe einer analytischen Factory industrialisieren. Anschließend und abschließend sind die entwickelten Prozesse in die klassische IoT-Prozesskette zu installieren und zu integrieren.

Wer nicht über die dazu nötigen technischen Fertigkeiten und Fähigkeiten verfügt oder bei der Umsetzung eine zu hohe Kapazität benötigt, kann auf externe Partner zurückgreifen. Auch bei den Themen Wertschöpfung, operative Verbesserung und Entwicklung neuer Geschäftsmodelle sollten Unternehmen externe Hilfe nutzen. Denn schließlich handelt es sich hier um Projekte, die nicht jeden Tag umgesetzt werden. Daher sollte möglichst viel Erfahrung einfließen, um die Erfolgschancen zu optimieren.