Big Data zwischen Hype und Realität

Sechs von zehn deutschen Unternehmen bewerten die Fähigkeit, aus heterogenen Massendaten neues, geschäftlich nützliches Wissen zu extrahieren, als einen zentralen Erfolgsfaktor in der digitalen Revolution. Weithin unklar ist indessen, wie sich die eigene Firma zu einer „Data-driven Company“ weiterentwickeln kann. Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting, erläutert im Interview, welche Herausforderungen bewältigt werden müssen, damit aus Daten tatsächlich Wettbewerbsvorteile werden.

Herr Schlömer, Unternehmer setzen große Erwartungen in Big Data. Woran liegt es, dass die wenigsten Projekte bislang über ein „Laborstadium“ hinauskommen?

Die permanent steigende Datenflut birgt ein erhebliches Geschäftspotenzial – davon sind 9 von 10 Führungskräften in Industrie und Wirtschaft überzeugt. Dies hat nicht zuletzt unsere Potenzialanalyse zum Thema gezeigt. Allerdings verwendet nur eine Minderheit der befragten Unternehmen schon jetzt datenbasierte Analysen und Prognosen systematisch für die eigene Geschäftstätigkeit. Stattdessen trifft mehr als die Hälfte der Befragten wichtige Entscheidungen nach wie vor intuitiv. Offenbar gibt es eine tiefe Kluft zwischen theoretischer Einsicht und der Fähigkeit zur praktischen Umsetzung.

Lars Schlömer Foto: Sopra Steria

Was sind dafür die Hauptursachen?

Die meisten Unternehmen haben bei der Umsetzung noch einen weiten Weg vor sich. So ist auch nur ein Viertel der Entscheider mit der aktuellen Umsetzung von Data Science im Unternehmen sehr zufrieden. Probleme liegen in einer unzureichenden Datenbasis, mangelnden personellen und technischen Ressourcen, fehlendem Verständnis für datengetriebene Prozesse, der organisatorischen Verankerung oder auch im Datenschutz. Häufig fangen die Probleme aber schon bei der Begrifflichkeit und den Erwartungen an. Big Data ist eines der aktuellen Hype-Themen und dazu gehört, dass es nicht scharf umrissen ist – jeder kann sich seine eigene Vorstellung machen und diese ist meist mit Illusionen verbunden.

Welche zum Beispiel? „Big Data zwischen Hype und Realität“ weiterlesen

Buchtipp: Gescheiterte Titanen

Eine Pflichtlektüre für die Chefetagen. Der FAZ-Wirtschaftsredakteur Carsten Knop hat das einst mächtige Göttergeschlecht der Titanen auf Herz, Nieren und Leber geprüft. Von A wie Ackermann bis Z wie Zumwinkel. Fazit des Business-Diplomaten und Lesers Wulf-Hinnerk Vauk: Wenn Werte nicht gelebt werden, werden sie manipulatorisch eingesetzt. Gescheiterte Titanen ist erschienen im Frankfurter Allgemeine Buchverlag

Dimension Data: 127,8 Millionen Datensätze während der Tour de France verarbeitet

Der globale Service- und Lösungsanbieter für Informationstechnologie, Dimension Data, hat während der 21 Etappen der diesjährigen Tour de France über 127,8 Millionen Datensätze der teilnehmenden Rennfahrer ausgewertet. Wie bereits im Vorjahr stammten die Daten von telemetrischen Sensoren unter den Fahrradsatteln der einzelnen Fahrer. Während der ersten neun Etappen wurden 59,70 Millionen Datensätze gesammelt und verarbeitet, zum Ende der 16. Etappe waren es bereits 100,7 Millionen. Dimension Data hat nun eine Zusammenfassung der Daten veröffentlicht.

Eine Auswahl der Highlights der diesjährigen Tour de France:

• Die Durchschnittsgeschwindigkeit der Fahrer während der 21 Etappen lag bei 38,34 km/h. Während der ersten neuen Etappen der Tour de France betrug die Durchschnittsgeschwindigkeit 39,67 km/h und während der ersten 16 lag sie bei 39,16 km/h. Die Durchschnittsgeschwindigkeit von Chris Froome (Team Sky), dem Sieger des Rennens, lag bei 39,6 km/h.
• Tom Dumoulin (Team Giant–Alpecin) erzielte mit 44,78 km/h die schnellste Durchschnittsgeschwindigkeit während eines Einzelzeitfahrens in der 13. Etappe.
• Auf der 3.529 km langen Gesamtstrecke mit 21 Etappen waren die Fahrer Windgeschwindigkeiten von bis zu 80 km/h ausgesetzt. „Dimension Data: 127,8 Millionen Datensätze während der Tour de France verarbeitet“ weiterlesen

Cyberangriffe wegen Territorialstreit im Südchinesischem Meer?

Das F-Secure Labs hat einen Malwarestamm entdeckt, der offensichtlich beteiligte Parteien eines Territorialstreits im Südchinesischen Meer zwischen den Philippinen und China ins Visier nimmt. Der Territorialstreit wurde kürzlich von einem Schiedsgericht entschieden, das Chinas Ansprüche abgewiesen hat. Die Malware, die von den F-Secure-Forschern den Namen NanHaiShu bekommen hat, ist ein Remote-Access-Trojaner, der es Angreifern ermöglicht, von infizierten Rechnern Daten zu exfiltrieren. Die Malware und ihre Verwendung – in diesem Fall bis zum 12. Juli – sind Thema in dem neuen F-Secure Report mit dem Titel NanHaiShu: RATing the South China Sea.

Diese APT (Advanced Persistent Threat)-Malware scheint eng verbunden zu sein mit dem Streitfall und Gerichtsverfahren zwischen den Philippinen und China über das Südchinesische Meer“, erklärt Erka Koivunen, Cyber Security Advisor bei F-Secure. „Die betroffenen Organisationen stehen alle in irgendeiner Weise mit dem Fall im Zusammenhang. Zudem deckt sich die zeitliche Abfolge mit der Veröffentlichung von Nachrichten oder Ereignissen rund um das Schiedsverfahren.“ „Cyberangriffe wegen Territorialstreit im Südchinesischem Meer?“ weiterlesen

Die mobile Version verlassen