Die Macht von Big Data entschlüsseln und steuern

BMBF startet Forschung zu den gesellschaftlichen Folgen von wachsenden Datenmengen / Wanka: „Daten sollen Menschen dienen, nicht belasten“

Big Data bezeichnet den Umgang mit immer größeren Datenmengen. Moderne Auswertungsmethoden ermöglichen neue Erkenntnisse und können so nützliches Wissen generieren. Ebenso nimmt mit der Datenmenge und ihrer Analyse das Risiko zu, unerwünschte Rückschlüsse auf einzelne Personen und deren Umfeld zu ziehen. Der stärkere Einfluss von computergestützter Datenauswertung auf die gesellschaftliche Entwicklung ist absehbar. Das Bundesministerium für Bildung und Forschung (BMBF) startet daher das neue Forschungsprojekt „ABIDA – Interdisziplinäre Analyse der gesamtgesellschaftlichen und wirtschaftlichen Folgen beim Umgang mit großen Datenmengen“, um die Macht von Big Data besser zu verstehen und Lösungsansätze für den richtigen Umgang zu entwickeln.

„Forschung muss es uns ermöglichen, eine Technologie wie Big Data zu beherrschen. Wir wollen die Vorteile nutzbar machen, aber auch die Risiken aufzeigen“, sagte Bundesforschungsministerin Johanna Wanka. „Technologischer Fortschritt muss unsere soziale und rechtliche Grundordnung beachten und im Rahmen unseres Wertesystems bleiben. Wir müssen lernen, die richtigen Schlüsse aus den Daten zu ziehen. Informationen sollen Menschen dienen, nicht belasten.“ „Die Macht von Big Data entschlüsseln und steuern“ weiterlesen

Konzern IT-Symposium: Volkswagen treibt Digitalisierung voran

Der Volkswagen Konzern will die Digitalisierung weiter vorantreiben. Auf dem Konzern IT Symposium in Wolfsburg befassten sich deshalb jüngst Mitglieder des Volkswagen Konzern- und Markenvorstands sowie des Betriebsrats mit IT-Lösungen für die digitale Zukunft des Konzerns. Im Fokus standen die Themen Mobilität von morgen, Industrie 4.0 und Big Data. Der Vorstandsvorsitzende der Volkswagen Aktiengesellschaft, Prof. Dr. Martin Winterkorn, sagte: „Das IT Symposium hat gezeigt: Bei Zukunftsthemen wie der digitalen Vernetzung physischer Gegenstände, dem Internet der Dinge, hat der Volkswagen Konzern alle Voraussetzungen, zu den Besten der Welt zu gehören.“

„Die Digitalisierung verändert Kundenwünsche und Automobiltechnik rasant“, betonte Dr. Horst Neumann, Konzernvorstand für Personal, IT und Organisation. „Auto und IT wachsen immer stärker zusammen. Connected Car, autonomes Fahren, neue Apps und Big-Data-Analysen – bei diesen Entwicklungen spielt die IT mit ihren rund 11.000 Experten eine wesentliche Rolle. Eine leistungsstarke und kostengünstig arbeitende IT ist deshalb wichtiger denn je.“ „Big Data-Anwendungen, Cloud-Computing und Connectivity-Lösungen ziehen immer stärker ins Unternehmen ein“, erklärte Konzern IT-Chef Dr. Martin Hofmann. „Die zunehmende Digitalisierung erfordert neue Wege der Organisation und Zusammenarbeit. Deshalb stellt sich die Konzern IT neu auf. Künftig werden wir noch enger als bisher mit kleinen, innovativen Firmen zusammenarbeiten und gemeinsam mit ihnen kreative Lösungen für unsere Kunden entwickeln. Diese neue Art der Zusammenarbeit setzen wir in unserem Data Lab in München bereits erfolgreich um. Mit dem geplanten Digital Lab in Berlin und weiteren in China und den USA werden wir nahtlos daran anknüpfen.“ „Konzern IT-Symposium: Volkswagen treibt Digitalisierung voran“ weiterlesen

PWC: Unternehmen investieren in Big Data und Datensicherheit

Bei ihren Technologieinvestitionen fokussieren sich Unternehmen aktuell auf Big Data und Datensicherheit. 69 Prozent der Unternehmen gaben in einer Umfrage an, in Cybersicherheit zu investieren. 61 Prozent wenden Gelder für Private-Cloud-Lösungen auf. 54 Prozent der Firmen legen ihren Investitionsschwerpunkt auf die Datengewinnung und –analyse. Zu diesen Ergebnissen kommt ein Auszug aus dem „Digital IQ Survey 2015“, für den die Wirtschaftsprüfungs- und Beratungsgesellschaft PwC über 500 Geschäftsführer und IT-Leiter in 14 Ländern weltweit befragt hat, davon knapp 40 in Deutschland. Diese Schwerpunktsetzung wird sich im laufenden Jahr verfestigen: Gut die Hälfte der befragten Unternehmen will die Ausgaben für Cybersicherheit im Jahr 2015 weiter erhöhen. 47 Prozent planen eine Steigerung der Aufwendungen für Private-Cloud-Lösungen und 37 Prozent gaben an, ihre Ausgaben für die Datengewinnung und -analyse in den kommenden zwölf Monaten anheben zu wollen.
„PWC: Unternehmen investieren in Big Data und Datensicherheit“ weiterlesen

Big Data and Analytics: Capgemini will Datenschatz für Automobilhersteller und -handel heben

Daten sind das neue Öl, heißt es. Automobilhersteller wissen dank vernetzter Fahrzeuge und Käufer viel mehr über ihre Produkte und deren Fahrer. Aber volle Datenbanken allein nutzen wenig: Capgemini bietet mit dem Automotive Insights Laboratory nun ein virtuelles Datenlabor als Teil seines neuen AutomotiveConnect-Angebots. Auf Basis zahlreicher Datenquellen, vom Lebensstil bis zum Fahrverhalten, hilft Capgemini Fahrzeugherstellern und -händlern, die vorliegenden Daten zu sortieren, auszuwerten und so weit zu veredeln, dass sie echte Wettbewerbsvorteile bringen. Dafür trägt ein globales, spezialisiertes Team von Beratern, Analysten und Wissenschaftlern die Informationen zusammen, seziert sie in Echtzeit und bietet so Einblicke in Kundenwünsche und Kaufverhalten.

Klas Bendrick, Vice President und Group CIO, Volvo Car Group: „Wir stehen kurz vor einer automobilen Revolution, da wir die Chancen der Technologie im und um das Auto herum gerade erst entdecken. Letztlich ändert sich dadurch die Art, wie wir Autos fahren, nutzen, besitzen, designen, herstellen, verkaufen und bezahlen. Die OEMs müssen aufhören, den Autoverkauf als punktuelles Geschäft zu sehen und stattdessen als Mittel, um eine lebenslange Beziehung zum Kunden zu schmieden.“ „Big Data and Analytics: Capgemini will Datenschatz für Automobilhersteller und -handel heben“ weiterlesen

Big Data im Verlagswesen: Ein Schatz, der nicht gehoben ist

Deutsche Verlage nutzen das Potenzial von Big Data nicht ausreichend – und könnten dadurch den dringend erforderlichen Wandel in Richtung einer digitalen Organisation verpassen. Dies ergab eine aktuelle Tiefenbefragung von 15 deutschen Verlagen – kleine ebenso wie große Häuser und Fachanbieter – durch goetzpartners, nach eigenen Angaben eines der führenden Beratungsunternehmen für Strategie, M&A und Transformation. „Wir haben der Branche den Puls gefühlt und festgestellt, dass hier noch großer Nachholbedarf besteht, auch wenn einige – insbesondere die größeren – Verlage sich zumindest schon gedanklich mit dem Thema beschäftigen“, wird Marc Ziegler, Head of Digital Business bei goetzpartners und Hauptautor der Studie, in der begleitenden Pressemitteilung zitiert.

Dabei wächst das Datenaufkommen beinah exponentiell: Experten schätzen, dass es im Jahr 2020 etwa sieben mit dem Internet verbundene Geräte pro Person geben wird, die unter anderem dafür sorgen, dass die Menge der Daten, die Unternehmen verarbeiten müssen, um mehr als 50 Prozent pro Jahr steigt. Aktuell werden aber nur etwa 0,5 Prozent des Datenbestandes genutzt. Mit modernen Big Data-Tools lässt sich diese Lücke jedoch schließen.

„Wir sehen den Einsatz von Big Data-Technologien dabei primär als zusätzliche Erlösquelle und sekundär als Mittel, um Kosten zu sparen“, sagt Dr. Alexander Henschel, Managing Director bei goetzpartners und Co-Autor der Studie. Verlage, die diese Technologien konsequent für Prozessverbesserungen und zur Portfolio-Erweiterung nutzen, können einen höheren Anteil des digitalen Geschäfts am Gesamtumsatz – teils mehr als 40 Prozent – erwirtschaften und eine überdurch¬schnittliche Gesamtrendite von bis zu 30 Prozent erzielen. Ziegler: „Dazu müssen Medienunternehmen ihre Daten langfristig auch dadurch nutzen, dass sie beispielsweise Datenbank- oder datenbankähnliche Dienste anbieten, die konstante neue Umsätze in Form monatlicher Nutzungsgebühren generieren.“

Zunächst müssen die Publisher jedoch ihre Hausaufgaben machen: Ihnen stehen Daten aus verschiedensten Quellen – wie etwa Traffic-Analysen, CRM-Daten, Echtzeitinformationen aus Sozialen Netzwerken – in einer nie zuvor dagewesenen Frequenz zur Verfügung. Aber erst die analytische Verarbeitung und deren Visualisierung generieren relevante Informationen. Diese beiden Big Data-„Disziplinen“ müssen Verlage zukünftig zu ihren Kernkompetenzen ausprägen. Nur so können sie die Chancen nutzen, die der Strukturwandel in Zeiten sinkender Umsätze im traditionellen Print- und der noch unzureichenden Kompensierung durch das Digitalgeschäft bietet.

„Das gilt vor allem für Verlage, die ihre digitalen Inhalte nicht direkt monetarisieren können oder wollen“, betont Marc Ziegler. Durch den Einsatz von Echtzeit-Analysen können sie herausfinden, wie ein Artikel inhaltlich aufgebaut sein muss, welche Multimedia-Elemente in welcher Form kombiniert werden müssen oder wie eine Seite graphisch gestaltet werden muss, damit die Leser zu Nutzern werden und einen Artikel per Twitter oder Facebook viral verbreiten. Über diese zusätzlich generierte Reichweite können Verlagshäuser dann höhere Werbeeinnahmen erzielen. Der Einsatz von Predictive Analytics kann schon vorher ansetzen und helfen, die „richtigen“ Inhalte zu erstellen, solche also, die die Leser nachweisbar interessieren – oder in Zukunft interessieren werden. Diese können zudem automatisch für unterschiedliche Endgeräte aufbereitet und zielgruppengerecht ausgespielt werden. Wie unterschiedliche Überschriften und Bilder oder die Platzierung eines Beitrags auf der Seite das Leseverhalten beeinflussen, lässt sich heute ebenfalls in Echtzeit analysieren.

„Im Zuge der Befragung und durch unsere internationale Marktbeobachtung haben wir etwa 25 Anwendungsfälle identifiziert, in denen Big Data-Technologien gewinnbringend eingesetzt werden können“, erläutert Marc Ziegler. Wichtig sei es aber, zunächst die jeweils relevanten zu identifizieren und dann mit einem Pilotprojekt zu starten. „Wenn sich die ersten Erfolge einstellen, steigt erfahrungsgemäß die Akzeptanz im Unternehmen und ein Wandel kann auf größerer Ebene vollzogen werden“, ergänzt Henschel.

Die Studie ist unter http://www.goetzpartners.com/de/publikationen/studien/publication/big-data/ abrufbar.

Volkswagen eröffnet Data Lab in München

Die Volkswagen Konzern IT hat ein Data Lab in München eröffnet. In enger Zusammenarbeit mit Universitäten und Technologiepartnern sollen dort neue IT-Lösungen zu den Themen Big Data sowie Internet der Dinge entstehen.

„Mit dem Volkswagen Data Lab stärken wir unsere interne IT-Kompetenz und tragen neuestes Wissen über innovative Verfahren in den ganzen Konzern“, sagte Konzern IT-Chef Dr. Martin Hofmann. „Die Analyse und Bearbeitung großer Datenmengen wird immer wichtiger. Zusammen mit hochkarätigen Branchen-Partnern und Startups entwickeln unsere Mitarbeiter zukunftsweisende Ideen und erproben neue Technologien zur Analyse von Massendaten, wie sie zum Beispiel im vernetzten Fahrzeug entstehen. Das Data Lab soll die Kreativität und Experimentierfreude fördern, um neue Lösungswege zu entdecken.“

Unterstützt wurde die Gründung des Data Lab mit Mitteln des Innovationsfonds von Volkswagen. Er fördert Projekte, die über das bisherige Kerngeschäft von Volkswagen hinausgehen. Stephan Wolf, stellvertretender Vorsitzender des Konzernbetriebsrats, sagte: „Im Data Lab arbeiten Beschäftigte an Schlüsseltechnologien, die für den Konzern unverzichtbar sind. Es verbindet Zukunftssicherung und Qualifizierung und ist damit ein wichtiger Baustein, um Beschäftigung nachhaltig zu sichern.“

Wolfram Thomas, Konzernbeauftragter für Umwelt, Energie und neue Geschäftsfelder, betonte: „Die Digitalisierung verändert die Erwartungen der Menschen an die Mobilität grundlegend. Das Data Lab hilft uns, frühzeitig und auch unkonventionell Antworten auf Fragen zur Mobilität von morgen zu geben.“

Kernaufgabe des Data Labs ist die Entwicklung neuartiger IT-Lösungen, um Muster in Daten, beispielsweise zur Qualität von Bauteilen, zu analysieren. Die Erkenntnisse sollen dazu führen, Verfahren und Produkteigenschaften zu verbessern, und ebenso in die Entwicklung neuer Produkte einfließen. Weiteres Thema ist die Vernetzung von Autos mit ihrer Umwelt – vom Smartphone bis zum öffentlichen Verkehrsmanagement.

Im Data Lab entwickeln die Mitarbeiter schnell und unbürokratisch Ideen, setzen sie in Laborumgebung als Software-Prototypen um und erproben sie. Dazu steht ihnen modernste Hard- und Software zur Verfügung. Mitarbeiter der Konzern IT kooperieren dabei eng mit externen Partnern. Neben Forschungseinrichtungen wie der Ludwig-Maximilians-Universität München und dem Deutschen Forschungszentrum für Künstliche Intelligenz steuern führende Big Data-Technologieunternehmen und Startup-Unternehmen ihr Wissen bei. Für den Austausch mit der Gründerszene sorgt eine strategische Partnerschaft mit der German Entrepreneurship GmbH. Das Unternehmen vernetzt Wirtschaft und Wissenschaft mit Unternehmensgründern. Das Data Lab bündelt die Big Data-Aktivitäten bei Volkswagen und ist deshalb offen für alle Konzernmarken.

Die Volkswagen Konzern IT verbindet täglich Millionen von Menschen: Moderne Systemlösungen verbinden rund 590.000 eigene Mitarbeiter aus rund 300 Gesellschaften und Standorten mit mehr als 1,2 Millionen Beschäftigten bei den Lieferanten. Dazu kommen rund 650.000 Beschäftigte auf Seiten der Händler. Täglich steuert die IT im Volkswagen Konzern rund sechs Millionen E-Mails und betreut rund 300.000 PCs. Zehn internationale Rechenzentren sorgen für reibungslosen Datenverkehr.

Big Data Innovationslabor an der Universität Mannheim eröffnet

Nicht nur große Internetfirmen wie Google, Facebook oder Amazon nutzen gigantische Datenmengen, um ihr Geschäft anzukurbeln. Auch Banken, Energieerzeuger und Industrieunternehmen wollen ihre Kunden besser verstehen lernen. Doch Daten allein genügen nicht. Sie müssen intelligent ausgewertet und vernünftig in Geschäftsprozesse integriert werden. Im neuen Big Data Innovation Lab in Kooperation der SAP SE mit dem Institut für Enterprise Systems (InES) der Universität Mannheim konzipieren und entwickeln Wirtschaftsinformatiker Prototypen, die große und vielfältige Datenmengen schnell und effektiv verarbeiten. Firmen können sich in Pilotprojekten beraten lassen, wie diese Software im Unternehmen eingebettet werden kann.

„Wir entwickeln gemeinsam mit den Unternehmen innovative Szenarien und erforschen wie diese mit Big Data Technologien zu realisieren sind“, sagt Professor Dr. Alexander Mädche, Leiter des InES. Unter anderem entwickelt Mädche auch Szenarien für Banken. So ist die automatisierte Identifikation von Betrugsfällen mittels Analyse des Zahlungsverhaltens heute bei Banken bereits weit verbreitet. Im Bereich der Gestaltung einer intelligenten Interaktion zwischen Kunden und Bank gibt es jedoch noch viel Potenzial. Beispielsweise kennen Bankkunden folgendes Problem: Die Karte ist gesperrt, man weiß nicht wieso und es kann lange dauern bis sie wieder entsperrt ist. „Die Idee von Big Data Anwendungen ist es, Transparenz in den Prozess zu bringen, Kunden Informationen während der verschiedenen Phasen zu geben und für Rückfragen zur Verfügung zu stehen“, erklärt Professor Mädche. Dazu müsse die Bank Echtzeit-Informationen von verschiedenen Stellen sammeln, zum Beispiel aus der Filiale oder dem Kundenservice und per App oder E-Mail dem Kunden übermitteln.

Das SAP Innovation Lab an der Universität Mannheim ist Teil der Kooperation zwischen dem SAP University Alliances Programm und dem University Competence Center Standort an der Otto-von-Guericke Universität in Magdeburg. Neben dem Know-How Transfer können interessierte Firmen auch reale Daten im Lab analysieren. Parallel dazu wird auch ein Big-Data-Expertennetzwerk aufgebaut. Zukünftig sind weltweit weitere Innovation Labs nach dem Vorbild der Universität Mannheim geplant.

Eine Fahrt Richtung Zukunft – mit Big Data

Das gesamte Netzwerk der Automobilindustrie – von Herstellern über Fahrer, bis zu Händlern, Werkstätten und Anbietern von Mobile Content – nutzt große Datenmengen (Big Data). Machen wir einen Ausflug in die (sehr) nahe Zukunft – von Yves de Montcheuil, VP Marketing des Softwarehauses Talend

Ob in den Planungs- und Herstellungsprozessen, in Gebrauch oder Wartung, große Datenmengen haben sich in den Lebenszyklus des Automobils eingeschlichen. Viele Hersteller, einschließlich Ford und Volvo, haben umfangreiche analytische Programme eingeführt, um Millionen von Datenpunkten zu nutzen, die von den Sensoren in den aktuellen Fahrzeugmodellen erzeugt werden. Es gibt bei diesen Programmen mehrere Ziele: Nutzungsanalysen, Kraftstoffeffizienz und Kohlenstoffemission, Sicherheit, Fahrzeugleistung und Wartungsmanagement. Die Programme prägen die neue Realität des Autos des 21. Jahrhunderts, wie ein Käufer eines Neuwagens (nennen wir ihn William) in seinem Alltag erleben wird – vielleicht schon morgen …

Wie William ein Auto kauft

William hat gerade beschlossen ein neues Auto zu kaufen. Er beginnt seine Suche im Internet, chattet mit Freunden in sozialen Netzwerken, liest Vergleiche und Bewertungen, die online von der Fachpresse veröffentlich wurden, und klickt auf zielgerichtete Bannerwerbung. Nach kurzer Zeit beginnt sich sein Posteingang mit Nachrichten zu füllen, die ihn dazu einladen, die neusten Modelle verschiedener Hersteller zu testen. Als William bei dem Autohaus einbiegt, das er sich ausgesucht hat, bekommt er eine SMS, in der ihm ein Preisrabatt auf das Modell angeboten wird, das gestern seine Aufmerksamkeit erregt hatte. Er hat kaum einen Fuß aus seinem Auto gesetzt, als ein Verkäufer kommt um ihn zu begrüßen: Er wusste nicht nur, dass William heute vorbei kommt, er weiß auch, an welchem Modell er interessiert ist und hat bereits mehrere Angebote für ihn erstellt.

Yves de Montcheuil Foto: Talend
Yves de Montcheuil Foto: Talend

William braucht nicht sehr lange, um sich zu entscheiden. Nebenbei sollten wir festhalten, dass dieses Modell sowohl basierend auf Anwender-Feedback entworfen wurde, für das die Daten von den Sensoren früherer Generationen von Fahrzeugen gesammelt wurde, als auch auf Feedback von Händlern (Was ist beliebt oder ansprechend und was ist unattraktiv? Was wird benötigt und erwartet?). Sich veränderndes Nutzungsverhalten wurden ebenfalls berücksichtigt und diese Ergebnisse wurden verfeinert, basierend auf der Analyse mehrerer verschiedener Datentypen, einschließlich Leistungsdaten von Grand Prix Rennen und Prüfungen von Fachzeitschriften. William ist besonders an dem Navigationssystem der neuesten Generation interessiert, das nicht nur die Fahrzeit anderer Autofahrer verfolgt, um Staus zu verhindern, sondern auch hilft besonders unfallgefährdete Regionen zu meiden und Benzinverbrauch und damit Kohlenstoffausstoß zu optimieren.

Als das Fahrzeug geliefert wird, programmiert William als erstes seine Fahrer-Einstellungen: Position der Spiegel, Höhe des Sitzes und des Lenkrads, Temperatur und Lieblings-Radiosender. Diese Daten werden sofort in die Cloud übermittelt und können in anderen Fahrzeugen verwendet werden (Ersatz- oder Mietwagen). Er konfiguriert außerdem seine Mailbox (um Nachrichten im Freisprechmodus abzuhören) und seine Lieblingsrouten im Navigationssystem. Das ermöglicht ihm, die günstigste Tankstelle auf seiner Route zu lokalisieren, basierend auf seinem Ziel und dem aktuellen Kraftstoffverbrauch.

Williams erster Ausflug mit dem neuen Wagen ist leider lang und monoton. Kein Wunder, er hat in der Nacht vorher nicht viel geschlafen. Seine Augen beginnen zuzufallen und nach einiger Zeit wird er unaufmerksam und kann den Sicherheitsabstand zu den vorausfahrenden Fahrzeugen nicht mehr einhalten. Ein Alarm ertönt und eine freundliche Stimme empfiehlt ihm eine Pause einzulegen. Sein Fahrverhalten wird in Echtzeit analysiert und mit dem durchschnittlichen Normalverhalten von Autofahrern verglichen. Sich schließende Augen, ein Körper, der im Sitz zusammen sinkt, und schwankende oder schaukelnde Bewegungen des Kopfes sind Warnsignale für Schläfrigkeit. William entschließt sich zu einer Kaffeepause. Hätte er das nicht getan, hätte der Wagen im Falle von unmittelbarer Gefahr auf eine Art Autonavigation umgeschaltet oder einfach am nächsten Parkplatz oder Rastplatz gehalten.

Beim Durchblättern des Wartungshandbuchs seines Autos erfährt William, dass Wartung, die bisher auf der gefahrenen Distanz beruhte, nun personalisiert ist. Sie basiert auf den Informationen, die von zahlreichen Sensoren (Verschleiß der Bremsen, Motordrehzahl, Flüssigkeitsdruck, etc.) gesammelt wurden. Eine detaillierte Analyse dieser Daten (im Vergleich zu denen anderer Fahrer und der Beschreibung von Pannen oder Reparaturen, die von Händlern bearbeitet wurden) bestimmt den besten Zeitpunkt für eine Wartung. Da das Auto vernetzt ist, werden alle diese Daten in die Cloud gesendet, um statistische Modelle zu befüllen und Warnungen an den Fahrer zu schicken, falls eine potentielle Unregelmäßigkeit festgestellt wird. Zusätzlich können Fahrzeuge untereinander kommunizieren. So lassen sich potentielle Probleme im Voraus entdecken (Sicherheitsabstand, Pannenfahrzeug hinter einer Kurve, Stau, etc.).

Daten, die Markentreue fördern

Dies sind einige Beispiele der Zusatznutzen, die William dank Datenanalyse und Big Data genießt. Durch die Beobachtung des Fahrstils und unter Berücksichtigung des gesamten Lebenszyklus des Fahrzeugs, können Hersteller nützliche Informationen senden, die das Fahrerlebnis verbessern werden. Im Gegenzug erhalten sie privilegierte Beziehungen mit dem Kunden aufrecht, die Markentreue fördern.

Viele andere Leistungen sind im Augenblick in der Entwicklung: Extrem schnelle Reparaturen und Wartung, biometrische Steuerung des Türschlosses, Verfolgung im Diebesfall (und Stilllegung des Fahrzeugs), gezielte und standortbezogene Werbebotschaften via Radio, Wetter- und Naturkatastrophen-Alarm, Anpassung des Versicherungstarifs basierend auf dem Fahrverhalten, Autopilot, individuelle Musikprogramme, Reiseführer, mobile Zahlung, etc..

Jenseits ihres Kerngeschäfts bilden Hersteller heute ein wahres Netzwerk von Dienstleistern, für das Big Data der Kraftstoff der Zukunft ist. Abgesehen vom Ziel ihre Verkäufe und Gewinnmargen zu bewahren, erfinden einige Hersteller ihr Geschäft dank Big Data komplett neu. Jeder einzelne Kunde wird von der erhöhten Sicherheit, der verbesserten Wartung und dem gesteigerten Fahrkomfort profitieren und schließlich ein vollkommen innovatives und bahnbrechendes Nutzererlebnis genießen.

PWC: Big Data kommt in den Unternehmen an

Die meisten Industrieunternehmen wollen die Chancen von Big Data nutzen. Damit können sie die immer größer werdenden Datenmengen mittels moderner Methoden analysieren, erfassen und verarbeiten. Schon jetzt wenden 27 Prozent der Firmen in der Industrie Big Data an. Weitere 36 Prozent planen konkret den Einsatz. Weitere 30 Prozent beschäftigen sich zwar mit dem Thema, haben aber noch keine konkreten Planungen. Nur für acht Prozent spielt Big Data bislang keine Rolle. Das geht aus einer aktuellen Befragung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC unter 213 Entscheidern hervor.

„Big Data ist als Thema bei den Industrieunternehmen angekommen. Allerdings hapert es noch an der praktischen Umsetzung“, sagt Michael Rasch, Experte für Big Data bei PwC. „Mehr als der Hälfte der Entscheider, für die das Thema neu ist, wissen nicht genau, wie sie Big Data anwenden können und was und was damit machbar ist. Oft mangelt es auch an der finanziellen Ausstattung, um die Möglichkeiten von Big Data voll auszuschöpfen.“

Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop
Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop

Die größten Chancen von Big Data sehen 45 Prozent der Entscheider darin, die Profitabilität zu steigern – gefolgt von einem besseren Marktverständnis (44 Prozent) sowie der Analyse und Optimierung von Organisation und Prozessen (43 Prozent). Darüber hinaus können die Erkenntnis aus Big Data die Strategie von Unternehmen erheblich beeinflussen: „Knapp 40 Prozent der Entscheider, die bereits Big Data anwenden, gehen davon aus, dass ihr Geschäftsmodell durch ein neues ersetzt werden wird. Weitere 30 Prozent rechnen zumindest mit größeren Korrekturen“, so Rasch. Die Hälfte der Firmen, die den Einsatz von Big Data planen, versprechen sich effizientere Entscheidungen.

Als größte Hürde bei der praktischen Umsetzung nennen die Befragten die Sicherheit der Daten. So sehen die Entscheider aus Industrieunternehmen Datensicherheit (50 Prozent), Datenqualität (44 Prozent) und Datenschutz (42 Prozent) als größte Hürden. Außerdem vermissen 40 Prozent der Big-Data-User unternehmensintern das nötige Verständnis für dieses Thema. Angesprochen auf die größten Risiken, die mit Big Data verbunden sind, nennen diejenigen, die derzeit die Einführung planen, die Datensicherheit. Dagegen sehen die Nutzer technische Probleme und auch eine mögliche Fehlinterpretation der Daten als größte Gefahr.

Mit der intensiven Nutzung von Daten verändern sich Prozesse und Organisation in Unternehmen. Eine koordinierende Funktion könnte dabei in Zukunft der Chief Data Officer übernehmen. Er ist ein wichtiges Bindeglied zwischen Fach- und IT-Abteilungen und verantwortet das Sammeln und die Auswertung der Daten. Diese Position gewinnt an Bedeutung: 40 Prozent der Industrieunternehmen ohne Chief Data Officer wollen solch eine Stelle in Zukunft einrichten.

Die Budgets für Big Data unterscheiden sich erheblich. Rund drei Viertel der Unternehmen, die Big Data bereits nutzen, haben zwischen 100 000 und 500 000 Euro für Planung und Einführung ausgegeben. Doch so viel Geld kalkulieren die wenigsten Firmen von vorneherein ein: Zwei Drittel rechnen nur mit Kosten unter 100.000 Euro. Doch oft zeigt sich erst in der Praxis, dass die Investitionen nicht ausreichen: Rund 70 Prozent der Unternehmen der Big-Data-User wollen in den Geschäftsjahren 2014 und 2015 weitere 100 000 bis 500 000 Euro in Big Data investieren. Für viele Firmen ist das ein Problem: Mehr als ein Drittel der Big Data-Planer verfügt nach eigenen Angaben aktuell nicht über ausreichende Ressourcen und Mittel. Bei den Usern ist das bei jedem fünften Unternehmen der Fall.

Hier @carstenknop auf Twitter folgen.