Deutsche Unternehmen halten sich beim Einsatz neuer Technologien zurück

Eine repräsentativen Umfrage unter 505 Unternehmen aller Branchen im Auftrag des Digitalverbands Bitkom belegt, dass sich die deutsche Wirtschaft sich anstrengen muss, um beim Einsatz neuer Technologien im internationalen Wettbewerb mithalten zu können.

„Deutsche Unternehmen gehören bei der Nutzung von Künstlicher Intelligenz nur zu den Nachzüglern oder sind sogar weltweit abgeschlagen“ – diese These unterstützen zwei Drittel (68 Prozent) der befragten Vorstände und Geschäftsführer. Rund jeder Zweite meint, dies trifft auf 3D-Druck (48 Prozent), Blockchain (47 Prozent) und Robotik zu (45 Prozent), nur etwas weniger sind es bei den Themen Internet of Things (42 Prozent) und Virtual Reality (41 Prozent) sowie Big Data (37 Prozent) und Drohnen (31 Prozent).

„Unternehmen […] sind gut beraten, sich […] die Chancen für das eigene Geschäftsmodell auszuloten.“
Vor allem beim Einsatz von Künstlicher Intelligenz, 3D-Druck, Blockchain und Robotik sehen sich viele Unternehmen im Hintertreffen
Vor allem beim Einsatz von Künstlicher Intelligenz, 3D-Druck, Blockchain und Robotik sehen sich viele Unternehmen im Hintertreffen. Generell sehen sich die Unternehmen beim Einsatz neuer Technologien im Mittelfeld.
„Haben Unternehmen früher bei der Einführung neuer Technologien gezögert, so waren sie möglicherweise weniger effizient und haben teurer produziert als die Konkurrenz. Heute kann eine neue Technologie wie Künstliche Intelligenz oder Blockchain eine ganze Branche in Rekordzeit völlig umkrempeln“, sagt Bitkom-Präsident Achim Berg. „Unternehmen sollen neue Technologien nicht als Selbstzweck einführen, aber sie sind gut beraten, sich mit ihren Möglichkeiten zu beschäftigen und die Chancen für das eigene Geschäftsmodell auszuloten – oder für völlig neue Geschäftsmodelle.“

„Deutsche Unternehmen halten sich beim Einsatz neuer Technologien zurück“ weiterlesen

Cisco Cloud Index: 2021 läuft 95 Prozent des Datenverkehrs aus der Cloud

Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell, zeigt der jährliche Cisco Global Cloud Index (2016-2021).

Der weltweite Cloud-Rechenzentrumsverkehr wird laut der Studie 19,5 Zettabyte (ZB) im Jahr 2021 erreichen – eine Steigerung um 6,0 ZB im Vergleich zum Jahr 2016 und damit das 3,3-Fache mit einer jährlichen Wachstumsrate von 27 Prozent. In drei Jahren wird der Cloud-Traffic 95 Prozent des gesamten Datenverkehrs ausmachen, im Vergleich zu 88 Prozent 2016.

Sowohl B2C- als auch B2B-Anwendungen tragen gemäß der Studie zum Wachstum von Cloud-Services bei. Bei Konsumenten gehören Video-Streams, soziale Netzwerke und Internetsuche zu den beliebtesten Cloud-basierten Apps. Bei Mitarbeitern sind es ERP-, Collaboration- und Analyse-Lösungen.

Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell - so sagt die Studie voraus, das es 2021 weltweit 628 Hyperscale-Rechenzentren geben wird.
Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell – so sagt die Studie voraus, das es 2021 weltweit 628 Hyperscale-Rechenzentren geben wird.

Sicherheit und IoT als Wachstumstreiber

Die zunehmenden IoT-Applikationen wie intelligente Autos, Smart Cities, vernetztes Gesundheitswesen und digitale Versorgung erfordern hochskalierbare Server- und Speicher-Lösungen, um die neuen und erweiterten Anforderungen an Rechenzentren zu erfüllen. 2021 wird es 13,7 Milliarden IoT-Verbindungen geben, im Vergleich zu 5,8 Milliarden 2016, so die Studie. „Cisco Cloud Index: 2021 läuft 95 Prozent des Datenverkehrs aus der Cloud“ weiterlesen

Big Data: Deutsche gehen freizügig mit ihren persönlichen Daten um

Die Deutschen geben im Internet zunehmend ihre Privatsphäre auf und überlassen den Akteuren des Internets nahezu freiwillig Milliarden von persönlichen Daten. Gleichzeitig teilt die große Mehrheit der Deutschen (79 Prozent)* aber die Sorge um den Verlust ihrer Privatsphäre. Obwohl heute 59,7 Millionen** Menschen online sind, agieren sie im World Wide Web als digital unmündige Bürger. Die Preisgabe und der Verlust von Informationen und persönlichen Daten werden, wenn es um das Internet geht, nahezu verdrängt und ausgeblendet. Mit dem Positionspapier „Der gläserne Internetnutzer: Ist der Mensch das schwache Glied im Datenschutz?“ beleuchtet der Suchmaschinenanbieter Qwant in einer Pressemitteilung die Aspekte Datenschutz, Rechtsprechung und Nutzungsverhalten.

Der gläserne Mensch im virtuellen Raum

Das Internet weiß über den Nutzer mehr als dieser womöglich selbst. Über die Generationen von Internettechnologien hinweg hat der Deutsche gelernt, seine privatesten Momente wie Ängste, Wünsche, Sorgen und Träume zu teilen. Durch das Suchen nach bestimmten Informationen und durch das Teilen von Gedanken in den sozialen Netzwerken wie Facebook, Twitter und Co. machen sich die Internetnutzer öffentlich und ihre persönlichen Daten damit auswertbar. Dabei entsteht eine neue Dimension von Daten, die zur Währung von Marketing und Werbung werden. Nico Bödeker, General Country Manager von Qwant in Deutschland, sieht die zunehmende Datensammelwut der Internetunternehmen kritisch: „Die Deutschen möchten sich auch im Internet sicher fühlen und ihre Daten besser schützen. Doch ihnen fehlt es momentan an Wissen und Kenntnis. Da möchte Qwant ansetzen, über mögliche Schutzmechanismen aufklären und die digitale Welt nachhaltiger gestalten“, wird Bödeker in der Mitteilung zitiert. Obwohl Datenschutz und Privatsphäre des Deutschen vermeintlich wichtigstes privates Gut sind, ist die Kluft zwischen Anspruch und Realität noch spürbar groß. Dennoch wollen sie etwas für ihre Privatsphäre tun: 74 Prozent würden beispielsweise eine andere Suchmaschine nutzen, um sich und ihre persönlichen Daten besser schützen zu können*.

Das Internet ist kein Mikrokosmus

Die Digitalisierung beeinflusst die Deutschen, ihr Zuhause und ihren Alltag immer mehr. Das Internet als wichtigster Informations- und Kommunikationsdienstleister der heutigen Zeit verändert Gewohnheiten, Lebensstil und Kaufverhalten. Kommunikation findet öffentlich und unverfälscht, in Echtzeit und ohne Verzögerung statt. Eine Ambivalenz im Denken und Handeln durch den Wechsel zwischen online und offline können durch Sorglosigkeit, Bequemlichkeit oder Desinteresse entstehen.

Über die Beziehung der Deutschen zum Internet und ihrer Privatsphäre hat der europäische Suchmaschinenanbieter Qwant gerade ein Positionspapier veröffentlicht. Darin wirft Qwant einen Blick hinter die Bildschirme von Computern, Tablets und Smartphones und beleuchtet das Verhältnis der Deutschen zum Datenschutz.

* = GfK eBUS, „Datenschutz im Internet“, Juni/Juli 2017, n=500 Männer und Frauen ab 14 Jahre
** = Statista, „Anzahl der Internetnutzer in Deutschland „, 2017, Hochrechnung der AGOF daily digital facts

Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter

Hewlett Packard Enterprise (HPE) stellt heute den weltgrößten Computer mit einheitlichem Arbeitsspeicher vor, es ist der neuste Meilenstein des Forschungsprojekts „The Machine“. The Machine ist das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt HPE ein neues Computer-Paradigma, genannt Memory-Driven Computing – eine speziell für das Zeitalter von Big Data entwickelte Computer-Architektur.

„Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen“, so Meg Whitman, CEO von Hewlett Packard Enterprise. „Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“

Der heute vorgestellte Prototyp hat 160 Terabyte (TB) Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten – etwa 160 Millionen Bücher. Es war vorher nie möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Skalierbarkeit und gesellschaftliche Auswirkungen
„Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter“ weiterlesen

Humanized Big Data, Insight Engines & Co.

Die Geschäftswelt befindet sich inmitten der digitalen Transformation, in der die Spreu vom Weizen getrennt wird. Lesen Sie welche Technologietrends helfen, den Schritt ins digitale Zeitalter erfolgreich zu absolvieren und welche Vorteile Conversational Systems, Humanized Big Data und Augmented Information für den Geschäftsalltag bereithalten.

Von Daniel Fallmann, Gründer und Geschäftsführer der Mindbreeze GmbH.

1. Conversational Systems: Im menschlichen Dialog mit künstlicher Intelligenz

Empfehlungssysteme auf Verkaufsplattformen oder sogenannte Chatbots, die in Dialog mit dem User treten, um ihn beispielsweise durch einen Geschäftsprozess zu führen, sind keine Seltenheit mehr. Allerdings sind die Empfehlungen meist so unspezifisch und die Intelligenz der Chatbots derart eingeschränkt, dass die Effektivität darunter leidet – von der Motivation der User ganz zu schweigen.
Das soll bald anders werden. Unternehmen investieren immer stärker in Technologien wie „Natural Language Processing“ oder „Natural Language Question Answering“, um ihre Systeme intelligenter und damit effizienter zu machen. Beispiel: Anstatt bei einer Suchanfrage Dokumente zu erhalten, aus denen der User selbst die gewünschte Antwort extrahieren muss, sorgt ein Question Answering-System dafür, dass der Benutzer eine konkrete Aussage wie in einem (idealtypischen) Gespräch zwischen zwei Menschen erhält.
Um dieses Ziel zu erreichen, braucht es viel Künstliche Intelligenz im Hintergrund: Das System muss etwa aus dem Kontext die Absicht und auch die Stimmung des Fragestellers extrahieren können. Die Fortschritte in diesem Bereich sind derart groß, dass demnächst Dialog-Systeme zum Einsatz kommen werden, die es für den Anwender fast unmöglich machen, herauszufinden, ob sich dahinter ein Mensch oder eine Maschine befindet – Stichwort „Turing Test“. „Humanized Big Data, Insight Engines & Co.“ weiterlesen

Big Data für die Krebstherapie der Zukunft: Wissenschaftler aus Boston tritt internationalem FiZ-Projekt bei

Das FiZ hat den bekannten Bostoner Experten für translationale Medizin, Dr. Calum A. MacRae, als Ratgeber für das Projekt German Genethics gewonnen. Dr. A. Calum MacRae ist Professor am Brigham and Women’s Hospital der Harvard Medical School (HMS). Der international ausgewiesene Spezialist für Humangenetik und klinische Genetik wird die heute in Boston initiierte Kooperation mit German Genethics leiten. In einem gemeinsamen Workshop definierten das FiZ und seine assoziierten Partner – BioVariance, Cyntegrity, GFE Blut, Intelligent Data Analytics und Personome – gemeinsam mit Dr. MacRae eine konkrete Roadmap für die kommenden sechs Monate, in denen der Humangenetiker beratend für German Genethics tätig sein wird.

Die FiZ Frankfurter Innovationszentrum Biotechnologie GmbH bietet kleinen und mittelständischen Unternehmen der Life Sciences am Standort Frankfurt Rhein-Main auf rund 23.000 m² eine maßgeschneiderte Forschungsinfrastruktur und damit optimale Arbeitsbedingungen. 16 Unternehmen mit 700 Arbeitsplätzen haben im FiZ ihren Standort. Darüber hinaus hat sich das FiZ als eine wichtige Adresse für Kooperationen und interdisziplinäre Netzwerke entwickelt.

German Genethics zielt auf die datenbasierte Optimierung von Krebstherapien: Eine einzigartige, strukturierte Datenbank verbindet die molekulargenetische Diagnose eines einzelnen Krebsgewebes mit dem gesammelten Wissen über Krebserkrankungen und deren Therapien. Behandelnde Ärzte erhalten hier fundierte individuelle Therapieempfehlungen für ihre Patienten, die sie als Zweitmeinung bzw. zur Absicherung ihrer Therapieentscheidung nutzen können. Zielmärkte von German Genethics sind Emerging Markets wie Indien und die Philippinen, wo eine Zusammenarbeit mit den dortigen wissenschaftlichen Institutionen erfolgt. „Big Data für die Krebstherapie der Zukunft: Wissenschaftler aus Boston tritt internationalem FiZ-Projekt bei“ weiterlesen

Big Data: Unternehmen machen zu wenig aus ihrer Datenanalyse

Das wirtschaftliche Potenzial durch die Nutzung großer Datenmengen ist noch lange nicht ausgeschöpft. Die Vorteile dieser als „Big Data“ und „Advanced Analytics“ bezeichneten Technologien werden von Unternehmen aktuell nur zu rund 30 Prozent realisiert. Am stärksten ist der Einsatz von Advanced Analytics bei der Nutzung standortbasierter Dienstleistungen wie Navigation oder mobiler Werbung verbreitet. In diesen beiden Bereichen sind rund 50 bis 60 Prozent des Potentials ausgeschöpft. In anderen Feldern wie der industriellen Fertigung (20 bis 30 Prozent) oder der öffentlichen Verwaltung (10 bis 20 Prozent) liegt hingegen noch ein großer Teil des Potenzials brach. Dies geht aus einer aktuellen Studie des McKinsey Global Institute (MGI) mit dem Titel „The age of analytics: Competing in a data-driven world“ hervor. Für die Analyse untersuchte das Forschungsinstitut der Unternehmensberatung McKinsey & Company fünf exemplarische Anwendungsfelder im Detail und baut damit auf einer Untersuchung aus dem Jahr 2011 auf.

Datenbasierte Unternehmen weltweit am wertvollsten

„Weltweit verdoppelt sich die Menge verfügbarer Daten alle drei Jahre“, sagt Peter Breuer, Seniorpartner von McKinsey und Analytics-Experte. Digitale Plattformen, vernetzte Sensoren und Milliarden von Smartphones generierten kontinuierlich neue Informationen. Gleichzeitig seien die Kosten für die Datenspeicherung stetig gesunken und die Auswertungsmöglichkeiten durch immer leistungsfähigere Computer gewachsen. „Unternehmen, die Daten und Datenanalyse nutzen, um Probleme zu lösen, haben schon heute einen enormen Wettbewerbsvorteil. Sie gestalten ihre Prozesse effizienter und verstehen die Kunden besser“, so Breuer. Die Mehrzahl der derzeit wertvollsten börsennotierten Unternehmen der Welt – wie die großen Internetkonzerne – sowie zahlreiche Startups mit Firmenbewertungen über einer Milliarde Dollar unterscheiden sich von ihren Wettbewerbern durch die intelligente Nutzung von Daten. „Das heißt im Umkehrschluss: Firmen, die nicht aus der ‚digitalen Welt‘ kommen, sollten diese Fähigkeiten schnell aufbauen, um nicht abgehängt zu werden“, so Breuer. „Big Data: Unternehmen machen zu wenig aus ihrer Datenanalyse“ weiterlesen

„Smarte Maschinen – Wie Künstliche Intelligenz unser Leben verändert“, ein Buch von Ulrich Eberl

Ein Beitrag von unserem neuen Redaktionsmitglied Rainer Weihofen

Nach fast 400 Seiten Lektüre steht ein einfaches Fazit: Ob es in naher Zukunft wirklich smarte (clevere, gewitzte, sehr geschickte) Maschinen geben wird, ist weiterhin fraglich, smarte Bücher gibt es jedenfalls schon heute. Ulrich Eberl, Biophysiker und Wissenschaftsjournalist, hat in seinem Buch „Smarte Maschinen – Wie künstliche Intelligenz unser Leben verändert“ einen cleveren Rundumschlag abgeliefert und die grossen Themen Maschinelles Lernen für Künstliche Intelligenz, Big Data und Robotik in kleine, kurzweilige und bisweilen gewitzte Informationshappen zerlegt.

Das Buch spannt einen weiten Bogen und liefert einen schnellen, meist einfach zu verstehenden Überblick über die wichtigsten Themen und Technologien, die den Entwicklern in Forschungsinstituten und Industrieunternehmen auf dem Weg zu „smarten Maschinen“ begegnen: Deep-Learning, semantische Suche oder Neurochips. Viele anschauliche Beispiele oder überraschende Fakten ergänzen die technisch-wissenschaftlichen Ausführungen. So erfährt der Leser im Kapitel „Deep-Learning“, dass die Synapsen im menschlichen Gehirn eine Gesamtlänge von sechs Millionen Kilometern haben, und ahnt, dass die Technik der Neuronalen Netzwerke davon wohl noch ein gutes Stück entfernt ist. Der Autor beschreibt die wesentlichen Querverbindungen zwischen den Fachgebieten und gibt einen Eindruck, was zusammenwachsen wird und was schon zusammengewachsen ist.

Wer gewinnt? Menschliche gegen künstliche Intelligenz. Foto: privat
Wer gewinnt? Menschliche gegen künstliche Intelligenz. Foto: privat

So begegnen uns Deep-Learning-Systeme und Big Data in unserem Alltag im Duett, zum Beispiel in Navigationssystemen oder bei Google Search. Viele Milliarden Anfragen (Big Data) erreichen Google Tag für Tag. Das Verhalten der Suchenden, hilft den Algorithmen beim Lernen: „Wenn jemand zum Beispiel ‚Nikolaus‘ eintippt und dann auf ein entsprechendes Bild klickt, weiss die Suchmaschine von Mal zu Mal besser, wie ein Nikolaus aussieht (Deep-Learning)“, illustriert der Autor den Prozess anschaulich. „„Smarte Maschinen – Wie Künstliche Intelligenz unser Leben verändert“, ein Buch von Ulrich Eberl“ weiterlesen

Big Data zwischen Hype und Realität

Sechs von zehn deutschen Unternehmen bewerten die Fähigkeit, aus heterogenen Massendaten neues, geschäftlich nützliches Wissen zu extrahieren, als einen zentralen Erfolgsfaktor in der digitalen Revolution. Weithin unklar ist indessen, wie sich die eigene Firma zu einer „Data-driven Company“ weiterentwickeln kann. Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting, erläutert im Interview, welche Herausforderungen bewältigt werden müssen, damit aus Daten tatsächlich Wettbewerbsvorteile werden.

Herr Schlömer, Unternehmer setzen große Erwartungen in Big Data. Woran liegt es, dass die wenigsten Projekte bislang über ein „Laborstadium“ hinauskommen?

Die permanent steigende Datenflut birgt ein erhebliches Geschäftspotenzial – davon sind 9 von 10 Führungskräften in Industrie und Wirtschaft überzeugt. Dies hat nicht zuletzt unsere Potenzialanalyse zum Thema gezeigt. Allerdings verwendet nur eine Minderheit der befragten Unternehmen schon jetzt datenbasierte Analysen und Prognosen systematisch für die eigene Geschäftstätigkeit. Stattdessen trifft mehr als die Hälfte der Befragten wichtige Entscheidungen nach wie vor intuitiv. Offenbar gibt es eine tiefe Kluft zwischen theoretischer Einsicht und der Fähigkeit zur praktischen Umsetzung.

Lars Schlömer Foto: Sopra Steria
Lars Schlömer Foto: Sopra Steria

Was sind dafür die Hauptursachen?

Die meisten Unternehmen haben bei der Umsetzung noch einen weiten Weg vor sich. So ist auch nur ein Viertel der Entscheider mit der aktuellen Umsetzung von Data Science im Unternehmen sehr zufrieden. Probleme liegen in einer unzureichenden Datenbasis, mangelnden personellen und technischen Ressourcen, fehlendem Verständnis für datengetriebene Prozesse, der organisatorischen Verankerung oder auch im Datenschutz. Häufig fangen die Probleme aber schon bei der Begrifflichkeit und den Erwartungen an. Big Data ist eines der aktuellen Hype-Themen und dazu gehört, dass es nicht scharf umrissen ist – jeder kann sich seine eigene Vorstellung machen und diese ist meist mit Illusionen verbunden.

Welche zum Beispiel? „Big Data zwischen Hype und Realität“ weiterlesen

Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage

Die Nutzung von „Big Data“ ist in deutschen Unternehmen angekommen. Zur Entscheidungsfindung nutzen nahezu alle befragten deutschen Unternehmen Datenanalysen (97 Prozent). Wenn es jedoch darum geht, strategische Entscheidungen zu treffen, verlassen sich 41 Prozent der befragten Konzernlenker in Deutschland noch hauptsächlich auf ihre Erfahrung und Intuition, während 34 Prozent von ihnen primär auf „Data & Analytics“, der systematischen Erhebung und Auswertung von Daten, zurückgreifen. Das sind die Ergebnisse der internationalen Studie „PwC’s Global Data and Analytics Survey 2016: Big Decisions™“ der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC, für die mehr als 2.000 Entscheidungsträger weltweit befragt wurden, darunter rund 170 hierzulande.

„Subjektivität und Intuition können nicht komplett aus unternehmerischen Entscheidungsprozessen herausgefiltert werden“, sagt Barbara Lix, Verantwortliche für das Thema Data & Analytics bei PwC in Deutschland. „Dennoch können Prognosen sowie das Aufzeigen und die Bewertung von Risiken als Entscheidungshilfe für strategische Entscheidungen dienen und die Entscheidungsqualität verbessern. Nur Unternehmen, die in ihrer Entscheidungsfindung das richtige Verhältnis von Kopf und Maschine finden, werden mit dem digitalen Wandel Schritt halten.“

Deutsche Unternehmen setzen verstärkt auf „Advanced Analytics“

Unternehmen in Deutschland unterscheiden sich von Unternehmen in anderen Ländern, die sich laut Befragung weniger von Datenanalysen leiten lassen und deren Analysemethoden weniger fortgeschritten, also primär deskriptiv sind: Im globalen Vergleich beschreiben vier von zehn Unternehmen aus anderen Ländern (39 Prozent) ihre Entscheidungsfindung als „sehr stark datengetrieben“, während dies auf knapp die Hälfte der Befragten in Deutschland zutrifft (49 Prozent). Während 52 Prozent der deutschen Unternehmen bereits fortgeschrittene Formen der Datenanalyse („Advanced Analytics“) wie etwa prädiktive (prognose-basierte) und präskriptive (handlungsempfehlende) Analysemethoden nutzen, setzt die Mehrheit der Unternehmen in anderen Ländern (57 Prozent) nach wie vor eher deskriptive und diagnostische Methoden ein. „Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage“ weiterlesen

Big Data: Sechs Tipps für den erfolgreichen Einsatz

Das Schlagwort Big Data weckt in der Wirtschaft große Hoffnungen: Laut einer aktuellen Umfrage im Auftrag von Sopra Steria Consulting wollen sieben von zehn deutschen Unternehmen bis zum Frühjahr 2017 in entsprechende Analyse-Tools investieren. Gleichzeitig offenbart die Studie weithin diffuse Vorstellungen davon, auf welche Weise die Auswertung tagtäglich anfallender Massendaten konkret zu höherer Agilität und verbesserter Unternehmensperformance beitragen kann. Eines muss Firmen dabei klar sein: Data-Science-Lösungen sind alles andere als einfach und auch nicht zum Nulltarif zu haben. Sechs Managementtipps helfen, Fallstricke auf dem eigenen Weg zur „Data-driven Company“ zu vermeiden.

Das Schlagwort Big Data ist für viele Unternehmen zu einer Art Projektionsfläche ihrer Wünsche und auch mancher Illusion geworden. Diesen Schluss legt die aktuelle Potenzialanalyse „Data Science“ von Sopra Steria Consulting nahe. 94 Prozent der dafür befragten Entscheider erwarten zum Beispiel, dass sich die wirtschaftliche Performance ihrer Firma durch datengetriebenes Agieren verbessert. Fast ebenso viele gehen davon aus, dass Data Science wertvolle Erkenntnisse liefern und Entscheidungsprozesse verändern kann. Entsprechend hoch ist die Investitionsbereitschaft, um dieses Ziel zu erreichen: Lediglich zwei Prozent der Studienteilnehmer planen derzeit keinerlei kurzfristige Investitionen in diesem Bereich. Fast drei Viertel hingegen wollen bis zum nächsten Frühjahr finanzielle Mittel für Analysetechnologien und zwei Drittel für die Neueinstellung entsprechender Fachkräfte bereitstellen. Auf dem Arbeitsmarkt sind Data-Science-Spezialisten allerdings eine Rarität. „Unternehmen sollten deshalb gezielt auf die Aus- und Weiterbildung eigener Mitarbeiter setzen – gerade, weil diese das Geschäft und die Prozesse bereits kennen“, so die erste Empfehlung von Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting. „Big Data: Sechs Tipps für den erfolgreichen Einsatz“ weiterlesen

Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben

Weltweite Studie von Capgemini und Informatica untersucht Erfolgsfaktoren von rentablen Big-Data-Projekten

Eine klar strukturierte Governance, die disziplinierte Implementierung und die Unterstützung durch das Top-Management sind die entscheidenden Faktoren für eine erfolgreiche Operationalisierung von Big-Data-Vorhaben – so die zentralen Ergebnisse der Studie „The Big Data Payoff: Turning Big Data into Business Value“ von Informatica und Capgemini. Die Befragung von mehr als 200 Führungskräften aus IT- und Datenmanagement in Europa und den USA zeigt, dass aktuell weniger als ein Drittel (27 Prozent) der Big-Data-Projekte rentabel ist. Ein Schlüsselfaktor für die Profitabilität von Big Data ist die Verankerung im Business. Es ist mehr als doppelt so wahrscheinlich, dass ein Big-Data-Projekt gewinnbringend ist, wenn ein Chief Operating Officer (COO) oder Chief Data Officer (CDO) anstelle des CIOs die Leitung übernimmt. Während aktuell mehr als die Hälfte der Befragten (52 Prozent) angibt, dass die Big-Data-Strategie in den Händen der CIOs liegt, verschieben sich die Zuständigkeiten hin zum operativen Geschäft: So übernehmen COO (20 Prozent), Chief Technology Officer (16 Prozent) und Chief Marketing Officer (16 Prozent) mehr und mehr die Verantwortung.

Datenqualität und Governance sind Dreh- und Angelpunkt

Die Studie belegt den immer stärkeren Einfluss von Stakeholdern aus dem operativen Geschäft auf Big-Data-Vorhaben, wobei allen voran die COOs gut laufende Projekte verantworten. Auch tendieren Unternehmen mit gewinnbringenden Big-Data-Initiativen dazu, effektiver beim Management der Datenqualität und der Data Governance sowie beim Anwenden unternehmensweiter Standards zu sein. Drei Viertel (75 Prozent) der Befragten, die profitable Projekte vorweisen können, geben an, dass sie sich in den Themenfeldern Datenqualität und Governance exzellent oder sehr gut weiterentwickelt haben. Unter allen Studienteilnehmern sagen dies nur 50 Prozent. „In der Praxis kommt es darauf an, die beiden Gegenspieler Governance und Agilität auszubalancieren. Eine rigide Governance bremst aus. Althergebrachte Governance-Ansätze aus der BI funktionieren in der heutigen Datenwelt nicht mehr. Für diese Gratwanderung sollten Unternehmen Eigentümer für alle internen und externen Data Assets festlegen und einfache Regeln und Prozesse zur Freigabe von Daten durch die Eigentümer an die Anforderer definieren“, so Rüdiger Eberlein, Chefarchitekt und Berater der Global Practice Insights & Data bei Capgemini in Deutschland. Auch verweisen 75 Prozent der Top-Performer hinsichtlich Profitabilität auf ihre Erfolge bei der Standardisierung und Verbesserung der Konsistenz der Daten in der eigenen Organisation, während der Wert bei der Gesamtheit der Befragten bei 47 Prozent liegt. „Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben“ weiterlesen

RWE und Planet OS: Partnerschaft zum Aufbau einer Big-Data-Plattform für Geodaten

RWE und Planet OS haben eine strategische Partnerschaft in Hinblick auf den Aufbau einer Big-Data-Infrastruktur vereinbart. Ein entsprechender Vertrag wurde am 4. Februar in Berkeley (Kalifornien) unterzeichnet. Das erste gemeinsame Projekt beider Unternehmen ist ein Next Generation Dashboard für den von RWE mitbetriebenen Offshore-Windpark Gwynt y Môr vor der walisischen Küste.

„Da Energie in zunehmendem Maße dezentral erzeugt wird und der Anteil an erneuerbaren Quellen immer mehr zunimmt, müssen wir uns Problemen wie der Unvorhersehbarkeit von Wetterlagen und anderen äußeren Risikofaktoren stellen, denen die Welt von heute ausgesetzt ist“, sagte Peter Terium, Vorstandsvorsitzender der RWE AG, während eines Besuchs beim kalifornischen Tochterunternehmen. „Die Nutzung der Technologie, die von Planet OS entwickelt wurde, ermöglicht uns das Monitoring und die Analyse der von Geodaten-Sensoren gemessenen Werte in ein und demselben System, was wiederum die Effizienz, den Sicherheitsgrad und die Produktionsleistung erhöht. Für RWE ist das ein wichtiger Schritt in Richtung unseres Ziels, eines der führenden daten- und technologiegesteuerten Versorgungsunternehmen in Europa zu werden“, ergänzte Terium.

Planet OS ist ein Big-Data-Infrastrukturunternehmen für Geodaten, das Produkte und Services für die Energiebranche und staatliche Behörden in den Bereichen Data Discovery, Datenzugang und Entscheidungsunterstützungssysteme anbietet. „Die Technologie von Planet OS ist beeindruckend. Sie haben eine Reihe von leistungsfähigen, cloud-basierten Lösungen geschaffen, die es uns ermöglichen, frei verfügbare und kommerzielle Umweltdaten auf sichere Weise in unser Datensystem zu integrieren“, lobte Hans-Martin Hellebrand, Manager der im Silicon Valley ansässigen RWE New Ventures LLC.



„Für uns ist es eine Ehre, eine Partnerschaft mit RWE einzugehen und wir sind sicher, dass daraus eine lange währende Kooperation erwächst. Unser erstes gemeinsames Projekt ist eine vereinheitlichte Benutzerschnittstelle für den Windpark Gwynt y Môr in Wales, der weltweit zweitgrößten Offshore-Anlage“, sagte Rainer Sternfeld, Gründer und Geschäftsführer von Planet OS. Energieunternehmen, die ihre Datenfeeds voneinander getrennt hielten, würden nicht nur Chancen für Wachstum verpassen, sondern sich auch enormen Risiken aussetzen. Die Lösungen, wie sie Planet OS anbietet, nutzten eine „gemeinsame Sprache“, wie sie von Fachleuten und Anwendern gleichermaßen verstanden und benötigt würde, um das Betriebsergebnis zu erhöhen, Risiken für die Umwelt zu minimieren und neue Geschäftsmöglichkeiten auszuloten. „Glücklicherweise haben weitsichtige und ambitionierte Unternehmen wie RWE erkannt, dass Daten die Ware der Zukunft sind“, fügte Sternfeld hinzu.

Das Partnerschaftsabkommen wurde zwischen der RWE New Ventures LLC, einer kalifornischen Tochter der RWE AG, einem der führenden europäischen Energieversorgungsunternehmen, und der im Silicon Valley ansässigen Planet OS Inc., einem Big-Data-Unternehmen mit Wurzeln in Estland, unterzeichnet. Im vergangenen Herbst wurde Planet OS als einer der bahnbrechenden Lösungsansätze zur Erreichung der „Ziele nachhaltiger Entwicklung“, die im gleichnamigen UN-Programm formuliert sind, ausgewählt. Das alles überspannende Ziel von Planet OS ist, zu einer detaillierten Suchmaschine für Georaumdaten der Erde zu werden.

Big Data Report: Unternehmen stehen in den Startlöchern

Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop
Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop

Unternehmen setzen sich zunehmend mit den Möglichkeiten der Datenanalyse auseinander. Zwar haben erst ein Viertel der Unternehmen konkrete Projekte gestartet und sogar erst 8 Prozent tatsächlich beendet, dennoch beschäftigen sich 78 Prozent der Unternehmen mit der Thematik. Dies zeigen die aktuellen Zahlen zur Verbreitung von Datenanalysen des „Big Data Reports“ der Hochschule Reutlingen, der im Auftrag der T-Systems Multimedia Solutions erstellt wurde. Je nach Unternehmensgröße sind deutliche Unterschiede in der Akzeptanz und im Einsatz von Big Data zu erkennen. Insbesondere kleine und mittelständische Unternehmen mit bis zu 500 Mitarbeitern befassen sich noch kaum mit den Möglichkeiten der Datenanalyse.

Interne Daten im Fokus, Echtzeit-Analysen im Kommen

Bei der Hälfte der Unternehmen stehen interne Daten, wie etwa Prozess- oder Sensordaten im Fokus der Analysen. Kernziele sind dabei die Prozessoptimierung (52%) sowie die Analyse von Kundenanliegen (52%). Vorausschauende Analysen, sogenannte Predictive Analytics, die insbesondere im Maschinen- und Wartungsumfeld interessant sind, finden in 20 Prozent der Unternehmen Anwendung. Während bei ca. einem Drittel der Befragten die Daten bei Bedarf ausgewertet werden, setzen 14 Prozent der Unternehmen schon auf fortlaufende Datenanalysen in Echtzeit. „Big Data Report: Unternehmen stehen in den Startlöchern“ weiterlesen

Europäische Unternehmen sind Big-Data-Nachzügler

Auf dem Weg zu Industrie 4.0 wartet noch viel Arbeit. Diesen Schluss lässt die aktuelle Studie „Big Data Use Cases“ des Analysten- und Beratungshauses BARC zu. Die vom Softwarehaus Teradata gewiss nicht ganz uneigennützig mitfinanzierte Studie ergab, dass nur 13 Prozent der Industrieunternehmen Big Data-Analysen bereits in ihre Unternehmensprozesse integriert haben. Die Studie erstellte BARC auf Basis einer internationalen Online-Umfrage, an der 559 Personen aus unterschiedlichen Branchen teilnahmen. Die meisten Teilnehmer kamen mit 37 Prozent aus der DACH-Region. Die vollständige Studie steht auf der BARC-Website zum Download bereit.

Insgesamt bleiben europäische Unternehmen bei der Nutzung von Big Data deutlich hinter denen aus Nordamerika zurück. Dort sind entsprechende Initiativen in 28 Prozent der befragten Unternehmen ein Teil der Geschäftsprozesse. Nimmt man die Pilotprojekte hinzu, können mehr als die Hälfte der nordamerikanischen Unternehmen praktische Erfahrungen mit Big Data aufweisen. Europäische Unternehmen liegen mit 16, beziehungsweise 39 Prozent deutlich zurück. Noch hinter dem europäischen Durchschnitt liegt die DACH-Region. Hier sind Big Data in nur 14 Prozent der Unternehmen in die Prozesse integriert, Pilotprojekte setzen 20 Prozent um.

Fehlende Expertise als Haupthindernis:
Als Probleme beim Einsatz von Big Data sehen 53 Prozent der Befragten mangelndes fachliches, 48 Prozent zu wenig technisches Wissen. Folgerichtig plant ein knappes Drittel der Unternehmen mit Big Data-Projekten, in diesem Bereich neue Stellen zu schaffen – ein Vorhaben, für das laut BARC bislang noch zu wenig Experten zur Verfügung stehen. Ein weiteres Hemmnis bei der Nutzung großer Mengen polystrukturierter Daten sind die Themen Datenschutz und Datensicherheit. Diese nennen jeweils knapp die Hälfte der Befragten. „Europäische Unternehmen sind Big-Data-Nachzügler“ weiterlesen

Big Data wird für Unternehmen zum Alltag

Mittlerweile finden sich nur noch wenige Unternehmen, die eine Big-Data-Initiative für nicht denkbar halten. Bereits über 40 Prozent der Unternehmen haben laut einer internationalen BARC-Anwenderbefragung praktische Erfahrungen mit Big Data – sei es als fester Bestandteil ihrer Unternehmensprozesse oder als Pilotprojekt.

Die Ergebnisse der neuen Studie des Beratungshauses BARC „Big Data use cases 2015 – getting real on data monetization“ machen Mut: viele Unternehmen mit Big-Data-Initiative berichten darin von beachtlichen Vorteilen, die sich für sie mittlerweile aus der Analyse und Einbeziehung großen und unterschiedlich strukturierter Daten in die täglichen Abläufe ergeben haben. Danach helfen ihnen diese Informationen bei strategischen Entscheidungen (69 Prozent), sie ermöglichen eine effektivere Steuerung operativer Prozesse (54 Prozent), helfen die eigenen Kunden besser verstehen (52 Prozent) und allgemein die Kosten zu senken (47 Prozent). Das Business Application Research Center (BARC) ist ein Analysten- und Beratungshaus für Unternehmenssoftware mit Fokus auf die Bereiche Business Intelligence (BI), Enterprise Content Management (ECM), Customer Relationship Management (CRM) und Enterprise Resource Planning.

Dort, wo Unternehmen den Nutzen heute bereits genauer beziffern können, geht man von einer durchschnittlichen Umsatzsteigerung von acht Prozent und einer Kostensenkung um zehn Prozent aus. Erfreulich ist zudem, dass Unternehmen mit ersten Big-Data-Erfahrungen ihre Erwartungen nicht nur erfüllt, sondern in vielen Punkten sogar übertroffen sehen. „Big Data wird für Unternehmen zum Alltag“ weiterlesen