Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter

Hewlett Packard Enterprise (HPE) stellt heute den weltgrößten Computer mit einheitlichem Arbeitsspeicher vor, es ist der neuste Meilenstein des Forschungsprojekts „The Machine“. The Machine ist das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt HPE ein neues Computer-Paradigma, genannt Memory-Driven Computing – eine speziell für das Zeitalter von Big Data entwickelte Computer-Architektur.

„Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen“, so Meg Whitman, CEO von Hewlett Packard Enterprise. „Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“

Der heute vorgestellte Prototyp hat 160 Terabyte (TB) Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten – etwa 160 Millionen Bücher. Es war vorher nie möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Skalierbarkeit und gesellschaftliche Auswirkungen
„Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter“ weiterlesen

Humanized Big Data, Insight Engines & Co.

Die Geschäftswelt befindet sich inmitten der digitalen Transformation, in der die Spreu vom Weizen getrennt wird. Lesen Sie welche Technologietrends helfen, den Schritt ins digitale Zeitalter erfolgreich zu absolvieren und welche Vorteile Conversational Systems, Humanized Big Data und Augmented Information für den Geschäftsalltag bereithalten.

Von Daniel Fallmann, Gründer und Geschäftsführer der Mindbreeze GmbH.

1. Conversational Systems: Im menschlichen Dialog mit künstlicher Intelligenz

Empfehlungssysteme auf Verkaufsplattformen oder sogenannte Chatbots, die in Dialog mit dem User treten, um ihn beispielsweise durch einen Geschäftsprozess zu führen, sind keine Seltenheit mehr. Allerdings sind die Empfehlungen meist so unspezifisch und die Intelligenz der Chatbots derart eingeschränkt, dass die Effektivität darunter leidet – von der Motivation der User ganz zu schweigen.
Das soll bald anders werden. Unternehmen investieren immer stärker in Technologien wie „Natural Language Processing“ oder „Natural Language Question Answering“, um ihre Systeme intelligenter und damit effizienter zu machen. Beispiel: Anstatt bei einer Suchanfrage Dokumente zu erhalten, aus denen der User selbst die gewünschte Antwort extrahieren muss, sorgt ein Question Answering-System dafür, dass der Benutzer eine konkrete Aussage wie in einem (idealtypischen) Gespräch zwischen zwei Menschen erhält.
Um dieses Ziel zu erreichen, braucht es viel Künstliche Intelligenz im Hintergrund: Das System muss etwa aus dem Kontext die Absicht und auch die Stimmung des Fragestellers extrahieren können. Die Fortschritte in diesem Bereich sind derart groß, dass demnächst Dialog-Systeme zum Einsatz kommen werden, die es für den Anwender fast unmöglich machen, herauszufinden, ob sich dahinter ein Mensch oder eine Maschine befindet – Stichwort „Turing Test“. „Humanized Big Data, Insight Engines & Co.“ weiterlesen

Big Data für die Krebstherapie der Zukunft: Wissenschaftler aus Boston tritt internationalem FiZ-Projekt bei

Das FiZ hat den bekannten Bostoner Experten für translationale Medizin, Dr. Calum A. MacRae, als Ratgeber für das Projekt German Genethics gewonnen. Dr. A. Calum MacRae ist Professor am Brigham and Women’s Hospital der Harvard Medical School (HMS). Der international ausgewiesene Spezialist für Humangenetik und klinische Genetik wird die heute in Boston initiierte Kooperation mit German Genethics leiten. In einem gemeinsamen Workshop definierten das FiZ und seine assoziierten Partner – BioVariance, Cyntegrity, GFE Blut, Intelligent Data Analytics und Personome – gemeinsam mit Dr. MacRae eine konkrete Roadmap für die kommenden sechs Monate, in denen der Humangenetiker beratend für German Genethics tätig sein wird.

Die FiZ Frankfurter Innovationszentrum Biotechnologie GmbH bietet kleinen und mittelständischen Unternehmen der Life Sciences am Standort Frankfurt Rhein-Main auf rund 23.000 m² eine maßgeschneiderte Forschungsinfrastruktur und damit optimale Arbeitsbedingungen. 16 Unternehmen mit 700 Arbeitsplätzen haben im FiZ ihren Standort. Darüber hinaus hat sich das FiZ als eine wichtige Adresse für Kooperationen und interdisziplinäre Netzwerke entwickelt.

German Genethics zielt auf die datenbasierte Optimierung von Krebstherapien: Eine einzigartige, strukturierte Datenbank verbindet die molekulargenetische Diagnose eines einzelnen Krebsgewebes mit dem gesammelten Wissen über Krebserkrankungen und deren Therapien. Behandelnde Ärzte erhalten hier fundierte individuelle Therapieempfehlungen für ihre Patienten, die sie als Zweitmeinung bzw. zur Absicherung ihrer Therapieentscheidung nutzen können. Zielmärkte von German Genethics sind Emerging Markets wie Indien und die Philippinen, wo eine Zusammenarbeit mit den dortigen wissenschaftlichen Institutionen erfolgt. „Big Data für die Krebstherapie der Zukunft: Wissenschaftler aus Boston tritt internationalem FiZ-Projekt bei“ weiterlesen

Big Data: Unternehmen machen zu wenig aus ihrer Datenanalyse

Das wirtschaftliche Potenzial durch die Nutzung großer Datenmengen ist noch lange nicht ausgeschöpft. Die Vorteile dieser als „Big Data“ und „Advanced Analytics“ bezeichneten Technologien werden von Unternehmen aktuell nur zu rund 30 Prozent realisiert. Am stärksten ist der Einsatz von Advanced Analytics bei der Nutzung standortbasierter Dienstleistungen wie Navigation oder mobiler Werbung verbreitet. In diesen beiden Bereichen sind rund 50 bis 60 Prozent des Potentials ausgeschöpft. In anderen Feldern wie der industriellen Fertigung (20 bis 30 Prozent) oder der öffentlichen Verwaltung (10 bis 20 Prozent) liegt hingegen noch ein großer Teil des Potenzials brach. Dies geht aus einer aktuellen Studie des McKinsey Global Institute (MGI) mit dem Titel „The age of analytics: Competing in a data-driven world“ hervor. Für die Analyse untersuchte das Forschungsinstitut der Unternehmensberatung McKinsey & Company fünf exemplarische Anwendungsfelder im Detail und baut damit auf einer Untersuchung aus dem Jahr 2011 auf.

Datenbasierte Unternehmen weltweit am wertvollsten

„Weltweit verdoppelt sich die Menge verfügbarer Daten alle drei Jahre“, sagt Peter Breuer, Seniorpartner von McKinsey und Analytics-Experte. Digitale Plattformen, vernetzte Sensoren und Milliarden von Smartphones generierten kontinuierlich neue Informationen. Gleichzeitig seien die Kosten für die Datenspeicherung stetig gesunken und die Auswertungsmöglichkeiten durch immer leistungsfähigere Computer gewachsen. „Unternehmen, die Daten und Datenanalyse nutzen, um Probleme zu lösen, haben schon heute einen enormen Wettbewerbsvorteil. Sie gestalten ihre Prozesse effizienter und verstehen die Kunden besser“, so Breuer. Die Mehrzahl der derzeit wertvollsten börsennotierten Unternehmen der Welt – wie die großen Internetkonzerne – sowie zahlreiche Startups mit Firmenbewertungen über einer Milliarde Dollar unterscheiden sich von ihren Wettbewerbern durch die intelligente Nutzung von Daten. „Das heißt im Umkehrschluss: Firmen, die nicht aus der ‚digitalen Welt‘ kommen, sollten diese Fähigkeiten schnell aufbauen, um nicht abgehängt zu werden“, so Breuer. „Big Data: Unternehmen machen zu wenig aus ihrer Datenanalyse“ weiterlesen

„Smarte Maschinen – Wie Künstliche Intelligenz unser Leben verändert“, ein Buch von Ulrich Eberl

Ein Beitrag von unserem neuen Redaktionsmitglied Rainer Weihofen

Nach fast 400 Seiten Lektüre steht ein einfaches Fazit: Ob es in naher Zukunft wirklich smarte (clevere, gewitzte, sehr geschickte) Maschinen geben wird, ist weiterhin fraglich, smarte Bücher gibt es jedenfalls schon heute. Ulrich Eberl, Biophysiker und Wissenschaftsjournalist, hat in seinem Buch „Smarte Maschinen – Wie künstliche Intelligenz unser Leben verändert“ einen cleveren Rundumschlag abgeliefert und die grossen Themen Maschinelles Lernen für Künstliche Intelligenz, Big Data und Robotik in kleine, kurzweilige und bisweilen gewitzte Informationshappen zerlegt.

Das Buch spannt einen weiten Bogen und liefert einen schnellen, meist einfach zu verstehenden Überblick über die wichtigsten Themen und Technologien, die den Entwicklern in Forschungsinstituten und Industrieunternehmen auf dem Weg zu „smarten Maschinen“ begegnen: Deep-Learning, semantische Suche oder Neurochips. Viele anschauliche Beispiele oder überraschende Fakten ergänzen die technisch-wissenschaftlichen Ausführungen. So erfährt der Leser im Kapitel „Deep-Learning“, dass die Synapsen im menschlichen Gehirn eine Gesamtlänge von sechs Millionen Kilometern haben, und ahnt, dass die Technik der Neuronalen Netzwerke davon wohl noch ein gutes Stück entfernt ist. Der Autor beschreibt die wesentlichen Querverbindungen zwischen den Fachgebieten und gibt einen Eindruck, was zusammenwachsen wird und was schon zusammengewachsen ist.

Wer gewinnt? Menschliche gegen künstliche Intelligenz. Foto: privat
Wer gewinnt? Menschliche gegen künstliche Intelligenz. Foto: privat

So begegnen uns Deep-Learning-Systeme und Big Data in unserem Alltag im Duett, zum Beispiel in Navigationssystemen oder bei Google Search. Viele Milliarden Anfragen (Big Data) erreichen Google Tag für Tag. Das Verhalten der Suchenden, hilft den Algorithmen beim Lernen: „Wenn jemand zum Beispiel ‚Nikolaus‘ eintippt und dann auf ein entsprechendes Bild klickt, weiss die Suchmaschine von Mal zu Mal besser, wie ein Nikolaus aussieht (Deep-Learning)“, illustriert der Autor den Prozess anschaulich. „„Smarte Maschinen – Wie Künstliche Intelligenz unser Leben verändert“, ein Buch von Ulrich Eberl“ weiterlesen

Big Data zwischen Hype und Realität

Sechs von zehn deutschen Unternehmen bewerten die Fähigkeit, aus heterogenen Massendaten neues, geschäftlich nützliches Wissen zu extrahieren, als einen zentralen Erfolgsfaktor in der digitalen Revolution. Weithin unklar ist indessen, wie sich die eigene Firma zu einer „Data-driven Company“ weiterentwickeln kann. Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting, erläutert im Interview, welche Herausforderungen bewältigt werden müssen, damit aus Daten tatsächlich Wettbewerbsvorteile werden.

Herr Schlömer, Unternehmer setzen große Erwartungen in Big Data. Woran liegt es, dass die wenigsten Projekte bislang über ein „Laborstadium“ hinauskommen?

Die permanent steigende Datenflut birgt ein erhebliches Geschäftspotenzial – davon sind 9 von 10 Führungskräften in Industrie und Wirtschaft überzeugt. Dies hat nicht zuletzt unsere Potenzialanalyse zum Thema gezeigt. Allerdings verwendet nur eine Minderheit der befragten Unternehmen schon jetzt datenbasierte Analysen und Prognosen systematisch für die eigene Geschäftstätigkeit. Stattdessen trifft mehr als die Hälfte der Befragten wichtige Entscheidungen nach wie vor intuitiv. Offenbar gibt es eine tiefe Kluft zwischen theoretischer Einsicht und der Fähigkeit zur praktischen Umsetzung.

Lars Schlömer Foto: Sopra Steria
Lars Schlömer Foto: Sopra Steria

Was sind dafür die Hauptursachen?

Die meisten Unternehmen haben bei der Umsetzung noch einen weiten Weg vor sich. So ist auch nur ein Viertel der Entscheider mit der aktuellen Umsetzung von Data Science im Unternehmen sehr zufrieden. Probleme liegen in einer unzureichenden Datenbasis, mangelnden personellen und technischen Ressourcen, fehlendem Verständnis für datengetriebene Prozesse, der organisatorischen Verankerung oder auch im Datenschutz. Häufig fangen die Probleme aber schon bei der Begrifflichkeit und den Erwartungen an. Big Data ist eines der aktuellen Hype-Themen und dazu gehört, dass es nicht scharf umrissen ist – jeder kann sich seine eigene Vorstellung machen und diese ist meist mit Illusionen verbunden.

Welche zum Beispiel? „Big Data zwischen Hype und Realität“ weiterlesen

Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage

Die Nutzung von „Big Data“ ist in deutschen Unternehmen angekommen. Zur Entscheidungsfindung nutzen nahezu alle befragten deutschen Unternehmen Datenanalysen (97 Prozent). Wenn es jedoch darum geht, strategische Entscheidungen zu treffen, verlassen sich 41 Prozent der befragten Konzernlenker in Deutschland noch hauptsächlich auf ihre Erfahrung und Intuition, während 34 Prozent von ihnen primär auf „Data & Analytics“, der systematischen Erhebung und Auswertung von Daten, zurückgreifen. Das sind die Ergebnisse der internationalen Studie „PwC’s Global Data and Analytics Survey 2016: Big Decisions™“ der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC, für die mehr als 2.000 Entscheidungsträger weltweit befragt wurden, darunter rund 170 hierzulande.

„Subjektivität und Intuition können nicht komplett aus unternehmerischen Entscheidungsprozessen herausgefiltert werden“, sagt Barbara Lix, Verantwortliche für das Thema Data & Analytics bei PwC in Deutschland. „Dennoch können Prognosen sowie das Aufzeigen und die Bewertung von Risiken als Entscheidungshilfe für strategische Entscheidungen dienen und die Entscheidungsqualität verbessern. Nur Unternehmen, die in ihrer Entscheidungsfindung das richtige Verhältnis von Kopf und Maschine finden, werden mit dem digitalen Wandel Schritt halten.“

Deutsche Unternehmen setzen verstärkt auf „Advanced Analytics“

Unternehmen in Deutschland unterscheiden sich von Unternehmen in anderen Ländern, die sich laut Befragung weniger von Datenanalysen leiten lassen und deren Analysemethoden weniger fortgeschritten, also primär deskriptiv sind: Im globalen Vergleich beschreiben vier von zehn Unternehmen aus anderen Ländern (39 Prozent) ihre Entscheidungsfindung als „sehr stark datengetrieben“, während dies auf knapp die Hälfte der Befragten in Deutschland zutrifft (49 Prozent). Während 52 Prozent der deutschen Unternehmen bereits fortgeschrittene Formen der Datenanalyse („Advanced Analytics“) wie etwa prädiktive (prognose-basierte) und präskriptive (handlungsempfehlende) Analysemethoden nutzen, setzt die Mehrheit der Unternehmen in anderen Ländern (57 Prozent) nach wie vor eher deskriptive und diagnostische Methoden ein. „Big Data for Big Decisions: Algorithmen halten Einzug in die Chefetage“ weiterlesen

Big Data: Sechs Tipps für den erfolgreichen Einsatz

Das Schlagwort Big Data weckt in der Wirtschaft große Hoffnungen: Laut einer aktuellen Umfrage im Auftrag von Sopra Steria Consulting wollen sieben von zehn deutschen Unternehmen bis zum Frühjahr 2017 in entsprechende Analyse-Tools investieren. Gleichzeitig offenbart die Studie weithin diffuse Vorstellungen davon, auf welche Weise die Auswertung tagtäglich anfallender Massendaten konkret zu höherer Agilität und verbesserter Unternehmensperformance beitragen kann. Eines muss Firmen dabei klar sein: Data-Science-Lösungen sind alles andere als einfach und auch nicht zum Nulltarif zu haben. Sechs Managementtipps helfen, Fallstricke auf dem eigenen Weg zur „Data-driven Company“ zu vermeiden.

Das Schlagwort Big Data ist für viele Unternehmen zu einer Art Projektionsfläche ihrer Wünsche und auch mancher Illusion geworden. Diesen Schluss legt die aktuelle Potenzialanalyse „Data Science“ von Sopra Steria Consulting nahe. 94 Prozent der dafür befragten Entscheider erwarten zum Beispiel, dass sich die wirtschaftliche Performance ihrer Firma durch datengetriebenes Agieren verbessert. Fast ebenso viele gehen davon aus, dass Data Science wertvolle Erkenntnisse liefern und Entscheidungsprozesse verändern kann. Entsprechend hoch ist die Investitionsbereitschaft, um dieses Ziel zu erreichen: Lediglich zwei Prozent der Studienteilnehmer planen derzeit keinerlei kurzfristige Investitionen in diesem Bereich. Fast drei Viertel hingegen wollen bis zum nächsten Frühjahr finanzielle Mittel für Analysetechnologien und zwei Drittel für die Neueinstellung entsprechender Fachkräfte bereitstellen. Auf dem Arbeitsmarkt sind Data-Science-Spezialisten allerdings eine Rarität. „Unternehmen sollten deshalb gezielt auf die Aus- und Weiterbildung eigener Mitarbeiter setzen – gerade, weil diese das Geschäft und die Prozesse bereits kennen“, so die erste Empfehlung von Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting. „Big Data: Sechs Tipps für den erfolgreichen Einsatz“ weiterlesen

Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben

Weltweite Studie von Capgemini und Informatica untersucht Erfolgsfaktoren von rentablen Big-Data-Projekten

Eine klar strukturierte Governance, die disziplinierte Implementierung und die Unterstützung durch das Top-Management sind die entscheidenden Faktoren für eine erfolgreiche Operationalisierung von Big-Data-Vorhaben – so die zentralen Ergebnisse der Studie „The Big Data Payoff: Turning Big Data into Business Value“ von Informatica und Capgemini. Die Befragung von mehr als 200 Führungskräften aus IT- und Datenmanagement in Europa und den USA zeigt, dass aktuell weniger als ein Drittel (27 Prozent) der Big-Data-Projekte rentabel ist. Ein Schlüsselfaktor für die Profitabilität von Big Data ist die Verankerung im Business. Es ist mehr als doppelt so wahrscheinlich, dass ein Big-Data-Projekt gewinnbringend ist, wenn ein Chief Operating Officer (COO) oder Chief Data Officer (CDO) anstelle des CIOs die Leitung übernimmt. Während aktuell mehr als die Hälfte der Befragten (52 Prozent) angibt, dass die Big-Data-Strategie in den Händen der CIOs liegt, verschieben sich die Zuständigkeiten hin zum operativen Geschäft: So übernehmen COO (20 Prozent), Chief Technology Officer (16 Prozent) und Chief Marketing Officer (16 Prozent) mehr und mehr die Verantwortung.

Datenqualität und Governance sind Dreh- und Angelpunkt

Die Studie belegt den immer stärkeren Einfluss von Stakeholdern aus dem operativen Geschäft auf Big-Data-Vorhaben, wobei allen voran die COOs gut laufende Projekte verantworten. Auch tendieren Unternehmen mit gewinnbringenden Big-Data-Initiativen dazu, effektiver beim Management der Datenqualität und der Data Governance sowie beim Anwenden unternehmensweiter Standards zu sein. Drei Viertel (75 Prozent) der Befragten, die profitable Projekte vorweisen können, geben an, dass sie sich in den Themenfeldern Datenqualität und Governance exzellent oder sehr gut weiterentwickelt haben. Unter allen Studienteilnehmern sagen dies nur 50 Prozent. „In der Praxis kommt es darauf an, die beiden Gegenspieler Governance und Agilität auszubalancieren. Eine rigide Governance bremst aus. Althergebrachte Governance-Ansätze aus der BI funktionieren in der heutigen Datenwelt nicht mehr. Für diese Gratwanderung sollten Unternehmen Eigentümer für alle internen und externen Data Assets festlegen und einfache Regeln und Prozesse zur Freigabe von Daten durch die Eigentümer an die Anforderer definieren“, so Rüdiger Eberlein, Chefarchitekt und Berater der Global Practice Insights & Data bei Capgemini in Deutschland. Auch verweisen 75 Prozent der Top-Performer hinsichtlich Profitabilität auf ihre Erfolge bei der Standardisierung und Verbesserung der Konsistenz der Daten in der eigenen Organisation, während der Wert bei der Gesamtheit der Befragten bei 47 Prozent liegt. „Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben“ weiterlesen

RWE und Planet OS: Partnerschaft zum Aufbau einer Big-Data-Plattform für Geodaten

RWE und Planet OS haben eine strategische Partnerschaft in Hinblick auf den Aufbau einer Big-Data-Infrastruktur vereinbart. Ein entsprechender Vertrag wurde am 4. Februar in Berkeley (Kalifornien) unterzeichnet. Das erste gemeinsame Projekt beider Unternehmen ist ein Next Generation Dashboard für den von RWE mitbetriebenen Offshore-Windpark Gwynt y Môr vor der walisischen Küste.

„Da Energie in zunehmendem Maße dezentral erzeugt wird und der Anteil an erneuerbaren Quellen immer mehr zunimmt, müssen wir uns Problemen wie der Unvorhersehbarkeit von Wetterlagen und anderen äußeren Risikofaktoren stellen, denen die Welt von heute ausgesetzt ist“, sagte Peter Terium, Vorstandsvorsitzender der RWE AG, während eines Besuchs beim kalifornischen Tochterunternehmen. „Die Nutzung der Technologie, die von Planet OS entwickelt wurde, ermöglicht uns das Monitoring und die Analyse der von Geodaten-Sensoren gemessenen Werte in ein und demselben System, was wiederum die Effizienz, den Sicherheitsgrad und die Produktionsleistung erhöht. Für RWE ist das ein wichtiger Schritt in Richtung unseres Ziels, eines der führenden daten- und technologiegesteuerten Versorgungsunternehmen in Europa zu werden“, ergänzte Terium.

Planet OS ist ein Big-Data-Infrastrukturunternehmen für Geodaten, das Produkte und Services für die Energiebranche und staatliche Behörden in den Bereichen Data Discovery, Datenzugang und Entscheidungsunterstützungssysteme anbietet. „Die Technologie von Planet OS ist beeindruckend. Sie haben eine Reihe von leistungsfähigen, cloud-basierten Lösungen geschaffen, die es uns ermöglichen, frei verfügbare und kommerzielle Umweltdaten auf sichere Weise in unser Datensystem zu integrieren“, lobte Hans-Martin Hellebrand, Manager der im Silicon Valley ansässigen RWE New Ventures LLC.



„Für uns ist es eine Ehre, eine Partnerschaft mit RWE einzugehen und wir sind sicher, dass daraus eine lange währende Kooperation erwächst. Unser erstes gemeinsames Projekt ist eine vereinheitlichte Benutzerschnittstelle für den Windpark Gwynt y Môr in Wales, der weltweit zweitgrößten Offshore-Anlage“, sagte Rainer Sternfeld, Gründer und Geschäftsführer von Planet OS. Energieunternehmen, die ihre Datenfeeds voneinander getrennt hielten, würden nicht nur Chancen für Wachstum verpassen, sondern sich auch enormen Risiken aussetzen. Die Lösungen, wie sie Planet OS anbietet, nutzten eine „gemeinsame Sprache“, wie sie von Fachleuten und Anwendern gleichermaßen verstanden und benötigt würde, um das Betriebsergebnis zu erhöhen, Risiken für die Umwelt zu minimieren und neue Geschäftsmöglichkeiten auszuloten. „Glücklicherweise haben weitsichtige und ambitionierte Unternehmen wie RWE erkannt, dass Daten die Ware der Zukunft sind“, fügte Sternfeld hinzu.

Das Partnerschaftsabkommen wurde zwischen der RWE New Ventures LLC, einer kalifornischen Tochter der RWE AG, einem der führenden europäischen Energieversorgungsunternehmen, und der im Silicon Valley ansässigen Planet OS Inc., einem Big-Data-Unternehmen mit Wurzeln in Estland, unterzeichnet. Im vergangenen Herbst wurde Planet OS als einer der bahnbrechenden Lösungsansätze zur Erreichung der „Ziele nachhaltiger Entwicklung“, die im gleichnamigen UN-Programm formuliert sind, ausgewählt. Das alles überspannende Ziel von Planet OS ist, zu einer detaillierten Suchmaschine für Georaumdaten der Erde zu werden.

Big Data Report: Unternehmen stehen in den Startlöchern

Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop
Unternehmen suchen Halt im Netz der Daten. Foto: Carsten Knop

Unternehmen setzen sich zunehmend mit den Möglichkeiten der Datenanalyse auseinander. Zwar haben erst ein Viertel der Unternehmen konkrete Projekte gestartet und sogar erst 8 Prozent tatsächlich beendet, dennoch beschäftigen sich 78 Prozent der Unternehmen mit der Thematik. Dies zeigen die aktuellen Zahlen zur Verbreitung von Datenanalysen des „Big Data Reports“ der Hochschule Reutlingen, der im Auftrag der T-Systems Multimedia Solutions erstellt wurde. Je nach Unternehmensgröße sind deutliche Unterschiede in der Akzeptanz und im Einsatz von Big Data zu erkennen. Insbesondere kleine und mittelständische Unternehmen mit bis zu 500 Mitarbeitern befassen sich noch kaum mit den Möglichkeiten der Datenanalyse.

Interne Daten im Fokus, Echtzeit-Analysen im Kommen

Bei der Hälfte der Unternehmen stehen interne Daten, wie etwa Prozess- oder Sensordaten im Fokus der Analysen. Kernziele sind dabei die Prozessoptimierung (52%) sowie die Analyse von Kundenanliegen (52%). Vorausschauende Analysen, sogenannte Predictive Analytics, die insbesondere im Maschinen- und Wartungsumfeld interessant sind, finden in 20 Prozent der Unternehmen Anwendung. Während bei ca. einem Drittel der Befragten die Daten bei Bedarf ausgewertet werden, setzen 14 Prozent der Unternehmen schon auf fortlaufende Datenanalysen in Echtzeit. „Big Data Report: Unternehmen stehen in den Startlöchern“ weiterlesen

Europäische Unternehmen sind Big-Data-Nachzügler

Auf dem Weg zu Industrie 4.0 wartet noch viel Arbeit. Diesen Schluss lässt die aktuelle Studie „Big Data Use Cases“ des Analysten- und Beratungshauses BARC zu. Die vom Softwarehaus Teradata gewiss nicht ganz uneigennützig mitfinanzierte Studie ergab, dass nur 13 Prozent der Industrieunternehmen Big Data-Analysen bereits in ihre Unternehmensprozesse integriert haben. Die Studie erstellte BARC auf Basis einer internationalen Online-Umfrage, an der 559 Personen aus unterschiedlichen Branchen teilnahmen. Die meisten Teilnehmer kamen mit 37 Prozent aus der DACH-Region. Die vollständige Studie steht auf der BARC-Website zum Download bereit.

Insgesamt bleiben europäische Unternehmen bei der Nutzung von Big Data deutlich hinter denen aus Nordamerika zurück. Dort sind entsprechende Initiativen in 28 Prozent der befragten Unternehmen ein Teil der Geschäftsprozesse. Nimmt man die Pilotprojekte hinzu, können mehr als die Hälfte der nordamerikanischen Unternehmen praktische Erfahrungen mit Big Data aufweisen. Europäische Unternehmen liegen mit 16, beziehungsweise 39 Prozent deutlich zurück. Noch hinter dem europäischen Durchschnitt liegt die DACH-Region. Hier sind Big Data in nur 14 Prozent der Unternehmen in die Prozesse integriert, Pilotprojekte setzen 20 Prozent um.

Fehlende Expertise als Haupthindernis:
Als Probleme beim Einsatz von Big Data sehen 53 Prozent der Befragten mangelndes fachliches, 48 Prozent zu wenig technisches Wissen. Folgerichtig plant ein knappes Drittel der Unternehmen mit Big Data-Projekten, in diesem Bereich neue Stellen zu schaffen – ein Vorhaben, für das laut BARC bislang noch zu wenig Experten zur Verfügung stehen. Ein weiteres Hemmnis bei der Nutzung großer Mengen polystrukturierter Daten sind die Themen Datenschutz und Datensicherheit. Diese nennen jeweils knapp die Hälfte der Befragten. „Europäische Unternehmen sind Big-Data-Nachzügler“ weiterlesen

Big Data wird für Unternehmen zum Alltag

Mittlerweile finden sich nur noch wenige Unternehmen, die eine Big-Data-Initiative für nicht denkbar halten. Bereits über 40 Prozent der Unternehmen haben laut einer internationalen BARC-Anwenderbefragung praktische Erfahrungen mit Big Data – sei es als fester Bestandteil ihrer Unternehmensprozesse oder als Pilotprojekt.

Die Ergebnisse der neuen Studie des Beratungshauses BARC „Big Data use cases 2015 – getting real on data monetization“ machen Mut: viele Unternehmen mit Big-Data-Initiative berichten darin von beachtlichen Vorteilen, die sich für sie mittlerweile aus der Analyse und Einbeziehung großen und unterschiedlich strukturierter Daten in die täglichen Abläufe ergeben haben. Danach helfen ihnen diese Informationen bei strategischen Entscheidungen (69 Prozent), sie ermöglichen eine effektivere Steuerung operativer Prozesse (54 Prozent), helfen die eigenen Kunden besser verstehen (52 Prozent) und allgemein die Kosten zu senken (47 Prozent). Das Business Application Research Center (BARC) ist ein Analysten- und Beratungshaus für Unternehmenssoftware mit Fokus auf die Bereiche Business Intelligence (BI), Enterprise Content Management (ECM), Customer Relationship Management (CRM) und Enterprise Resource Planning.

Dort, wo Unternehmen den Nutzen heute bereits genauer beziffern können, geht man von einer durchschnittlichen Umsatzsteigerung von acht Prozent und einer Kostensenkung um zehn Prozent aus. Erfreulich ist zudem, dass Unternehmen mit ersten Big-Data-Erfahrungen ihre Erwartungen nicht nur erfüllt, sondern in vielen Punkten sogar übertroffen sehen. „Big Data wird für Unternehmen zum Alltag“ weiterlesen

Die Macht von Big Data entschlüsseln und steuern

BMBF startet Forschung zu den gesellschaftlichen Folgen von wachsenden Datenmengen / Wanka: „Daten sollen Menschen dienen, nicht belasten“

Big Data bezeichnet den Umgang mit immer größeren Datenmengen. Moderne Auswertungsmethoden ermöglichen neue Erkenntnisse und können so nützliches Wissen generieren. Ebenso nimmt mit der Datenmenge und ihrer Analyse das Risiko zu, unerwünschte Rückschlüsse auf einzelne Personen und deren Umfeld zu ziehen. Der stärkere Einfluss von computergestützter Datenauswertung auf die gesellschaftliche Entwicklung ist absehbar. Das Bundesministerium für Bildung und Forschung (BMBF) startet daher das neue Forschungsprojekt „ABIDA – Interdisziplinäre Analyse der gesamtgesellschaftlichen und wirtschaftlichen Folgen beim Umgang mit großen Datenmengen“, um die Macht von Big Data besser zu verstehen und Lösungsansätze für den richtigen Umgang zu entwickeln.

„Forschung muss es uns ermöglichen, eine Technologie wie Big Data zu beherrschen. Wir wollen die Vorteile nutzbar machen, aber auch die Risiken aufzeigen“, sagte Bundesforschungsministerin Johanna Wanka. „Technologischer Fortschritt muss unsere soziale und rechtliche Grundordnung beachten und im Rahmen unseres Wertesystems bleiben. Wir müssen lernen, die richtigen Schlüsse aus den Daten zu ziehen. Informationen sollen Menschen dienen, nicht belasten.“ „Die Macht von Big Data entschlüsseln und steuern“ weiterlesen

Konzern IT-Symposium: Volkswagen treibt Digitalisierung voran

Der Volkswagen Konzern will die Digitalisierung weiter vorantreiben. Auf dem Konzern IT Symposium in Wolfsburg befassten sich deshalb jüngst Mitglieder des Volkswagen Konzern- und Markenvorstands sowie des Betriebsrats mit IT-Lösungen für die digitale Zukunft des Konzerns. Im Fokus standen die Themen Mobilität von morgen, Industrie 4.0 und Big Data. Der Vorstandsvorsitzende der Volkswagen Aktiengesellschaft, Prof. Dr. Martin Winterkorn, sagte: „Das IT Symposium hat gezeigt: Bei Zukunftsthemen wie der digitalen Vernetzung physischer Gegenstände, dem Internet der Dinge, hat der Volkswagen Konzern alle Voraussetzungen, zu den Besten der Welt zu gehören.“

„Die Digitalisierung verändert Kundenwünsche und Automobiltechnik rasant“, betonte Dr. Horst Neumann, Konzernvorstand für Personal, IT und Organisation. „Auto und IT wachsen immer stärker zusammen. Connected Car, autonomes Fahren, neue Apps und Big-Data-Analysen – bei diesen Entwicklungen spielt die IT mit ihren rund 11.000 Experten eine wesentliche Rolle. Eine leistungsstarke und kostengünstig arbeitende IT ist deshalb wichtiger denn je.“ „Big Data-Anwendungen, Cloud-Computing und Connectivity-Lösungen ziehen immer stärker ins Unternehmen ein“, erklärte Konzern IT-Chef Dr. Martin Hofmann. „Die zunehmende Digitalisierung erfordert neue Wege der Organisation und Zusammenarbeit. Deshalb stellt sich die Konzern IT neu auf. Künftig werden wir noch enger als bisher mit kleinen, innovativen Firmen zusammenarbeiten und gemeinsam mit ihnen kreative Lösungen für unsere Kunden entwickeln. Diese neue Art der Zusammenarbeit setzen wir in unserem Data Lab in München bereits erfolgreich um. Mit dem geplanten Digital Lab in Berlin und weiteren in China und den USA werden wir nahtlos daran anknüpfen.“ „Konzern IT-Symposium: Volkswagen treibt Digitalisierung voran“ weiterlesen

PWC: Unternehmen investieren in Big Data und Datensicherheit

Bei ihren Technologieinvestitionen fokussieren sich Unternehmen aktuell auf Big Data und Datensicherheit. 69 Prozent der Unternehmen gaben in einer Umfrage an, in Cybersicherheit zu investieren. 61 Prozent wenden Gelder für Private-Cloud-Lösungen auf. 54 Prozent der Firmen legen ihren Investitionsschwerpunkt auf die Datengewinnung und –analyse. Zu diesen Ergebnissen kommt ein Auszug aus dem „Digital IQ Survey 2015“, für den die Wirtschaftsprüfungs- und Beratungsgesellschaft PwC über 500 Geschäftsführer und IT-Leiter in 14 Ländern weltweit befragt hat, davon knapp 40 in Deutschland. Diese Schwerpunktsetzung wird sich im laufenden Jahr verfestigen: Gut die Hälfte der befragten Unternehmen will die Ausgaben für Cybersicherheit im Jahr 2015 weiter erhöhen. 47 Prozent planen eine Steigerung der Aufwendungen für Private-Cloud-Lösungen und 37 Prozent gaben an, ihre Ausgaben für die Datengewinnung und -analyse in den kommenden zwölf Monaten anheben zu wollen.
„PWC: Unternehmen investieren in Big Data und Datensicherheit“ weiterlesen