Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse

Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen. Das ergab eine Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. 50 führende Experten aus Wissenschaft und Wirtschaft hatten sich beim zehnten „Future SOC Lab Day“ über aktuelle Forschungsergebnisse ausgetauscht, die mit neuster Hard- und Software im HPI-Spitzenforschungslabor erzielt worden sind. Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Hauptspeicher-Datenmanagement lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

„Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Software-Seite. Wir kümmern uns darum, das Potenzial der neuen Systeme auszureizen“, sagte HPI-Wissenschaftler Frank Feinbube. „Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen“, erklärte der Tagungssprecher. Logische Konsequenz wäre es, dass die Hardware anders gebaut werden müsste, aber das sei schwierig, so ein Wissenschaftler. Deshalb solle vorerst nach Wegen gesucht werden, wie entsprechende Soft- und Hardware optimal harmonieren könne. Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme bestmöglich anzupassen. So könnten beispielsweise im Zeichen von „Industrie 4.0“ Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genauste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen. „Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse“ weiterlesen