Cybersicherheit: Spannung zwischen bürgerlicher Freiheit und staatlicher Verantwortung

In der brandenburgischen Landeshauptstadt ist die Potsdamer Konferenz für nationale CyberSicherheit zu Ende gegangen. 300 Experten von NATO, Europol, Bundesverfassungsschutz, Bundeskriminalamt und anderen Institutionen aus Politik, Wirtschaft und Wissenschaft hatten zwei Tage lang am Hasso-Plattner-Institut (HPI) aktuelle Gefährdungen wie den Hacker-Angriff auf den Bundestag und grundsätzlich notwendige Schutzmaßnahmen beraten.

Thoralf Schwanitz, tätig im Bereich Public Policy und Government Relations bei Google Deutschland, betonte am Freitag insbesondere die Wichtigkeit von Verschlüsselungsmaßnahmen. Zum Einen sei Datenverschlüsselung zum Schutz vor Hackern wichtig, zum Anderen zwinge sie Regierungen und Behörden, auf rechtsstaatlichem Wege Zugriff auf Daten zu erfragen. Allein in der ersten Jahreshälfte 2010 habe Google 15.000 behördliche Ersuchen im Kontext von Strafverfolgungen erhalten, im Jahr 2014 bereits mehr als doppelt so viele. Diesen Ersuchen werde nach rechtlicher Prüfung in rund 65% der Fälle nachgegangen. Schwanitz betonte die damit einhergehende unternehmerische Verantwortung: „Keine Regierung, auch nicht die der Vereinigten Staaten, hat einen wie auch immer gearteten Zugang durch die Hintertür zu Google“.

Der frühere Bundesinnenminister Otto Schily betonte auf der HPI-Konferenz, dass persönliche Freiheitsrechte im Internet nicht durch den Rechtsstaat, sondern durch Terrorismus, organisierte Kriminalität und totalitäre Regimes bedroht würden. Auch die die wachsende wirtschaftliche und politischer Macht privater Konzerne wie Google und Facebook begreift er als Gefahr: „Gegen diese Konzentration versagen die Instrumente des Kartell- und Steuerrechts, hier bedarf es weiterer Beschäftigung“. Er beklagte, dass Cybersicherheit bei der Festlegung politischer Prioritäten noch nicht den gebührenden Rang einnimmt. Als unzureichend bezeichnete Schily unter anderem die erst im Mai auf den Weg gebrachte Strategie der EU-Kommission zum „Digitalen Binnenmarkt“, bei der angemessene Sicherheitsmaßnahmen kaum eine Rolle spielten. Dabei könnte das technologisch hinter den USA zurückgebliebene Europa gerade auf diesem Gebiet ein „Alleinstellungsmerkmal“ herausbilden, so Schily. „Cybersicherheit: Spannung zwischen bürgerlicher Freiheit und staatlicher Verantwortung“ weiterlesen

Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse

Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen. Das ergab eine Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. 50 führende Experten aus Wissenschaft und Wirtschaft hatten sich beim zehnten „Future SOC Lab Day“ über aktuelle Forschungsergebnisse ausgetauscht, die mit neuster Hard- und Software im HPI-Spitzenforschungslabor erzielt worden sind. Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Hauptspeicher-Datenmanagement lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

„Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Software-Seite. Wir kümmern uns darum, das Potenzial der neuen Systeme auszureizen“, sagte HPI-Wissenschaftler Frank Feinbube. „Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen“, erklärte der Tagungssprecher. Logische Konsequenz wäre es, dass die Hardware anders gebaut werden müsste, aber das sei schwierig, so ein Wissenschaftler. Deshalb solle vorerst nach Wegen gesucht werden, wie entsprechende Soft- und Hardware optimal harmonieren könne. Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme bestmöglich anzupassen. So könnten beispielsweise im Zeichen von „Industrie 4.0“ Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genauste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen. „Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse“ weiterlesen