Künstliche Intelligenz – Warum gerade jetzt?

Am Beispiel des neuen Smartphones von Google wird deutlich, wie das Datennetz weitergesponnen wird. Schon bald wird Künstliche Intelligenz (KI) zu einem fest eingewebten Bestandteil. Nutzern kommunikationsfähiger Geräte wird die KI in allen Lebenslagen assistierend zur Seite stehen. Wer die Dienste der Assistenten nutzen will, wird sich allerdings offenbaren müssen, denn die Basis für leistungsfähige Künstliche Intelligenz ist das Maschinelle Lernen. Maschinelles Lernen wiederum ist auf Daten angewiesen, und davon so viel wie möglich.

Google hat ein komplett selbst entwickeltes Smartphone mit dem schlichten Namen Pixel vorgestellt, zusammengebaut aus hauseigener Soft- und Hardware. Noch ein überteuertes Gadget der Oberklasse zur Politur des eigenen Images, könnte man denken. „Mit den Pixel Telefonen gehen wir ganz neue Wege. Sie sind mit dem Besten ausgestattet, was Google je zu bieten hatte,“ sagt Dr. Wieland Holfelder, Entwicklungschef Google Deutschland. Marketingsprech, könnte man meinen.

Neue Wege sind für Holfelder unter anderem der mit Pixel verknüpfte, kostenlose und unbegrenzte Online Speicher für Fotos und Videos und der „Google Assistant“ für die Sprachsteuerung. Unbegrenzter Online Speicher, also unbegrenzter Speicherplatz in der Google Cloud, hört sich gut an, aber was soll ein weiterer Assistent? Es gibt doch schon Google Now, und andere Hersteller schicken Siri und Cortana ins Rennen. Doch bei Google Assistant geht es offenbar um wesentlich mehr. Es geht um eine Schnittstelle zu Googles Künstlicher Intelligenz, die im Laufe der nächsten Jahre den Alltag der Menschen prägen soll.
„Künstliche Intelligenz – Warum gerade jetzt?“ weiterlesen

Microsoft verdoppelt Cloud-Kapazitäten in Europa

Im Rahmen ihres Europa-Besuchs haben Microsoft-CEO Satya Nadella und Microsoft-Präsident Brad Smith heute in Berlin ihre Denkschrift „Cloud for Global Good“ vorgestellt. Mit der Schrift will Microsoft europäischen Unternehmen und Organisationen einen sicheren und nachhaltigen Weg in die Cloud aufzeigen. Microsoft hat die Kapazitäten seiner europäischen Cloud-Angebote allein im vergangenen Jahr verdoppelt und insgesamt mehr als drei Milliarden US-Dollar (rund 2,7 Milliarden Euro) in neue Rechenzentrumsregionen in Deutschland, Österreich und Finnland sowie in bereits bestehende in Dublin und Amsterdam investiert. Am Montag kündigte Nadella zudem an, dass ab 2017 auch Cloud-Dienste aus französischen Rechenzentren bereitgestellt werden sollen. Die Investitionen helfen europäischen Unternehmen bei der digitalen Transformation, da sie die Entwicklung und Bereitstellung von zukunftsfähigen Public-Cloud-Lösungen auch bei besonders strengen Anforderungen an Datensouveränität und Compliance ermöglichen.

Mehr als 100 Rechenzentren in 40 Ländern treiben digitale Transformation

„Unsere Mission ist es, die deutschen Bürger, Unternehmen und politischen Organisationen dabei zu unterstützen, mehr zu erreichen. Wir haben signifikant in die Cloud-Infrastruktur Europas investiert, um die wachsende Nachfrage von Kunden und Partnern nach Public-Cloud-Diensten zu befriedigen“, sagt Satya Nadella vor 200 Vertretern aus Wirtschaft, Politik und Medien in Berlin, darunter Timotheus Höttges, Vorstandsvorsitzender der Deutschen Telekom AG, Bernhard Rohleder vom Branchenverband BITKOM und Stefan Prasse vom Verein Mobile Retter e.V. „Microsoft verdoppelt Cloud-Kapazitäten in Europa“ weiterlesen

Cat versus Cattle – Hosting in Zeiten von IoT

Keine Frage, das Internet der Dinge kommt – und zwar mit Macht. Egal, ob es nun 20 oder 30 Milliarden Dinge sind, die im Jahr 2020 vernetzt sind und miteinander sprechen, eines entsteht bei all dem gewiss: Big Data. In Zukunft kommen die Informationen praktisch von selbst – und das in einem Ausmaß, das früher nicht für möglich gehalten wurde. Und diese Daten machen alles “smart”: Telefone, Fernseher, Häuser, Autos, Kleidung und ganze Fabriken.

Von Andreas Bachmann, CIO der Adacor Hosting GmbH

Das diese Entwicklung auch Auswirkungen auf das Thema Hosting, Cloud und Security hat ist offensichtlich. Aber was bedeutet das für einen Managed-Hosting-Anbieter und vor allem für die Geschäftsbeziehung zu seinen Kunden? Andreas Bachmann, CIO der Adacor Hosting, erklärt am Prinzip „Cat versus Cattle – Haustier gegen Farmtier” den wesentlichen Unterschied zwischen einer klassischen Hosting-Umgebung und dem künftigen Betrieb in der Cloud unter den Rahmenbedingungen von IoT.
Produktion von Datenmassen

Die neue Technik produziert eine unglaublich große Menge an Daten – Big Data. Mittels Sensoren übertragen die „Dinge“ – seien es das autonom einparkende Fahrzeug, das Container-Terminal im Hafen oder die digitale Ableseuhr an der Zentralheizung – über Funknetze und WLAN-Verbindungen ihre Daten bis zu den Servern der Unternehmen. Dort werden sie eingelesen, entschlüsselt und weiterverarbeitet. Um die einlaufenden Daten für analytische Zwecke verwenden zu können, werden Projekte aufgesetzt, die auf der einen Seite vollautomatisierte Prozesse ermöglichen und auf der anderen Seite das Potenzial haben, kontinuierlich zu wachsen. „Cat versus Cattle – Hosting in Zeiten von IoT“ weiterlesen

Samsung to acquire public and private cloud provider Joyent

Samsung Electronics today announced that it has agreed to acquire Joyent, Inc., a leading public and private cloud provider. With Joyent’s superior cloud technology, Samsung will now have access to its own cloud platform capable of supporting its growing lineup of mobile, Internet of Things (IoT) and cloud-based software and services. The transaction remains subject to customary closing conditions.

“Samsung evaluated a wide range of potential companies in the public and private cloud infrastructure space with a focus on leading-edge scalable technology and talent. In Joyent, we saw an experienced management team with deep domain expertise and a robust cloud technology validated by some of the largest Fortune 500 customers,” said Injong Rhee, CTO of the Mobile Communications business at Samsung Electronics.

As smartphones and connected-devices have taken hold across the world, cloud computing has become fundamental in providing users with exciting and reliable services and experiences on their devices. With leadership positions in both mobile and IoT, this acquisition represents Samsung’s commitment to provide a seamless user experience to millions of customers.
Joyent’s technology will strengthen this position, while allowing Samsung to scale its own cloud infrastructure and services as it continues to innovate with new software and technologies. Through this acquisition, Joyent’s talented team of technologists, including CEO, Scott Hammond, CTO, Bryan Cantrill, and VP of Product, Bill Fine will join Samsung to work on company-wide cloud initiatives. „Samsung to acquire public and private cloud provider Joyent“ weiterlesen

Cloud Monitoring erhöht Wettbewerbsfähigkeit

Autor: Dr. Peter Putz, Ops Lead Software Innovation bei Dynatrace

Eine Diskussion in diesem Blog hat aufgezeigt, dass sich IT-Verantwortliche in Unternehmen künftig vor allem um die Koordination der Cloud Services kümmern und zum „Cloud Conductor“ (Cloud-Dirigent) werden könnten. Doch wohin auch immer sich das IT-Management entwickelt, verantwortlich für sein Unternehmen handeln kann nur, wer ein effizientes, umfassendes Cloud Monitoring durchführt.

Vertrauen ist gut …

Nach einer aktuellen Studie von Crisp Research beschäftigen sich heute bereits 85 Prozent der deutschen mittelständischen Unternehmen intensiv mit dem Thema Cloud und befinden sich in der Planung, Implementierung oder im produktiven Betrieb. Single-Cloud-Architekturen werden dabei die Ausnahme darstellen, denn 68,8 Prozent der Befragten nutzen hybride und Multi-Cloud-Ansätze. Doch unabhängig davon, für welche Provider sie sich entscheiden, stellt sich die Frage, ob diese auch tatsächlich die vereinbarten Servicelevels einhalten. Sind die Angebote von AWS (Amazon Web Services), Microsoft Azure oder VMware vCloud Air tatsächlich jederzeit verfügbar und bieten sie auch die versprochene Performance?

Ohne perfekten Kundenservice, heutzutage spricht man von User Experience, der Kundenerfahrung, lässt sich schließlich keine Anwendung intern im Unternehmen oder extern an Business- und Endkunden ‚verkaufen‘. Sind Angebote nicht verfügbar, ärgert dies die Nutzer und sie springen ab, denn es gibt fast immer leicht zu erreichende Parallel-Produkte und -Lösungen. Zudem spricht sich eine langsame Reaktionszeit oder schlechte Erreichbarkeit im heutigen Zeitalter der sozialen Medien sehr schnell herum – ebenso wie die schnellen, praktischen und zuverlässigen Alternativen. Interne Anwendungen werden dann durch öffentlich zugängliche Angebote ersetzt, auch an der IT-Abteilung vorbei als Schatten-IT. Und bei externen Services gehen zahlende Kunden verloren.

… Kontrolle ist besser

Kontrolle und Überwachbarkeit der Cloud-Anwendungen sind daher wichtige Themen bei der Nutzung verschiedener Anbieter. Um diese Anforderungen zu erfüllen, benötigen Unternehmen umfassende Lösungen für das Cloud Monitoring, die sich einfach in die entsprechenden Services integrieren lassen. Sie sollten eine tiefgehende Transparenz in mögliche Performance-Probleme aus Kundensicht bieten. Außerdem bildet die Fähigkeit der automatischen Erkennung von zusätzlich zur Verfügung gestellten Kapazitäten der Cloud-Plattformen ein wichtiges Kriterium, vor allem wenn Container- und Microservice-Architekturen zum Einsatz kommen. Monitoring-Lösungen wie Dynatrace Ruxit überwachen dabei nicht nur den gesamten Technologie-Stack (von der Anwendung über die Datenbank und das Netzwerk bis zur (virtuellen) Server-Infrastruktur), sondern visualisieren die mit Hilfe von künstlicher Intelligenz gewonnenen Erkenntnisse auch in Form einer interaktiven „Landkarte“ der IT-Infrastruktur.

Vertraue, aber prüfe nach

Mit modernen Monitoring-Lösungen lassen sich Probleme nicht nur frühzeitig erkennen, noch bevor sie der Nutzer bemerkt. Auch die Ursache des Problems lässt sich schneller finden oder wird im Idealfall von der Lösung selbst gefunden. Damit lässt sich z.B. eine Erhöhung der generellen Antwortzeiten auf den verursachenden Drittanbieter zuordnen. Ein umfassendes synthetisches Monitoring sorgt dafür, dass die Erfüllung der vereinbarten Servicelevels jederzeit nachvollzogen werden kann.

Mit Cloud Monitoring wird sichergestellt, dass dem Nutzer zu jeder Zeit die bestmögliche User Experience geboten wird. Dies erhöht die Zufriedenheit von Kunden und Mitarbeitern und damit auch die Wettbewerbsfähigkeit des Unternehmens.

Erstmals nutzt die Mehrheit der Unternehmen Cloud Computing

Zum ersten Mal hat im vergangenen Jahr eine Mehrheit der Unternehmen in Deutschland Cloud Computing eingesetzt. Das hat eine repräsentative Umfrage von Bitkom Research im Auftrag der KPMG AG unter 457 Unternehmen ab 20 Mitarbeitern ergeben. Demnach nutzten 54 Prozent der Unternehmen im Jahr 2015 Cloud Computing. Im Jahr davor waren es erst 44 Prozent. Weitere 18 Prozent der Befragten planten oder diskutierten im vergangenen Jahr den Einsatz.

„Cloud Computing ist eine Killer-Applikation
der Digitalisierung“, sagte Dr. Axel Pols, Geschäftsführer von Bitkom Research, bei der Vorstellung der Studienergebnisse. „Die Technologie schafft enorme Effizienzgewinne und sie ist in der digitalen Wirtschaft sehr häufig die Basis neuer Geschäftsmodelle.“ Der starke Anstieg der Nutzung ist laut Umfrage fast ausschließlich auf kleinere und mittlere Unternehmen zurückzuführen. So stieg die Cloud-Nutzung in Unternehmen mit 100 bis 1.999 Mitarbeitern um 7 Prozentpunkte auf 62 Prozent im Jahr 2015 und in Unternehmen mit 20 bis 99 Mitarbeitern sogar um 11 Punkte auf 52 Prozent. Bei Unternehmen ab 2.000 Mitarbeitern legte die Nutzung auf vergleichsweise hohem Niveau nur um einen Punkt auf 69 Prozent zu. Pols: „Der Mittelstand hat seine Zurückhaltung beim Cloud Computing endgültig abgelegt.“

Cloud Computing bezeichnet aus Sicht der Anwender die bedarfsgerechte Nutzung von IT-Leistungen wie Speicherplatz, Rechenkapazitäten oder Software über Datennetze. Das Datennetz kann ein unternehmens- bzw. organisationsinternes Intranet (Private Cloud Computing) oder das öffentliche Internet (Public Cloud Computing) sein. Nach den Ergebnissen der Umfrage nutzten im vergangenen Jahr 26 Prozent der Unternehmen Public Cloud Computing, im Jahr zuvor erst 16 Prozent. Dagegen stabilisierte sich der Einsatz von Private Clouds bei 38 Prozent (Vorjahr: 39 Prozent). „Bislang installierten die Unternehmen vor allem Private Clouds, weil vielen die Nutzung über das öffentliche Internet zu unsicher schien. Das ändert sich jetzt“, sagte Pols. „Das vergangene Jahr markiert den Durchbruch für Public Cloud Computing in der deutschen Wirtschaft.“ Vor allem die großen US-Cloud-Anbieter hätten nach der Geheimdienstaffäre auf die Sicherheitsbedenken der Anwender reagiert. „Viele Cloud-Provider haben massiv in die Sicherheit investiert und Rechenzentren in Europa und speziell in Deutschland aufgebaut“, sagte Peter Heidkamp, Partner und Head of Technology bei KPMG. Damit sei gewährleistet, dass Daten im Rechtsgebiet der Europäischen Union bleiben.



Die am weitesten verbreitete Public-Cloud-Anwendung ist laut Umfrage Büro-Software. 43 Prozent der befragten Unternehmen nutzen über das Internet zum Beispiel Textsysteme, Tabellenkalkulation oder Programme zur Erstellung von Präsentationen. 35 Prozent setzen so genannte Groupware mit Funktionen wie E-Mail, Messenger oder Kalender ein, 34 Prozent branchenspezifische Anwendungen und 30 Prozent Software für die Organisation von Arbeitsgruppen (Collaboration Tools). Immerhin 29 Prozent nutzen spezielle Sicherheitsanwendungen unter dem Stichwort Security as a Service über das Internet. Heidkamp: „Public Cloud-Computing kann den Unternehmen handfeste Vorteile bieten: Im besten Falle bekommen sie optimierte IT-Leistungen zu geringeren Kosten. Die skeptische Haltung einiger Unternehmen gegenüber Public Clouds spiegelt sich auch nicht in den Erfahrungen der Anwender wider. Im Gegenteil: 73 Prozent der Unternehmen, die Public Cloud-Dienste nutzen, haben damit positive Erfahrungen gemacht.“

Trotz des kräftigen Anstiegs bei der Public-Cloud-Nutzung sind Sicherheitsbedenken weiter das größte Hindernis für einen intensiveren Einsatz der Technologie. Mehr als die Hälfte (58 Prozent) der befragten Unternehmen fürchten einen unberechtigten Zugriff auf sensible Unternehmensdaten und 45 Prozent einen Datenverlust. „Das Vertrauen der Anwender in die Sicherheit der Cloud-Services ist die wichtigste Voraussetzung für eine weitere Verbreitung“, sagte Heidkamp. Laut Umfrage berichteten 15 Prozent der Unternehmen, dass es Sicherheitsvorfälle im Zusammenhang mit dem Einsatz von Public-Cloud-Lösungen in den letzten 12 Monaten gegeben hat, bei weiteren 20 Prozent gab es einen Verdacht. „Cyberangriffe sind eine reale Gefahr, die alle Unternehmen betrifft – und zwar unabhängig von der Cloud-Nutzung“, sagte Heidkamp. Gerade bei kleinen und mittleren Unternehmen könnten Cloud-Dienste ein höheres Sicherheitsniveau gewährleisten als eine Inhouse-Lösung.

Hinweis zur Methodik: Grundlage der Angaben ist eine Umfrage, die Bitkom Research im Auftrag der Wirtschaftsprüfungs- und Beratungsgesellschaft KPMG durchgeführt hat. Dabei wurden 457 Unternehmen aller Branchen ab 20 Mitarbeitern befragt. Die Interviews wurden mit Geschäftsführern, IT-Leitern und CIOs geführt. Die Umfragen sind repräsentativ für die Gesamtwirtschaft.

IBM und SAP vertiefen Partnerschaft

IBM und SAP legen ein gemeinsames Programm auf, um ihre Technologien und Services rund um IBM Cognitive Computing, IBM Cloud und IBM Power Systems, SAP S/4HANA sowie die SAP HANA Cloud Plattform besser zu verzahnen, weiterzuentwickeln und um industriespezifische Funktionalitäten zu ergänzen. Die neuen Lösungen werden sowohl On Premise als auch in der Cloud verfügbar sein und Kunden bei der digitalen Transformation unterstützen.

Um das gemeinsame Portfolio schlagkräftiger zu machen, planen die beiden Unternehmen Ressourcen an ihren Standorten in Walldorf und Palo Alto zu bündeln, um an kognitiven Geschäftsanwendungen, an einer verbesserten Nutzererfahrung und an branchenspezifischen Lösungen zu arbeiten.

„Innovative Unternehmen werden von den fundamentalen Elementen dieser Ankündigung profitieren – denn es geht um Cognitive Computing, Cloud und hochwertiges, verbraucherfreundliches Design für alle Branchen“, sagt Senior Vice President Bridget van Kralingen, IBM Global Business Services. „Wir schaffen ein komplementäres Angebot an gemeinsamen Lösungen, damit unseren Kunden der schnelle Umbau zu einem kognitiven Unternehmen gelingt.“

Im Einzelnen ist geplant:

• Entwicklung Cloud-basierter Lösungen: Aufbauend auf der im Oktober 2014 geschlossenen SAP HANA und IBM Cloud Partnerschaft werden IBM und SAP gemeinsam weitere branchenspezifische Cloud-Lösungen entwickeln und die aktuellen SAP HANA Enterprise Cloud Services um Maintenance- und Support-Services erweitern.
• Neue hybride/On-Premise-Lösungen: IBM und SAP werden zukünftig hybride und On-Premise-Lösungen mit SAP HANA auf IBM Power Systems anbieten. Unterstützung dafür leistet das neue IBM Power Systems Center of Excellence für SAP HANA in Austin, Texas.
• Kognitive Fähigkeiten für SAP HANA: IBM wird kognitive Lösungen für SAP S/4HANA entwickeln und mit Schnittstellen zu kognitiven Geschäftsanwendungen erweitern.
• Bessere User Experience: IBM Interactive Experience (iX), eine der größten Digitalagenturen der Welt, SAP Global Design sowie das SAP Customer Engagement und Commerce Team werden gemeinsam an der Entwicklung neuer Experience-Formate arbeiten, die ohne größeren Aufwand für Kunden individualisiert werden können. Dies beinhaltet auch das Design Know-how der IBM für mobile iOS-Oberflächen.
Darüber hinaus entwickeln die Unternehmen gemeinsame Beratungsmodelle und branchenspezifische Leitfäden für die digitale Transformation von Unternehmen.

eco: CIO muss „Cloud Conductor“ werden

Die IT-Verantwortlichen in den Unternehmen müssen sich künftig vor allem um eines kümmern: die Koordination der Cloudservices, die ihre Firmen in Anspruch nehmen. Diese Aussage kommt von eco – Verband der Internetwirtschaft e. V. Die Berufsbezeichnung „Cloud Conductor“ (Cloud-Dirigent) sei daher passender als der herkömmliche „Chief Information Officer“ (CIO).

Cloudservices statt Firmen-IT

„Die Ära der klassischen Firmen-IT, bei der die Server und Applikationen im eigenen Unternehmen stehen, betrieben und entwickelt werden, nähert sich ihrem Ende“, postuliert Andreas Weiss, Direktor EuroCloud Deutschland_eco e. V. Er ergänzt: „Viele Unternehmen werden in den nächsten Jahren vor der Herausforderung stehen, ihre IT-Architekturen und Anwendungen unter Beachtung der gebotenen Sicherheit sukzessive mit der Cloud zu verbinden oder ganz in die Cloud zu verlagern.“ Die Begründung: Die klassische Firmen-IT sei überhaupt nicht ausgelegt auf die Verarbeitung der zu erwartenden immensen Datenmengen, die je nach Anwendungsfall über Millionen von Eingabequellen wie beispielsweise Sensoren (Omni-Channel-Kommunikation, Anlagensteuerung) in Echtzeit anfallen würden.

eco sagt Scheitern ohne Cloud voraus

„Unternehmen, die versuchen die Skalierbarkeit, Performance und Funktionalität von Cloudservices in ihrer internen IT abzubilden, werden an Wettbewerbsfähigkeit verlieren und letztlich daran scheitern“, sagt Weiss. Vielmehr müsse der „Cloud Conductor“ durch eine neue hybride IT-Architektur nur wenig koordinierende Kernfunktionalität im eigenen Betrieb halten und ansonsten auf die Nutzung von hochskalierbaren Cloudservices setzen.



„Bei heute schon über 20 Milliarden vernetzten Geräten weltweit – Tendenz steigend – stößt die klassische IT an ihre Grenzen“, sagt der EuroCloud Direktor. Allein die Verarbeitung der zu erwartenden extrem großen Datenvolumina, um daraus Wertschöpfung abzuleiten (Big/Smart Data), sei künftig selbst für Konzerne in den eigenen Rechenzentren nicht mehr zu leisten. Der Experte verweist auf Studien, die schon vor 2020 ein monatliches Datenvolumen weltweit von über 40 Zetabyte (40 mit 21 Nullen dahinter) prognostizieren. „Das Internet der Dinge, bei dem jedes Gerät von der Armbanduhr über die Kaffeemaschine und das Auto bis hin zu technischen Anlagen im Sekundentakt ständig neue Daten übermittelt, wird von keinem Firmen-Rechenzentrum zu bewältigen sein“, ist sich Weiss sicher.

Cloud ist Basis für neue Geschäftsmodelle

Eben sowenig könnte die Verwirklichung neuer Geschäftsmodelle auf Grundlage dieser Daten von den Softwareabteilungen der Konzerne in der gebotenen Geschwindigkeit vorangetrieben werden, meint Weiss. Er erklärt: „In praktisch jeder Branche stehen junge Unternehmen vor der Tür, um mit neuen digitalen Geschäftsmodellen den heutigen Marktführern den Garaus zu machen. Beispiele wie AirBnB oder Uber zeigen eindrucksvoll, wie man eine ganze Branche revolutionieren kann, ohne auch nur ein einziges Hotel zu bauen bzw. einen Fuhrpark zu betreiben. Die Umstellung der IT auf die Cloud ist ein Schlüsselfaktor für die Unternehmen, um die Agilität für die neue digitale Geschäftswelt zu erreichen.“




eco (www.eco.de) ist mit mehr als 800 Mitgliedsunternehmen der größte Verband der Internetwirtschaft in Europa. Seit 1995 gestaltet der eco Verband maßgeblich die Entwicklung des Internets in Deutschland, fördert neue Technologien, Infrastrukturen und Märkte, formt Rahmenbedingungen und vertritt die Interessen der Mitglieder gegenüber der Politik und in internationalen Gremien. In den eco Kompetenzgruppen sind alle wichtigen Experten und Entscheidungsträger der Internetwirtschaft vertreten und treiben aktuelle und zukünftige Internetthemen voran.

Beschleunigte Forschung: CERN nutzt Open Telekom Cloud

Das CERN, die Europäische Organisation für Kernforschung, hat der Deutschen Telekom einen Auftrag für Services aus der Open Telekom Cloud erteilt. Die Cloud, die auf der CeBIT 2016 vorgestellt wurde, soll für die Verarbeitung physikalischer Daten genutzt werden. Das CERN wird über einen Zeitraum von drei Monaten 1.000 parallel arbeitende virtuelle Prozessoren und über 500 Terabyte Cluster-Speicher nutzen, um zu prüfen, ob die Verarbeitung wissenschaftlicher Daten flexibel an einen kommerziellen Cloud-Anbieter ausgelagert werden kann. Service-Anbieter ist T-Systems, die Großkundensparte der Deutschen Telekom.

Dem CERN stehen für die Lösung eine benutzerfreundliche Oberfläche sowie OpenStack-APIs zur Verfügung, so dass maximale Kundenanpassung und Flexibilität gewährleistet sind. Das Kernforschungsinstitut wird das Projekt mit einer Benchmarkstudie zu Inbetriebnahme, Leistung und Reporting begleiten.

In dem bisher von Mitbewerbern aus den USA dominierten Marktsegment kann die Deutsche Telekom mit diesem Auftrag die Möglichkeiten und Vorteile der neuen Public Cloud aufzeigen. Die erforderliche hohe Geschwindigkeit liefert das mehrfach ausgezeichnete Netz der Deutschen Telekom, das mindestens 10 Gbit/s Bandbreite sowie die Möglichkeit des Anschlusses an deutsche und europäische Forschungsnetze bietet.



Das Projekt stellt einen Schritt in Richtung eines künftigen Modells für dynamische Cloud-Services dar, bei dem öffentliche und kommerzielle E-Infrastrukturen nahtlos kombiniert werden. Die Lösung wird den europäischen Datenschutz- und Datenverarbeitungsvorschriften entsprechen. Mit ihrer Hilfe kann aufgezeigt werden, wie Forscher die Cloud in Zukunft nutzen können – durch Beschleunigung von Forschungsvorhaben und durch interdisziplinäre Arbeit in einer von der Europäischen Kommission unterstützten europäischen Wissenschaftscloud. Helge Meinhard, IT CERN, erklärt: „Wir freuen uns über die Zusammenarbeit mit T-Systems. Wir möchten Erfahrungen sammeln, wie wir kommerzielle Cloud-Dienste noch besser praktisch in unsere physikalischen Abläufe einfügen und weitere Ressourcen in unsere private cloud integrieren können.“
Das Projekt baut auf der Helix Nebula-Initiative auf, die die Grundlagen für entsprechende technische Lösungen, wie Standardschnittstellen und SLAs, Konnektivität und Beschaffungsmethoden im Wissenschaftsumfeld geschaffen hat. Zur Akzeptanzförderung und Stärkung des Vertrauens in Cloud-Angebote in Europa sollen die Ergebnisse der Zusammenarbeit veröffentlicht werden.

CeBIT: HPI-Forscher für sichere Cloud-Speicherlösung ausgezeichnet

Für eine neue Technologie zum vertraulichen Ablegen und Teilen von Daten in der Cloud ist ein Forscherteam des Potsdamer Hasso-Plattner-Instituts (HPI) am Eröffnungstag der CeBIT ausgezeichnet worden. Die Jury des EU-geförderten Wettbewerbs „MAPPING App Competition“ wählte die Lösung der HPI-Wissenschaftler auf den dritten Platz. Der Geschäftsführer des HPI, Prof. Christoph Meinel, zeigte sich auf der IT-Messe erfreut über den Erfolg: „Die von unseren Wissenschaftlern entwickelte CloudRAID-Lösung ermöglicht Cloud-Nutzern Klarheit im Umgang mit ihren persönlichen Daten und zugleich höchstmögliche Sicherheitsstandards“, so Meinel. Das innovative Konzept trage entscheidend dazu bei, sensible Prozesse im Internet gegen Angreifer zu schützen und das Vertrauen seitens der Nutzer zu erhöhen.

Die bereits mit dem Innovationspreis 2015 des IT-Sicherheitsverbands TeleTrusT ausgezeichnete Software sei genauso einfach zu bedienen wie herkömmliche Cloud-Dienste, biete aber entscheidende Vorteile: „Die Dokumente werden erst automatisch verschlüsselt, bevor sie den Computer verlassen. Anschließend zerteilt unsere Software die Daten und legt sie bei mehreren Cloud-Speicherdiensten ab“, erklärte HPI-Doktorand Philipp Berger, der die Lösung mitentwickelt hat. Durch diese Fragmentierung sei der Nutzer unabhängig von einzelnen Speicheranbietern, die zudem immer nur auf einen Teil des Dokuments Zugriff hätten. Außerdem würden spezifische Teilinformationen mehrfach abgespeichert, damit eine Wiederherstellung auch dann problemlos möglich sei, wenn einzelne Speicher ausfallen sollten.




Erstmals zum Einsatz kommen dürfte die neue Technologie in einem gemeinsamen Pilotprojekt zwischen Hasso-Plattner-Institut und Bundesdruckerei. Die Anbindung von CloudRAID an die „Trusted Service Plattform“ (TSP) der Bundesdruckerei würde dann dafür sorgen, dass sich die Nutzer der Anwendung sicher authentifizieren können, etwa mit Personalausweis oder Smartphone. Die Cloud-Speicher sollen im Rahmen dieses „Online-Datentresors“ durch zertifizierte deutsche Partnerunternehmen der Bundesdruckerei bereitgestellt werden. „Wir würden es begrüßen, wenn CloudRAID auf diese Weise ein allgemein zugängliches Produkt wird“, sagte HPI-Doktorand und Mitentwickler Patrick Hennig.

Neue Public Cloud: Die Open Telekom Cloud ist live

Die Deutsche Telekom hat aus ihrer Sicht die nächste Phase der Digitalisierung der deutschen und europäischen Wirtschaft eingeläutet: Mit der Open Telekom Cloud ging am Montag die Public Cloud an den Start, die flexibel verfügbare IT-Ressourcen mit Service und strengen deutschem Datenschutz kombiniert. „Damit ergänzen wir unser bisheriges Angebot von Private-Cloud-Diensten entscheidend um eine Cloud, die einfach über das öffentliche Internet verfügbar ist“, erläuterte Telekom-Vorstand Tim Höttges auf der Cebit in Hannover. „Für unsere Kunden, ob große Unternehmen oder aus dem Mittelstand ein wichtiger Service für ihre Digitalisierung – für uns ein zentraler Baustein auf dem Weg, die Nr. 1 für Cloud-Services für Geschäftskunden in Europa zu werden.“

Die Telekom steigt mit der Open Telekom Cloud in ein Marktsegment ein, das bislang vor allem von amerikanischen Wettbewerbern bedient wurde. Der Technologiekonzern Huawei steuert Hardware- und Lösungskompetenz bei, T-Systems, die Geschäftskundensparte der Telekom, Rechenzentrum, Netz, den Betrieb und das Cloud-Management. Das mehrfach ausgezeichnete Netz der Telekom sorgt für zuverlässige Verfügbarkeit, zertifizierte deutsche Cloud-Rechenzentren von T-Systems für größtmögliche Qualität und Sicherheit.

Der erste Partner für die Open Telekom Cloud wird SAP sein. „Wir freuen uns, unsere Partnerschaft mit der Deutschen Telekom auszubauen und unsere Pläne, an der Open Telekom Cloud teilzunehmen, bekanntzugeben“, sagte Bernd Leukert, Vorstandsmitglied von SAP SE, Produkte & Innovation. „Mit Hilfe der Public-Cloud-Plattform der Deutschen Telekom wollen wir den Mehrwert unserer Lösungen für unsere Kunden weiter steigern.“

Vom Unternehmen zitierte Marktanalysten begrüßen die Open Telekom Cloud: „Das Angebot einer skalierbaren, kostengünstigen Public Cloud von einem deutschen Service Provider, aus einem deutschen Rechenzentrum und unter deutschem Recht wird für viele Kunden in Deutschland sehr verlockend sein“, erklärte Andreas Milch vom Analysenhaus PAC, „insbesondere die Kombination aus kostengünstigem Angebot und deutscher Rechtssicherheit stellt derzeit ein absolutes Alleinstellungsmerkmal dar.“

Skalierter für große und kleine Unternehmen

Die Services der Open Telekom Cloud werden nach Angebendes Konzerns Schritt für Schritt ausgebaut. Im Buchungsportal können Kunden zum Start zunächst IT-Infrastruktur mit wenigen Klicks buchen. Die Verfügbarkeit ist dann nur noch eine Frage von Minuten. So unterstützt die Telekom ihre Kunden bei der notwendigen Digitalsierung ihrer Geschäftsmodelle mit einfachen und flexibel verfügbaren Services, die so skalierbar sind, dass sie sich für große Unternehmen und kleine Mittelständler gleichermaßen eignen.

„Immer mehr Kunden entdecken die Vorteile der Public Cloud für sich. Aber sie wollen eine europäische Alternative“, erklärte Anette Bronder, Geschäftsführerin der Digital Division von T-Systems und verantwortlich für das Cloud-Geschäft. „Mit der Open Telekom Cloud bieten wir unseren Kunden jetzt die richtige Plattform und Lösung. Sie ist einfach, sicher und günstig.“ Zwei Preisbeispiele: ·Eine virtuelle Maschine mit Windows Server mit zwei vCPUs und zwei GB RAM kostet weniger als 17 Cent pro Stunde, mit Open Linux mit zwei vCPUs und acht GB RAM keine 12 Cent pro Stunde.

„Wir bauen unsere strategische Zusammenarbeit mit T-Systems und der Deutschen Telekom aus, um marktbestimmende Lösungen zu entwickeln, die Innovationen und Wachstum von Unternehmen fördern“, sagte Zhang Haibo, Präsident des Key Acccounts Deutsche Telekom von Huawei. „Die Open Telekom Cloud ist das Ergebnis unserer gemeinsamen Anstrengungen für Innovation und Zusammenarbeit. Die Deutsche Telekom macht damit den nächsten Schritt. Mit unserer führenden IT- und Kommunikationstechnik unterstützen wir ihr wegweisendes Cloud-Angebot.“

Damit Kunden die Open Telekom Cloud möglichst einfach nutzen können, basiert ihre Architektur auf Open Stack, einer Open-Source-Cloud-Plattform. Ihre offenen aber standardisierten und häufig genutzten Schnittstellen erleichtern die Integrations- und Anwendungsentwicklung. Zudem arbeiten weltweit Tausende Programmierer an der weiteren Entwicklung von Open Stack, etwa im Bereich Internet der Dinge, so dass die Open Telekom Cloud eine optimale Plattform für Innovationen bietet.

„House of Clouds“ in Biere

Die Open Telekom Cloud wird in Europas modernstem Rechenzentrum produziert, in Biere in Sachsen-Anhalt. Die verarbeiteten Daten unterliegen also dem strengen deutschen Datenschutzregeln. In Biere und seinem Zwillings-Rechenzentrum in Magdeburg hat die Telekom fast ihr gesamtes Ökosystem von Technologie- und Software-Partnern untergebraucht. Das „House of Clouds“ der Telekom bietet so buchstäblich kurze Wege, um eine Anwendung mit der anderen, eine Cloud mit der nächsten zu verbinden. Dank der umfassenden Erfahrung der Cloud-Experten von T-Systems können Daten und komplette Anwendungslandschaften vergleichsweise einfach zum Beispiel von der Public Cloud in eine nochmals geschützte Private-Cloud-Umgebung verschoben werden.

Die Telekom-Cloud – einfach, sicher, bezahlbar

Die Telekom will ihren Umsatz mit der Cloud für Geschäftskunden bis Ende 2018 verdoppeln. Im vergangenen Jahr stieg der Umsatz mit Cloud-Lösungen allein bei T-Systems bereits deutlich zweistellig. Dabei nutzen Kunden bislang überwiegend die besonders abgesicherte Private Cloud.

Seit 2005 bieten die Telekom und ihre Tochter T-Systems sichere Ende-zu-Ende-Cloud-Lösungen für Unternehmen jeder Größe – von der Beratung über die Implementierung, Abrechnung und den Kundenservice bis hin zur Wartung. Im wachsenden Partnerökosystem der Telekom finden sich Lösungen von Microsoft, SAP, Cisco, Salesforce, VMWare, Huawei, SugarCRM oder Informatica.

Bosch startet eine eigene Cloud für internetbasierte Services

In der Bosch IoT Cloud betreibt das internationale Technologie- und Dienstleistungsunternehmen unterschiedliche Anwendungen aus den Bereichen vernetzte Mobilität, vernetzte Industrie und vernetztes Gebäude. Erster Cloud-Standort ist Deutschland. „Wir bieten ab sofort alle Trümpfe für die vernetzte Welt aus einer Hand. Die Bosch IoT Cloud ist das letzte Puzzleteil in unserer Softwarekompe-tenz. Wir sind jetzt ein Full-Service-Provider für Vernetzung und das Internet der Dinge“, sagte Bosch-Chef Dr. Volkmar Denner am Mittwoch auf der IoT-Konferenz Bosch ConnectedWorld in Berlin. Bosch ist weltweit das einzige Unternehmen, das auf allen drei Ebenen des Internets der Dinge aktiv ist. Die Bosch-Gruppe bietet Schlüsseltechnologien wie Sensorik und Software für die Vernetzung an und entwickelt gleichzeitig darauf basierend neue Services. „Wesentlicher Faktor für den Erfolg vernetzter Lösungen ist ihre Skalierbarkeit. Geschäfts-modelle müssen, wenn erforderlich, mit hoher Geschwindigkeit wachsen können. Mit der Bosch IoT Cloud verfügt Bosch nun über die entsprechende Infrastruktur. Die Bosch IoT Cloud ist ein wichtiger Meilenstein für Bosch“, erklärte Denner, der in der Bosch-Geschäftsführung auch Forschung und Vorausentwicklung verantwortet. Die Bosch IoT Cloud besteht aus technischer Infrastruktur sowie Platt-form- und Softwareangeboten. Zunächst kommt die Bosch IoT Cloud für eigene Lösungen des Technik- und Dienstleistungsunternehmens zum Einsatz. Ab 2017 steht sie auch anderen Unternehmen als Service zur Verfügung.

Cloud-Standort in Deutschland

Denner betonte die bewusste Entscheidung für den Cloud-Standort Deutschland. „Viele Unternehmen und Verbraucher nennen Sicherheitsbedenken als Hindernis für die Nutzung von Cloud-Technologien und Vernetzungslösungen. Unsere Bosch IoT Cloud ist die Antwort darauf.“ Bosch betreibt die IoT Cloud in einem eigenen Rechenzentrum nahe Stuttgart. Denner weiter: „Verbraucher wollen wissen, ob ihre Daten geschützt und sicher sind. Wir bieten unseren Kunden daher den jeweils aktuellen Stand der Technik in Sachen Sicherheit an.“ Den rechtlichen Rahmen dafür bildet grundsätzlich der deutsche beziehungsweise europäische Datenschutz. Denner weiter: „Der deutsche Standort ist ein Wettbewerbsvorteil für die Bosch IoT Cloud. Unsere Cloud ist ein Wettbewerbsvorteil für den Innovationsstandort Deutschland.“

Das Gehirn der vernetzten Welt: die Bosch IoT Suite

Zentraler Softwarekern der Bosch IoT Cloud ist die unternehmenseigene Bosch IoT Suite. Sie identifiziert internetfähige Dinge, orchestriert ihren Datenaustausch und ermöglicht eine Vielzahl an Services und Geschäftsmodellen. Big Data-Management ermöglicht die Analyse großer Datenmengen. „Die Bosch IoT Suite ist das Gehirn der vernetzten Welt. Sie bietet alle Funktionen, um Geräte, Anwender und Unternehmen zu vernetzen“, so Denner. In der Bosch IoT Suite können Regeln für automatisierte Entscheidungen hinterlegt werden – wann zum Beispiel Maschinenzustände Verschleißmuster erkennen lassen, so dass präventiv eine Instandhaltung eingeleitet wird. Bereits heute bauen viele Lösungen und Projekte von Bosch und seinen Kunden auf dieser Plattform auf. Mehr als fünf Millionen Geräte und Maschinen sind über die Bosch IoT Suite schon vernetzt.





Bosch IoT Kompetenz für vernetzte Welt

Denner betonte vor den rund 1000 Teilnehmern der Konferenz, dass die digitale Transformation nicht als Bedrohung wahrgenommen werden dürfe. „Die digitale Transformation und zunehmende Vernetzung sind für uns Riesenchancen.“ Gerade Unternehmen mit einer starken industriellen Basis und ausgeprägter Kompetenz in Hardware könnten sich Perspektiven sowohl für ihre klassischen Berei-che als auch in ganz neuen Feldern erschließen. „Wesentliche Voraussetzung dafür sind eigene Software- und IT-Expertise. Bosch baut diese seit Jahren aus.“

Vielfalt an Möglichkeiten und Geschäftsmodellen

Das Unternehmen hat schon zahlreiche Produkte und Lösungen für die vernetzte Welt auf den Markt gebracht. Das Bosch Smart Home-System beispielsweise er-möglicht es Bewohnern unter anderem, die Temperatur in ihrem Zuhause von unterwegs abzufragen und nach Wunsch zu regeln. Ebenfalls in der Bosch IoT Cloud läuft eine Lösung für Heizungsinstallateure. Diese können aus der Ferne auf dafür freigegebene Heizungen von Bosch zugreifen, um im Falle einer Störung Aufschluss über Fehlerursachen zu bekommen. So kann das passende Er-satzteil gleich zum ersten – und dann einzigen – Servicetermin mitgenommen werden. Der Kunde profitiert durch niedrigere Servicekosten.



Die Bosch IoT Cloud verarbeitet auch Sensordaten aus Spargelfeldern. Landwirte können mit dem Wissen um die genaue Bodentemperatur Ernte und Ertrag verbessern. Auch eine Online-Karte freier Park-and-Ride Parkplätze entlang der S-Bahn Stuttgart entsteht in der Bosch IoT Cloud. Sensoren erkennen, welche Parkplätze frei sind und übertragen diese Informationen an die Bosch IoT Cloud. Dort entsteht eine stets aktuelle Karte, die an das Smartphone der Nutzer über-tragen wird. Weiteres Beispiel ist der Service „Book-and-Park“ für Lkw-Fahrer. Sucht der Trucker einen Parkplatz für die Rast, übermittelt sein Fahrzeug die Positionsdaten an die Bosch IoT Cloud. Diese reserviert daraufhin einen freien Parkplatz in der Nähe und meldet diesen an den Fahrer. „Diese Beispiele zeigen: Intelligent vernetzte Geräte, ergänzt um Services aus unserer Bosch IoT Cloud, sind Grundlage erfolgreicher IoT-Geschäftsmodelle. Vernetzte Lösungen verbessern die Lebensqualität der Menschen und schonen natürliche Ressourcen“, sagte Denner.

Stichwort Cloudcomputing

Beim Cloudcomputing liegen Daten und laufen Programme nicht mehr auf Com-putern zuhause oder im Unternehmen, sondern in einem Cloud-Rechenzentrum. Dessen Betreiber sorgt für die Sicherheit und den Betrieb, stellt nötige Rechner-kapazitäten zur Verfügung und kümmert sich um erforderliche Programme, Datensicherheit oder Backups. Damit entlastet er Kunden von vielen zeitaufwändigen und kostenintensiven Aufgaben. Cloud-Technologie und -Plattformen bilden die Grundlage für einfache und schnelle Skalierbarkeit der Anwendungen.
Bosch ConnectedWorld – Umsetzungs- und Branchentreff Die Bosch ConnectedWorld ist ein jährlicher Branchentreff zum Internet der Dinge. In diesem Jahr tauschen sich in Berlin etwa 1000 internationale Experten über aktuelle Anwendungsfelder und neue Geschäftsmodelle aus. Die Konferenz zeigt anhand erfolgreicher Beispiele, dass das Internet der Dinge von der Vision zur Realität geworden ist.

Microsoft-Partner: Cloud ist keine Frage des „Ob“, sondern des „Wann und Wie“

Der Cloud-Markt ist ein Wachstumsmarkt: Die Ausgaben für Cloud-Dienste werden allein in Deutschland rund 7,4 Milliarden US-Dollar betragen, prognostiziert Gartner im „Forecast: Public Cloud Services, Worldwide, 2013-2019“. Das entspricht einem Wachstum von 13,9 Prozent. Unternehmen in Deutschland haben die Vorzüge der digitalen Produktion („Industrie 4.0“), des Internet der Dinge und der Nutzung großer Datenmengen („Big Data“) also längst erkannt. Zur zunehmenden Offenheit für Public-Cloud-Dienste trägt auch die Ankündigung Microsofts bei, die Cloud-Dienste Azure, Office 365 und Dynamics CRM Online ab der zweiten Jahreshälfte 2016 sukzessive auch aus deutschen Rechenzentren anbieten. Nun geht es an die Umsetzung von Modernisierungs-Projekten: In dem Chancenpapier „Cloud? Ja, aber wie?“ beschreiben Microsoft-Partnerunternehmen aus dem IT-Dienstleistungssektor, wie sie und ihre meist mittelständischen Kunden den Weg in die digitale Transformation finden. „Wir befinden uns selbst in diesem Prozess und führen dieselben Diskussionen auch in unseren Unternehmen“, schreiben die Autoren. „Wir haben daher aus Partnerperspektive eine Blaupause für den Weg in die Cloud formuliert und möchten anderen Unternehmen die Möglichkeit bieten, von unseren Erfolgen, Fehlern und Best Practices zu lernen.“

„Die Nutzung der Cloud ist keine Frage des ‚Ob’, sondern allenfalls eine Frage des ‚Wann und Wie’“, heißt es im Chancenpapier. „Diese einfache Erkenntnis verändert die Diskussion: Es geht für alle Unternehmen darum, den Einstieg in die Cloud zu definieren und zu schaffen.“ Im Papier teilen die Autoren – darunter Heinz-Paul Bonn, Vorstandsvorsitzender GUS Group AG & Co KG, Dr. Stefan Schröder, Vorsitzender des BITKOM-Arbeitskreises „Cloud Computing und Outsourcing“ und Mitglied der Geschäftsleitung DATEV eG, Markus Eilers, Geschäftsführer der forwerts GmbH, Norbert Klinnert, Mitglied der Geschäftsführung der Noxum GmbH, und Stefan Mappus, Mitglied des Vorstandes der pmOne AG – ihren Plan für erfolgreiche Geschäftsmodelle in der digitalen Transformation. Sie beleuchten die aus ihrer Sicht wichtigsten Erfolgsfaktoren und größten Stolpersteine.

Der Weg in die Cloud beginnt in der Gegenwart

„Nur wenige Unternehmen starten von der grünen Wiese aus in die Cloud“, so die Autoren. „Ein Großteil der Organisationen plant und realisiert den Ein- oder Umstieg in die Cloud auf der Basis ihrer vorhandenen, oft über viele Jahre aufgebauten und bewährten IT-Infrastruktur. Beim Umstieg hat sich daher für viele Unternehmen ein hybrider Cloud-Ansatz bewährt.“ Das bietet auch die Chance, neue Geschäftsmodelle oder Produkte ohne große Auswirkungen auf die vorhandene Infrastruktur ausprobieren zu können. „Cloud Computing führt oft zu kleineren Projekten, die man schnell starten kann, die extrem wachsen können, aber auch – wenn es sein muss – schnell und kostengünstig ad acta gelegt werden können“, sagt Norbert Klinnert dazu.



Der Arbeitskreis teilt im Chancenpapier Szenarien und Handlungsempfehlungen für den Ein- und Umstieg in (meist hybride) Cloud-Umgebungen. Auch unterschiedliche Nutzungsmodelle (wie Platform-as-a-Service, „PaaS“) sowie die besonders aus Sicht deutscher Kunden wichtigen Sicherheitsfragen sind Gegenstand des Papiers. Bei der Datensicherheit sind sich die Autoren einig, dass Public-Cloud-Angebote globaler Anbieter deutliche Vorteile gegenüber firmeneigenen Rechenzentren bieten.

„Cloud Computing bedeutet einen Paradigmenwechsel, der alle Beteiligten zu einem fundamentalen Umdenken über bisherige Geschäftsmodelle und -prozesse zwingt“, sagt Peter Arbitter, Senior Director Cloud & Enterprise Business Group bei Microsoft Deutschland und Mitglied des Arbeitskreises. „Dabei spielen die IT-Dienstleister in Deutschland eine entscheidende Rolle. Sie sind nicht nur für uns wichtige Partner bei der digitalen Transformation. Mit ihrem Wissen, ihren Branchenkenntnissen und ihren kundenspezifischen Lösungen und Services sind sie vor allem für die vielen tausend, meist mittelständischen, Unternehmen in Deutschland die wichtigsten Begleiter auf dem Weg in das Digitale Wirtschaftswunder.“

Cloud-Transformation leicht gemacht: T-Systems und OneLogin machen aus 4.000 Schnittstellen eine

Viele Unternehmen nutzen Cloud-Dienste unterschiedlicher Anbieter. Für die Nutzer bedeutet das in der Regel, sich parallel in mehreren Cloud-Portalen anmelden zu müssen. Einfacher geht es für T-Systems-Cloud-Kunden jetzt dank einer neuen, in Europa einzigartigen Partnerschaft mit OneLogin. Mit einer Lösung des Spezialisten für Identity- und Access-Management (IAM) melden sich Cloud-Nutzer unabhängig von der Anzahl der genutzten Cloud-Dienste und -Anbieter sowie dem Endgerät zentral über ein Online-Portal an und haben dann direkten Zugriff auf alle gebuchten Cloud-Services sowie auch vorhandene Geschäftsanwendungen.

Die OneLogin-Lösung verwaltet die Identitäten über alle Anwendungen hinweg zentral, sowohl in der Cloud als auch der klassischen Applikationswelt (Hybrid). Authentifizierungsverfahren wie Single Sign On oder Zwei-Faktor-Autorisierung laufen im Hintergrund ab. Den Identity und Access Management as a Service (IDaaS) stellen T-Systems und OneLogin gemeinsam aus einem der Cloud-Rechenzentren der Telekom in Deutschland bereit. OneLogin stellt über 4.000 vorgefertigte Konnektoren für Anwendungen zur Verfügung. Dazu gehören unter anderem Konnektoren für die von T-Systems angebotenen Cloud-Services wie Microsoft Office 365, Salesforce.com oder Successfactors.



„OneLogin adressiert mit ihrem Identitätsmanagement auch zukünftige Anforderungen an Cloud- und Digitalisierungslösungen und erleichtert Endanwendern und Administratoren die Arbeit mit unserem Multi-Cloud-Ecosystem“, sagte Frank Strecker, verantwortlich für Cloud und Cloud-Partner in der Digital Division von T-Systems, „unsere Zusammenarbeit ist auch Ausdruck unserer hohen Kompetenz als technologieunabhängiger Cloud-Integrator – wir machen es unseren Kunden so einfach wie möglich, Cloud-Services zu nutzen.“

„Wir sind stolz, mit T-Systems den marktführenden Cloud-Dienste-Anbieter im europäischen Markt für uns als Partner gewonnen zu haben. Wir freuen uns, für Unternehmen eine innovative, dynamische und sichere IAM-Plattform gemeinsam bereitstellen zu können“, erklärt Per Stritich, Vice President EMEA, OneLogin.

Die Telekom will ihren Umsatz mit der Cloud für Geschäftskunden bis Ende 2018 verdoppeln. Im vergangenen Jahr stieg der Umsatz mit Cloud-Lösungen allein bei T-Systems bereits deutlich zweistellig. Dabei nutzen Kunden bislang überwiegend die besonders abgesicherte Private Cloud.

Gigantischer Datenfluss für die digitale Transformation: Die Datev-Cloud

Vernetzte digitale Geschäftsprozesse gelten allgemein als Rückgrat der Effizienz moderner Unternehmen. Die Nervenbahnen dafür stellt in Deutschland das Rechenzentrum der DATEV eG – das Kernelement der DATEV-Cloud – bereit: Mehr als 104 Millionen Datenübermittlungen an die Sozialversicherungen und 1,3 Millionen E-Bilanzen jährlich; pro Monat rund eine Million Umsatzsteuer-Voranmeldungen sowie durchschnittlich neun Millionen buchführungsrelevante Belege – die Datenmengen, die regelmäßig über diese sichere Drehscheibe verteilt werden, sind beeindruckend. Dabei lässt die fortschreitende Digitalisierung kaufmännischer Prozesse in den Unternehmen, aber auch in Behörden und Institutionen diesen Datenfluss stetig weiter ansteigen.

Die DATEV-Cloud sorgt dafür, dass die Informationen weitgehend automatisiert schnell, zuverlässig und gegen unbefugten Zugriff bestens geschützt ihr jeweiliges Ziel erreichen – seien dies Steuerberater, Geschäftspartner, Banken, Behörden, Sozialversicherungsträger oder sonstige Institutionen. Auf diesem Weg lässt sich beispielsweise auch die Datenweitergabe an die statistischen Ämter in Deutschland, die mehr als 300 unterschiedliche Statistiken erstellen und verwalten, einfach und schnell abwickeln. Mehr als 120.000 Unternehmen führen ihr Belegwesen bereits gemeinsam mit ihren Steuerberatern in der DATEV-Cloud, in der folglich schon über 407 Millionen Belege gespeichert sind. Doch auch die Daten von Privatpersonen sind im Nürnberger Rechenzentrum sicher. Durchschnittlich fast eine halbe Million Einkommensteuererklärungen im Monat werden ebenfalls hierüber an die Finanzverwaltung übermittelt.

Enorme Rechenpower und ein effektives Sicherheitskonzept

Damit dies alles reibungslos funktioniert, werkelt im Hintergrund Hochleistungs-Hardware. Prozessoren mit einer Rechenkapazität von mehr als 70.000 MIPS (Million Instructions Per Second) und ein Speichervolumen von 64.000 Terabyte verleihen der Datenzentrale die nötige Leistungsfähigkeit. Für den Schutz der sensiblen Daten sorgt DATEV darüber hinaus mit einem ausgeklügelten Sicherheitssystem auf höchstem Standard. Dessen Wirksamkeit lässt der IT-Dienstleister regelmäßig in freiwilligen Datenschutz-Audits und Zertifizierungen überprüfen.



Diese Sicherheit können Unternehmen und Steuerberatungskanzleien auch für ihre eigenen Prozesse nutzen, beispielsweise über die Sicherheitsdienstleistung DATEVnet pro. Dabei durchläuft der gesamte externe Datenverkehr des Anwenders eine mehrstufige Sicherheitszone im DATEV-Rechenzentrum. Mehr als 14 Millionen E-Mails und rund 3,4 Milliarden Webseitenaufrufe im Monat werden derzeit auf diese Weise durch die zentrale Sicherheitsinfrastruktur geschützt. Auch der Zugriff von mobilen Endgeräten auf das Unternehmensnetzwerk lässt sich darüber absichern. Über die Datensicherung online können Nutzer zudem ein komplettes Backup ihrer Geschäftsdaten für den Katastrophenfall im Rechenzentrum speichern.

Safe Harbor II – was nun?

Ein Kommentar von Holger Dyroff, Geschäftsführer der ownCloud GmbH

Kaum jemand hatte damit gerechnet, doch es ist passiert: Vertreter der Vereinigten Staaten und der EU haben sich mit dem „EU-US Privacy Shield“ auf einen Nachfolger für Safe Harbor geeinigt. Aber die Kritik am neuen Paket ließ nicht lange auf sich warten, so richtig überzeugt vom “Schild für die Privatsphäre” ist keiner.

Holger Dyroff Foto: ownCloud
Holger Dyroff Foto: ownCloud

Edward Snowden, der mit seinen Enthüllungen 2013 die Kritik losgetreten hat, meldete sich auf Twitter zu Wort: “It’s not a „Privacy Shield,“ it’s an accountability shield. Never seen a policy agreement so universally criticized.“ Der grüne EU-Abgeordnete Jan-Philipp Albrecht bezeichnet das Ganze gar als “Joke”.

Der neue Ansatz sieht vor, dass das US-Handelsministerium die Firmen kontrolliert, die Daten aus Europa verarbeiten. Und bei Problemen dürfen sich Unternehmen an einen neutralen Ombudsmann wenden, der (surprise) von der US-Regierung gestellt wird. Dass dieser Schwenk den Rechtsfrieden nicht wiederherstellt, ist klar.

Und das ist auch gut so, weil die Diskussion zeigt, dass Datenschutz und -sicherheit in der Cloud eben nicht einfach so gewährleistet sind. Wer personenbezogene Daten in der Cloud speichert, delegiert damit keinesfalls die Verantwortung, sprich die Haftung. Verstöße gegen den Datenschutz können auch in Deutschland schnell in die Millionen gehen und auch Manager können laut geltender Rechtsgrundlage persönlich zur Rechenschaft gezogen werden. Damit ist die Cloud als nebulöser Speicherort für alle möglichen Daten spätestens jetzt für Unternehmen gestorben.

Aber gerade die grundlegende Funktionalität einer Cloud – effiziente Objektspeicherung mit Zugriff über Standard-Internetprotokolle von jedem Ort und über jedes webfähige Device – wird mehr gebraucht denn je. Nur so lassen sich die Anforderungen moderner und agiler Unternehmen sowie Kunden bedienen.



Wie wäre es daher mit einer eigenen Cloud? Mit dieser holen sich Unternehmen die volle Kontrolle über ihre Daten dahin, wo sie hingehört: In das eigene Rechenzentrum bzw. zu einem verlässlichen Hosting-Anbieter. Gleichzeitig können sie alle Vorteile der Cloud für ihr Unternehmen und die Mitarbeiter nutzen. Die Cloud wird zur eigenen, zur ownCloud. Erprobte Lösungen dazu gibt es schon, ganz nach dem Motto: Cloud ja, aber sicher!