Herausforderung Datenanalyse: Unternehmen noch nicht IoT-bereit

30 Prozent der Unternehmen nutzen bereits IoT-Daten, 54 Prozent wollen dies innerhalb der nächsten drei Jahre tun. Fast drei Viertel (72 Prozent) planen, ihre IoT-relevanten Ausgaben zu erhöhen. Diese Zahlen sprechen für sich: Am Internet der Dinge (Internet of Things/IoT) kommt definitiv niemand mehr vorbei, der auch morgen noch als Anbieter von Produkten und Dienstleistungen im Markt bestehen will. Dennoch: Aktuell befinden sich 70 Prozent der Betriebe eher in einer Frühphase der IoT-Transformation, wobei größere Unternehmen die Nase vorn haben.

Das zeigt eine aktuelle Studie von Reply in Kooperation mit dem Beratungs- und Marktanalyse-Anbieter PAC. Im Rahmen der Studie hat Reply als Spezialist für die Entwicklung und Implementierung von Lösungen auf Basis neuer Kommunikationskanäle vor allem auf den Umgang mit IoT-Daten fokussiert und den derzeitigen Status quo dokumentiert.

Damit das Netz aus miteinander kommunizierenden Maschinen überhaupt funktioniert, braucht es Daten – Daten, die nicht nur erhoben und gesammelt, sondern auch qualifiziert analysiert werden wollen.

Am Internet der Dinge (Internet of Things/IoT) kommt definitiv niemand mehr vorbei, der auch morgen noch als Anbieter von Produkten und Dienstleistungen im Markt bestehen will. Dabei steht die Mehrheit noch in den Startlöchern:
Am Internet der Dinge (Internet of Things/IoT) kommt definitiv niemand mehr vorbei, der auch morgen noch als Anbieter von Produkten und Dienstleistungen im Markt bestehen will. Dabei steht die Mehrheit noch in den Startlöchern:

Mehrheit steht noch in den Startlöchern

Auch wenn es kurze Aufschwünge in Hinblick auf IoT-Aktivitäten in den Führungsetagen deutscher Firmen gab, befindet sich die Mehrheit im Hinblick auf die konkrete Datenanalyse noch am Anfang. Immerhin 30 Prozent geben an, Informationen nicht nur zu erheben und zu sichern, sondern bereits in irgendeiner Form zu analysieren und zu nutzen. Diese Zahl bedeutet allerdings auch, dass eben die fehlenden 70 Prozent das noch nicht tun, selbst wenn die Mehrheit ebenfalls auf den Zug aufspringen will. „Herausforderung Datenanalyse: Unternehmen noch nicht IoT-bereit“ weiterlesen

Cisco Cloud Index: 2021 läuft 95 Prozent des Datenverkehrs aus der Cloud

Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell, zeigt der jährliche Cisco Global Cloud Index (2016-2021).

Der weltweite Cloud-Rechenzentrumsverkehr wird laut der Studie 19,5 Zettabyte (ZB) im Jahr 2021 erreichen – eine Steigerung um 6,0 ZB im Vergleich zum Jahr 2016 und damit das 3,3-Fache mit einer jährlichen Wachstumsrate von 27 Prozent. In drei Jahren wird der Cloud-Traffic 95 Prozent des gesamten Datenverkehrs ausmachen, im Vergleich zu 88 Prozent 2016.

Sowohl B2C- als auch B2B-Anwendungen tragen gemäß der Studie zum Wachstum von Cloud-Services bei. Bei Konsumenten gehören Video-Streams, soziale Netzwerke und Internetsuche zu den beliebtesten Cloud-basierten Apps. Bei Mitarbeitern sind es ERP-, Collaboration- und Analyse-Lösungen.

Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell - so sagt die Studie voraus, das es 2021 weltweit 628 Hyperscale-Rechenzentren geben wird.
Der Datenverkehr in Rechenzentren wächst aufgrund der zunehmenden Nutzung von Cloud-Applikationen schnell – so sagt die Studie voraus, das es 2021 weltweit 628 Hyperscale-Rechenzentren geben wird.

Sicherheit und IoT als Wachstumstreiber

Die zunehmenden IoT-Applikationen wie intelligente Autos, Smart Cities, vernetztes Gesundheitswesen und digitale Versorgung erfordern hochskalierbare Server- und Speicher-Lösungen, um die neuen und erweiterten Anforderungen an Rechenzentren zu erfüllen. 2021 wird es 13,7 Milliarden IoT-Verbindungen geben, im Vergleich zu 5,8 Milliarden 2016, so die Studie. „Cisco Cloud Index: 2021 läuft 95 Prozent des Datenverkehrs aus der Cloud“ weiterlesen

Studie: Mittelstand in Sachen Cloud-Computing auf Wolke 7?

Die Forcont Business Technology Gmbh und die Hochschule für Wirtschaft und Recht Berlin haben im September 2017 abermals eine Umfrage zum Thema Cloud-Computing in mittelständischen Unternehmen in Deutschland durchgeführt. Dabei nahmen 142 Nutzer und Anbieter von Cloud-Diensten teil. Die Ergebnisse vergleichen forcont und HWR mit denen der Vorgängerstudie von vor zwei Jahren. Eine zentrale Erkenntnis dabei lautet, dass die Zahl der Unternehmen, die Cloud Computing nutzen oder es in absehbarer Zeit tun wollen, stetig wächst.

Die Vorteile von Cloud Computing und Software-as-a-Service (SaaS) werden offensichtlich vom Mittelstand für sich entdeckt. Dabei stellen sich die Fragen, was die Treiber dafür sind und welche Chancen und Risiken die Unternehmer in den digitalen Lösungen sehen. Aber auch, ob sich ihre Einstellung zu Cloud Computing in den vergangenen zwei Jahren signifikant gewandelt hat.

Cloud-Computing im Mittelstand auf dem Vormarsch

Heutzutage haben vier von fünf Befragten SaaS in ihrem Unternehmen im Einsatz oder bieten sie selbst an. Noch vor zwei Jahren konnten 20 Prozent die Frage nach der SaaS-Nutzung nicht sicher beantworten. Indes haben sich die Prioritäten der Nutzer stark verschoben: Zwei Jahre zuvor diente SaaS vorwiegend der Kommunikation und Business Collaboration, der Cloud-Speicher hingegen kam erst an zweiter Stelle. 2017 war das Jahr des Cloud-Speichers: Er ist als IT-Commodity auf breiter Front (68 Prozent) angekommen. Die Hälfte der befragten Nutzer setzt cloudbasierte Kommunikationsdienste ein.

2017 war das Jahr des Cloud-Speichers: Er ist als IT-Commodity auf breiter Front (68 Prozent) angekommen. 
2017 war das Jahr des Cloud-Speichers: Er ist als IT-Commodity auf breiter Front (68 Prozent) angekommen. 

Mobile Arbeitswelt befördert Cloud

Gegenüber 2015 war eine der größten Änderungen die enorm gestiegene Bedeutung des mobilen Arbeitens als Argument für SaaS: von 57 Prozent auf fast 90 Prozent. Somit ist mobiles Arbeiten aktuell der beliebteste Grund, um cloudbasierte Software einzuführen.  „Studie: Mittelstand in Sachen Cloud-Computing auf Wolke 7?“ weiterlesen

Angriffe auf die Cloud nehmen um 300 Prozent im Vergleich zum Vorjahr zu

Neben der Häufigkeit wächst die Raffinesse der Cyberangriffe auf Nutzerkonten in der Cloud. Das ist ein Ergebnis der neuen Ausgabe des „Microsoft Security Intelligence Reports“. Weiter zeigt sich: Ransomware (Erpresser-Software) wie WannaCrypt (auch bekannt als WannaCry) und Petya greifen im weltweiten Vergleich überproportional häufig Computer in Europa an, insbesondere Systeme in der Tschechischen Republik, Italien, Ungarn und Spanien.

„Die Bedrohungslandschaft von Cyberattacken ist einem ständigen Wandel unterzogen“, sagt Michael Kranawetter, National Security Officer bei Microsoft Deutschland. „In dieser digitalen und damit stark vernetzten Welt kommt es darauf an, aktuelle Bedrohungslagen in Echtzeit zu erkennen und Schwachstellen oder Einfallstore schnell zu schließen.“

Die Kernergebnisse des aktuellen Reports im Überblick:

• Die Angriffe auf cloudbasierte Benutzerkonten von Microsoft sind im Vergleich zum Vorjahr um 300 Prozent gestiegen (Q1-2016 bis Q1-2017).
• Die Anzahl der versuchten Kontoanmeldungen über schädliche IP-Adressen ist im ersten Quartal 2017 um 44 Prozent gegenüber dem Vorjahr gestiegen.
• Mehr als zwei Drittel der Angriffe auf die Services der Microsoft Cloud-Plattform Azure stammten im ersten Quartal 2017 von IP-Adressen aus China (35,1 Prozent) und den USA (32,5 Prozent), gefolgt von Korea (3,1 Prozent) und weiteren 116 Ländern und Regionen.
• Die weltweite Bedrohung von Ransomware variieren deutlich in ihrer globalen Verbreitung. Ist die sogenannte Begegnungs-Rate (Encounter Rate) in Japan (0,012 Prozent), China (0,014 Prozent) und den Vereinigten Staaten (0,02 Prozent) besonders niedrig, liegt sie in europäischen Ländern wie der Tschechischen Republik (0,17 Prozent), Italien (0,14 Prozent) oder Spanien (0,14 Prozent) im März 2017 weit über dem weltweiten Durchschnitt. „Angriffe auf die Cloud nehmen um 300 Prozent im Vergleich zum Vorjahr zu“ weiterlesen

Nach der Cloud-Wolke kommt der Fog-Nebel

Die sogenannte Fog-Technologie oder das Fog-Computing steht bereit, den Markt zu revolutionieren. Davon ist Mark Hawtin, Investment Director beim Vermögensverwalter GAM, überzeugt: „Die Cloud-Technologie hat sich mittlerweile weitgehend etabliert, auch wenn ihr volles Potenzial noch nicht ausgeschöpft wird. Die Flexibilität, die die Cloud bietet, wird nun durch den Fog sogar noch erweitert. Die Cloud-Technologie stößt an ihre Grenzen, wenn sehr große Datenmengen in Echtzeit abgerufen und verarbeitet werden müssen. Beim Fog werden Daten nicht mehr komplett an die Cloud gesendet, sondern zunächst zu einem Server in der Nähe, der dann einen Teil direkt verarbeitet und den Rest an die Cloud sendet. Der Fog setzt sich also aus vielen Endgeräten in der Nähe des Users zusammen und greift so zum Beispiel ungenutzte Server-Kapazitäten ab. Diese lokalen Geräte, die sogenannten Edge Devices, übernehmen teilweise Aufgaben der Cloud und reduzieren so die zu übertragende Datenmenge“, so der Experte.

Die Kombination aus Cloud und Fog bildet laut Hawtin die Basis für künftige Entwicklungen: „Wir stehen am Beginn einer neuen Ära. Künstliche Intelligenzen, zum Beispiel in selbstfahrenden Autos, werden unseren Alltag bestimmen.“ Gerade Systeme mit künstlicher Intelligenz verdeutlichten die Notwendigkeit der Fog-Technologie, da sie eine Unmenge an Daten verbrauchten. „Die Spracherkennung oder -steuerung von Smartphones zum Beispiel passiert per WLAN oder mobilen Internets komplett in der Cloud. Bei selbstfahrenden Autos kann dieses Modell aber nicht funktionieren, da die Datenmenge zu groß ist“, erklärt Hawtin. Laut des Wirtschaftsforschungsinstituts Bernstein nehme die Nutzung von Google Maps für eine Stunde eine Datenmenge von fünf Megabytes in Anspruch. Die Sensoren eines selbst fahrenden Autos hingegen würden in derselben Zeit 25 Gigabyte generieren. „Das ist mit der Cloud-Technologie nicht zu bewerkstelligen. Autos brauchen intelligente Systeme an Bord und ein Fog-Netzwerk nahe der Datenquelle“, ist Hawtin überzeugt. „Nach der Cloud-Wolke kommt der Fog-Nebel“ weiterlesen

Mit lokaler Cloud nach Aliens suchen

Data Scientists sind Menschen, die Mathematik und Informatik kombinieren und für die Datenanalyse nutzen. Ihnen bietet IBM die neue Arbeitsumgebung Data Science Experience Local, die sich komplett in die Private Cloud des eigenen Rechenzentrums integrieren lässt. Denn oft lassen sich Datenanalysen nicht in externe Clouds auslagern, weil das Datenvolumen zu hoch ist, externe Systeme ausgelastet sind oder es Compliance-Vorgaben nicht zulassen. Profitieren können von der IBM Data Science Experience Local Unternehmen aus dem Gesundheitswesen oder der Finanzwelt sowie Forschungseinrichtungen wie das US-amerikanische SETI Institut, das sich der Suche nach außerirdischem Leben widmet.

„Die enge Zusammenarbeit unter Data Scientists ist wichtig, um Ideen, Anregungen und Modelle schnell und einfach auszutauschen und voranzutreiben“, sagt Bill Diamond, President und CEO des SETI-Instituts im kalifornischen Mountain View. „Mit ihrer Lösung bringt IBM den Data-Science-Ansatz auf eine neue Ebene und ermöglicht es uns, umfassende Dokumente, Live-Codes und Gleichungen mit Wissenschaftlern der IBM, der Stanford University oder anderen Institutionen auszutauschen – dies wird unsere Arbeit beflügeln.“

Das SETI-Institut (Search for Extra-Terrestrial Intelligence) nutzt die neue IBM Arbeitsumgebung Data Science Experience Local für ihre Suche nach außerirdischem Leben. Riesige Datenmengen von astronomischen Beobachtungen werten die SETI-Forscher aus, um nach erdähnlichen Planeten außerhalb unseres Sonnensystems zu forschen. Seit Mitte der 1990er Jahre haben Astronomen rund 3.500 Exoplaneten bei anderen Sternsystemen entdeckt, von denen einige als mögliche Habitate für Leben in Frage kommen.

Das SETI-Institut profitiert von IBM Data Science Experience Local, weil sich die Arbeitsumgebung in die lokale Private Cloud der Einrichtung integrieren lässt und in sich geschlossen auf den Servern des eigenen Rechenzentrums läuft. Die lokale Arbeitsumgebung basiert auf der bisherigen IBM Public-Cloud-Lösung, die alle zentralen Anwendungen zum Ausführen und Verwalten der Entwicklungsumgebung einschließt, inklusive der lokalen Installationen von Apache Spark und Object Storage sowie den Data Science Experience Services. Die Lösung läuft auf dem Open-Source-Framework Kubernetes, mit dem sich Docker-Container verwalten lassen. Wie die Public-Cloud-Version ermöglicht die lokale Lösung, innerhalb des Data-Science-Teams Projekte und Codes zu teilen und gemeinsam Modelle mit Werkzeugen wie H2O-Libraries, RStudio oder Jupyter Notebooks zu entwickeln. „Mit lokaler Cloud nach Aliens suchen“ weiterlesen

„Was kostet die Cloud?“

Aktuelle Umfrage bestätigt Kosteneinsparungen durch Cloud Computing und zeigt Alternativen zum reinen Public Cloud Modell auf

Wer sein Unternehmen fit für die Digitalisierung machen möchte, kommt an Cloud Computing nicht vorbei. Cloud-Lösungen sind zukunftsfähig, skalierbar und die Kosten planbar. Aber welches Cloud-Modell macht sich am ehesten bezahlt? Grundsätzlich gilt: Der Umzug von Daten und Anwendungen in eine Public Cloud und die Auslagerung der IT-Infrastruktur zu einem Colocation-Anbieter zahlen sich am schnellsten aus. Das haben die Marktforscher von Research in Action (RIA) im Auftrag von Interxion unter mehr als 500 IT-Entscheidern mit Budgetverantwortung in deutschen Unternehmen verschiedener Branchen herausgefunden.

Investitionen in die Private Cloud im eigenen Rechenzentrum amortisieren sich bei 90,7 Prozent der Befragten nach spätestens vier Jahren, während die Aufwände für eine Private Cloud in Colocation in nahezu allen Fällen (95,5 Prozent) in weniger als zwei Jahren wieder hereingeholt werden. Fast jedes zweite Unternehmen mit outgesourctem Rechenzentrum (48,9 Prozent) schafft es sogar innerhalb des ersten Jahres alle anfänglichen Aufwendungen zu decken. Dagegen überrascht nicht, dass sich Investitionen in Public Cloud-Dienste in 87,1 Prozent der Fälle bereits innerhalb des ersten Jahres rentieren.

„Safety First“ plus klare Kostenersparnisse bei Colocation-Lösungen

Unternehmen, die weniger kritische Workloads in die Public Cloud verlagern, profitieren unbestritten von attraktiven Kostenvorteilen. Viele deutsche Unternehmen sind hier noch zögerlich und verarbeiten wichtige Daten und Anwendungen lieber mit dem eigenen IT-Equipment. Für sie eignet sich ein Umzug der eigenen Server in ein Colocation-Rechenzentrum. So lassen sich vergleichsweise hohe Einsparungen erzielen, fanden die Marktforscher von Research in Action heraus. Demnach geben 46,1 Prozent der IT-Entscheider an, seit der Einführung von Cloud Computing im Colocation Modell zwischen 25 und 50 Prozent eingespart zu haben. Bei den Unternehmen, die die Private Cloud im eigenen Rechenzentrum betreiben, erreichen dagegen fast zwei Drittel der Studienteilnehmer nur Einsparungen von 25 Prozent und weniger. Wer sich für Public Cloud Services entscheidet, erzielt die höchsten Kostenvorteile: Etwas mehr als die Hälfte der IT-Entscheider (51,2 Prozent) konnten seit der Einführung der Cloud-Dienste schon zwischen 50 und 75 Prozent einsparen. „„Was kostet die Cloud?““ weiterlesen

Cloud-Sicherheit von Anfang bis Ende

Die Bundesdruckerei hat heute auf der CeBIT ihre neue Cloud-Speicherlösung Bdrive der Öffentlichkeit vorgestellt. Zielgruppen sind alle Unternehmen und Behörden, die einen hohen Anspruch an die Datensicherheit stellen sowie Informationen sicher und dennoch bequem austauschen wollen. „Bdrive ist konsequent nach dem ,Security-by-Design-Prinzip‘ entwickelt worden“, sagte Ulrich Hamann, Vorsitzender der Geschäftsführung der Bundesdruckerei. „Die Lösung bietet Cloud-Sicherheit über den gesamten Workflow bei einfachster Bedienung – das ist einzigartig auf dem Markt.“

Die Daten der Anwender werden am Arbeitsplatz verschlüsselt, danach mit der Sicherheitstechnologie RAIC (Redundant Array of Independent Clouds) verteilt und ausfallsicher auf mehreren unabhängigen Speicherdiensten innerhalb Deutschlands abgelegt. Das Ergebnis: Eine hohe Datenverfügbarkeit sowie ein Maximum an Datensouveränität – weder die Bundesdruckerei als Anbieter noch die Speicherdienste können die Daten lesen. Für die sichere Datennutzung steht ein modernes Identitätsmanagement zur Verfügung, das mehrstufige Authentifizierungsverfahren ermöglicht. Zugriffsrechte lassen sich bis ins kleinste Detail festlegen. Verschiedene Kollaborationsfunktionen erlauben zudem die effiziente Zusammenarbeit im Team. Hamann: „Bdrive ist so einfach und flexibel wie eine Public Cloud und so sicher wie eine Private Cloud“.

Erhältlich ist Bdrive ab Sommer 2017. Die Bundesdruckerei sucht auf der CeBIT interessierte Pilotanwender, die sich im Internet hier informieren und anmelden können. Die Cloud-Speicherlösung läuft in der ersten Version auf Windows-Betriebssystemen, eine Mac-Version ist geplant. Die Kosten orientieren sich an der Anzahl der Nutzer, die Preisstaffel beginnt bei 25 Anwendern. Das Basispaket ist bereits ab 34 Euro pro Nutzer und Monat zuzüglich 590 Euro einmalige Einrichtungsgebühr erhältlich (alle Preisangaben zzgl. USt.). Die Preise beinhalten pro Nutzer 100 GB Datenvolumen und die Einbindung von bis zu drei Geräten. Weitere Geräte und ein größeres Datenvolumen lassen sich optional hinzu buchen.

RAID für Cloud nutzbar gemacht „Cloud-Sicherheit von Anfang bis Ende“ weiterlesen

IBM: Die Frankfurter Cloud wird kognitiv

Zum Auftakt der CeBIT 2017 baut IBM ihr Cloud-Angebot in Frankfurt aus. Über die dortige IBM Cloud-Plattform Bluemix sind neue Services verfügbar, die sich um kognitive Lösungen oder Datenanalyse drehen. Insbesondere europäische und deutsche Unternehmen profitieren von dem Cloud-Ausbau, da nun Entwickler direkt auf kognitive APIs (Application Programming Interface) zugreifen können. Kognitive Services wie Personality Insights oder Tone Analyzer erweitern den Einsatz von intelligenten Anwendungen für unterschiedliche Branchen. Zudem bietet IBM ihren Kunden höchste Transparenz und Sicherheit und hat als eines der ersten Unternehmen den European Code of Conduct for Cloud Service Providers unterzeichnet.

Mit dem Ausbau ihrer Frankfurter Cloud schafft IBM nach eigenen Angaben eine regionale Plattform für Entwickler, die den Einsatz von Watson Services für Apps und Anwendungen vereinfacht. Gerade kognitive Technologien sind laut einer IDC-Studie europaweit stark im Kommen: Bis 2018 werden laut IDC die Hälfte aller Entwicklerteams intelligente Algorithmen in ihre Apps integrieren. Der Zugriff auf die Frankfurter IBM Cloud ermöglicht es Organisationen, ihre Daten lokal zu speichern und zu verarbeiten. Dies gewährleistet nicht nur mehr Kontrolle über das eigene Wissen, sondern auch ein digitales Datenmanagement, das Vorgaben zu Datenschutz und gesetzlichen Richtlinien erfüllt.
Eine sichere Cloud für Europa

IBM will den sicheren Einsatz der Cloud vorantreiben und hat als eines der ersten Unternehmen und Gründungsmitglied des neuen EU Data Protection Code of Conduct for Cloud Providers unterzeichnet. Unternehmen, die diesen Verhaltenskodex unterzeichnen, verpflichten sich, dass ihre Datenschutz- und Sicherheitsrichtlinien nicht nur rechtskonform sind, sondern weit über die gesetzlichen Bestimmungen hinausgehen. Der Kodex umfasst Infrastruktur, Plattform und Software-as-a-Service. IBM hat zunächst für ihre SoftLayer und Bluemix Infrastructure Services unterzeichnet, weitere werden in Bälde folgen. „IBM: Die Frankfurter Cloud wird kognitiv“ weiterlesen

Rechenzentren in Deutschland stärken Vertrauen in Cloud-Dienste

Die Speicherung von Daten ausschließlich in Deutschland spielt für Entscheider in der digitalen Transformation eine wesentliche Rolle. Dies zeigt eine aktuelle Studie der techconsult GmbH im Auftrag der Microsoft Deutschland GmbH, die vor allem Unternehmen aus dem Mittelstand und den Branchen Finanzwesen, Bildung, Gesundheitswesen und öffentliche Verwaltung untersucht.

Cloud-Computing gehört weltweit und branchenübergreifend zu den zentralen Antworten auf Fragen der Digitalisierung von Unternehmen oder dem öffentlichen Sektor. Zu den Hürden, Software-as-a-Service zu beziehen, zählen bei den Entscheidern häufig Bedenken, hinsichtlich des Datenschutzes. Seit Januar 2017 steht die Produktivitätssuite Office 365 in der Microsoft Cloud Deutschland zur Verfügung. Somit haben Unternehmen die Wahl zwischen Office 365 aus der deutschen oder der europäischen Cloud. Damit bedient Microsoft vor allem den Wunsch vieler Entscheider, ein Rechenzentrum in Deutschland anzubieten. Kontrolliert wird der Zugang zu den Daten vom deutschen Datentreuhänder T-Systems International GmbH, der unter deutschem Recht agiert.

Bestätigt wird dies nicht nur durch den „Cloud-Monitor 2016“ von Bitkom Research im Auftrag von KPMG, sondern auch durch eine aktuelle Studie der techconsult GmbH, die Chancen und Risiken von Office 365 Deutschland untersucht. „Rechenzentren in Deutschland stärken Vertrauen in Cloud-Dienste“ weiterlesen

Aus Drei mach Eins: T-Systems kombiniert Spezial-Cloud für Software-Entwickler

Software-Entwickler können ein neues digitales Werkzeug nutzen: AppAgile, Entwicklungsplattform von T-Systems für schnell verfügbare Geschäftsanwendungen und Data Analytics aus der Cloud, steht ab sofort auch als Hybrid Cloud auf Basis von Microsoft Azure bereit. Auf der Basis von Red Hat OpenShift Container Platform ist „AppAgile Azure Hybrid“ aus der Microsoft Cloud Deutschland und global als modulares Plattform-as-a-Service-Angebot verfügbar. Bei der Microsoft Cloud Deutschland werden die Azure-Dienste aus deutschen Rechenzentren bereitgestellt, die Kundendaten werden ausschließlich in Deutschland verarbeitet und gespeichert.

Der Zugang zu den Kundendaten liegt beim Datentreuhänder T-Systems: Ohne Zustimmung des Datentreuhänders oder des Kunden erhält Microsoft keinen Zugriff. Durch den AppAgile Hybrid-Ansatz können Kunden private, datenkritische Anwendungen mit Public Cloud-Angeboten kombinieren und behalten trotzdem die volle Kontrolle über ihre Daten. Sowohl „AppAgile Azure Hybrid“ als auch die Plattform Services werden als durchgängig gemanagte Services mit einheitlichem Service Level Agreement angeboten. „Aus Drei mach Eins: T-Systems kombiniert Spezial-Cloud für Software-Entwickler“ weiterlesen

Studierende entwickeln mit Industriegrößen Anwendungen mit der Microsoft Cloud

Microsoft hat unter dem Motto Hack@Home Studierende in ganz Deutschland dazu aufgerufen, mit Hilfe der neuen Public-Cloud-Dienste der Microsoft Cloud Deutschland zukunftsfähige Lösungen zu entwickeln, die auch datensensible Unternehmen in Deutschland dabei unterstützen, ihre digitale Transformation voranzutreiben und den Wirtschaftsstandort Deutschland nachhaltig zu stärken. Microsoft hat dafür die mehr als 300 Teilnehmer des Wettbewerbs mit Partnern aus Universitäten sowie Paten aus der Industrie zusammengebracht: Audi, Bundesdruckerei, Daimler, DAK, Deutsche Bank, Deutsche Telekom, EnBW, Gühring, nexxTV, thyssenkrupp, RWE und Uniper.

Die Studierenden haben in den deutschlandweiten Hackathons Lösungen für ganz konkrete Herausforderungen der jeweiligen Industriepaten erarbeitet, etwa für die Überwachung von Produktionsrobotern, zur Verbesserung der Sicherheit auf Baustellen, für den Peer-to-Peer-Energiehandel oder für die Rückverfolgung der Produktionskette von Gütern.

„Mit der Microsoft Cloud Deutschland befähigen wir Unternehmen aller Größen und Branchen, die Potenziale intelligenter Public-Cloud-Dienste für ihr Geschäftswachstum auszuschöpfen und bieten ihnen gleichzeitig mehr Kontrolle und Wahlfreiheit darüber, wo und wie ihre Daten gespeichert werden“, sagt Sabine Bendiek, Vorsitzende der Geschäftsführung von Microsoft Deutschland. „Wie das konkret aussehen kann, zeigen die Teilnehmer unseres Wettbewerbs mit ihren inspirierenden Projekten für Big Data, Machine Learning und das Internet der Dinge auf sehr kreative Art und Weise.“ „Studierende entwickeln mit Industriegrößen Anwendungen mit der Microsoft Cloud“ weiterlesen

T-Systems erhält Zuschlag für europäische Forschungswolke

T-Systems hat bei einer gemeinsamen vorkommerziellen Auftragsvergabe unter der Leitung des CERN einen Rahmenvertrag für die Konzeption, Prototypenerstellung und Pilotphase der Helix Nebula Science Cloud erhalten. Mit Unterstützung des Technologiepartners Huawei entwickelt T-Systems eine Lösung, die auf der Open Telekom Cloud (OTC) aufbaut. Die öffentlichen Services der OTC bietet T-Systems seit März 2016 an. Inzwischen werden sie von diversen führenden Unternehmen, KMUs und Einrichtungen des öffentlichen Sektors genutzt.

Die Ausschreibung für eine vorkommerzielle Auftragsvergabe im Wert von 5,3 Mio. Euro unter der Leitung des CERN sieht den Aufbau einer europäischen Hybrid Cloud Plattform vor. Zum Einsatz kommen soll die neue Plattform bei leistungs- und datenintensiven wissenschaftlichen Anwendungsfällen, die von zehn führenden öffentlichen Forschungseinrichtungen in Europa finanziert und von der Europäischen Kommission gefördert werden. Insgesamt reichten im Sommer 2016 28 multinationale Unternehmen, KMUs und öffentliche Forschungseinrichtungen aus zwölf Ländern ihre Angebote ein. Die vorkommerzielle Auftragsvergabe beginnt mit einer Konzeptionsphase. Neben T-Systems und Huawei sind drei weitere Konsortien ausgewählt, um ihre Konzeption einer europäischen Hybrid Cloud Plattform zu entwickeln.

CERN betreibt eine der weltweit größten privaten OpenStack Clouds mit über 7.000 Servern und 190.000 Prozessorkernen. Da immer mehr Forschungseinrichtungen auf den Einsatz von Cloud-Diensten setzen, wächst die Nachfrage nach dynamischen Kapazitäten, die in einer Hybrid Cloud transparent freigeschaltet werden können. Die OTC wird von T-Systems betrieben, unterstützt vom Technologiepartner Huawei. Sie basiert auf einer OpenStack Open Source Architektur und wird zur Verwaltung und Migration von Daten und Ressourcen zwischen privaten und öffentlichen Clouds eingesetzt. „T-Systems erhält Zuschlag für europäische Forschungswolke“ weiterlesen

Bis 2020: 92 Prozent des Datenverkehrs in Rechenzentren ist Cloud-Traffic

Die Anforderungen an Skalierbarkeit und Leistung beschleunigen die Migration in Cloud-Architekturen und sorgen für rasantes Wachstum: Laut dem sechsten Cisco® Global Cloud Index (2015-2020) wird der cloudbasierte Datenverkehr von 3,9 Zetabyte (ZB) im Jahr 2015 auf 14,1 ZB im Jahr 2020 steigen und sich somit fast vervierfachen. Ein weiterer Grund für die Cloud-Migration ist die höhere Workload-Leistung. Ein Workload ist ein integrierter Softwareverbund aus Anwendung, Middleware, Datenbank und Betriebssystem, der eine bestimmte Berechnungsaufgabe durchführt.

Die Studie prognostiziert folgende Entwicklungen bis 2020:

Unternehmen:
• Bis 2020 werden Workloads von Unternehmen 72 Prozent (344,5 Millionen) der gesamten Arbeitslast im Rechenzentrum ausmachen, verglichen mit 79 Prozent (142,3 Millionen) im Jahr 2015 (2,4-faches Wachstum).
• 29 Prozent dieser Workloads werden für Computing benötigt, verglichen mit 28 Prozent im Jahr 2015, und
• 24 Prozent für Collaboration, verglichen mit 25 Prozent im Jahr 2015.
• Weitere 22 Prozent des gesamten Workloads werden von Datenbank/Analysen/Internet der Dinge (IoT) belegt, verglichen mit 20 Prozent im Jahr 2015. „Bis 2020: 92 Prozent des Datenverkehrs in Rechenzentren ist Cloud-Traffic“ weiterlesen

Künstliche Intelligenz – Warum gerade jetzt?

Am Beispiel des neuen Smartphones von Google wird deutlich, wie das Datennetz weitergesponnen wird. Schon bald wird Künstliche Intelligenz (KI) zu einem fest eingewebten Bestandteil. Nutzern kommunikationsfähiger Geräte wird die KI in allen Lebenslagen assistierend zur Seite stehen. Wer die Dienste der Assistenten nutzen will, wird sich allerdings offenbaren müssen, denn die Basis für leistungsfähige Künstliche Intelligenz ist das Maschinelle Lernen. Maschinelles Lernen wiederum ist auf Daten angewiesen, und davon so viel wie möglich.

Google hat ein komplett selbst entwickeltes Smartphone mit dem schlichten Namen Pixel vorgestellt, zusammengebaut aus hauseigener Soft- und Hardware. Noch ein überteuertes Gadget der Oberklasse zur Politur des eigenen Images, könnte man denken. „Mit den Pixel Telefonen gehen wir ganz neue Wege. Sie sind mit dem Besten ausgestattet, was Google je zu bieten hatte,“ sagt Dr. Wieland Holfelder, Entwicklungschef Google Deutschland. Marketingsprech, könnte man meinen.

Neue Wege sind für Holfelder unter anderem der mit Pixel verknüpfte, kostenlose und unbegrenzte Online Speicher für Fotos und Videos und der „Google Assistant“ für die Sprachsteuerung. Unbegrenzter Online Speicher, also unbegrenzter Speicherplatz in der Google Cloud, hört sich gut an, aber was soll ein weiterer Assistent? Es gibt doch schon Google Now, und andere Hersteller schicken Siri und Cortana ins Rennen. Doch bei Google Assistant geht es offenbar um wesentlich mehr. Es geht um eine Schnittstelle zu Googles Künstlicher Intelligenz, die im Laufe der nächsten Jahre den Alltag der Menschen prägen soll.
„Künstliche Intelligenz – Warum gerade jetzt?“ weiterlesen

Microsoft verdoppelt Cloud-Kapazitäten in Europa

Im Rahmen ihres Europa-Besuchs haben Microsoft-CEO Satya Nadella und Microsoft-Präsident Brad Smith heute in Berlin ihre Denkschrift „Cloud for Global Good“ vorgestellt. Mit der Schrift will Microsoft europäischen Unternehmen und Organisationen einen sicheren und nachhaltigen Weg in die Cloud aufzeigen. Microsoft hat die Kapazitäten seiner europäischen Cloud-Angebote allein im vergangenen Jahr verdoppelt und insgesamt mehr als drei Milliarden US-Dollar (rund 2,7 Milliarden Euro) in neue Rechenzentrumsregionen in Deutschland, Österreich und Finnland sowie in bereits bestehende in Dublin und Amsterdam investiert. Am Montag kündigte Nadella zudem an, dass ab 2017 auch Cloud-Dienste aus französischen Rechenzentren bereitgestellt werden sollen. Die Investitionen helfen europäischen Unternehmen bei der digitalen Transformation, da sie die Entwicklung und Bereitstellung von zukunftsfähigen Public-Cloud-Lösungen auch bei besonders strengen Anforderungen an Datensouveränität und Compliance ermöglichen.

Mehr als 100 Rechenzentren in 40 Ländern treiben digitale Transformation

„Unsere Mission ist es, die deutschen Bürger, Unternehmen und politischen Organisationen dabei zu unterstützen, mehr zu erreichen. Wir haben signifikant in die Cloud-Infrastruktur Europas investiert, um die wachsende Nachfrage von Kunden und Partnern nach Public-Cloud-Diensten zu befriedigen“, sagt Satya Nadella vor 200 Vertretern aus Wirtschaft, Politik und Medien in Berlin, darunter Timotheus Höttges, Vorstandsvorsitzender der Deutschen Telekom AG, Bernhard Rohleder vom Branchenverband BITKOM und Stefan Prasse vom Verein Mobile Retter e.V. „Microsoft verdoppelt Cloud-Kapazitäten in Europa“ weiterlesen