Angriffe auf die Cloud nehmen um 300 Prozent im Vergleich zum Vorjahr zu

Neben der Häufigkeit wächst die Raffinesse der Cyberangriffe auf Nutzerkonten in der Cloud. Das ist ein Ergebnis der neuen Ausgabe des „Microsoft Security Intelligence Reports“. Weiter zeigt sich: Ransomware (Erpresser-Software) wie WannaCrypt (auch bekannt als WannaCry) und Petya greifen im weltweiten Vergleich überproportional häufig Computer in Europa an, insbesondere Systeme in der Tschechischen Republik, Italien, Ungarn und Spanien.

„Die Bedrohungslandschaft von Cyberattacken ist einem ständigen Wandel unterzogen“, sagt Michael Kranawetter, National Security Officer bei Microsoft Deutschland. „In dieser digitalen und damit stark vernetzten Welt kommt es darauf an, aktuelle Bedrohungslagen in Echtzeit zu erkennen und Schwachstellen oder Einfallstore schnell zu schließen.“

Die Kernergebnisse des aktuellen Reports im Überblick:

• Die Angriffe auf cloudbasierte Benutzerkonten von Microsoft sind im Vergleich zum Vorjahr um 300 Prozent gestiegen (Q1-2016 bis Q1-2017).
• Die Anzahl der versuchten Kontoanmeldungen über schädliche IP-Adressen ist im ersten Quartal 2017 um 44 Prozent gegenüber dem Vorjahr gestiegen.
• Mehr als zwei Drittel der Angriffe auf die Services der Microsoft Cloud-Plattform Azure stammten im ersten Quartal 2017 von IP-Adressen aus China (35,1 Prozent) und den USA (32,5 Prozent), gefolgt von Korea (3,1 Prozent) und weiteren 116 Ländern und Regionen.
• Die weltweite Bedrohung von Ransomware variieren deutlich in ihrer globalen Verbreitung. Ist die sogenannte Begegnungs-Rate (Encounter Rate) in Japan (0,012 Prozent), China (0,014 Prozent) und den Vereinigten Staaten (0,02 Prozent) besonders niedrig, liegt sie in europäischen Ländern wie der Tschechischen Republik (0,17 Prozent), Italien (0,14 Prozent) oder Spanien (0,14 Prozent) im März 2017 weit über dem weltweiten Durchschnitt. „Angriffe auf die Cloud nehmen um 300 Prozent im Vergleich zum Vorjahr zu“ weiterlesen

Nach der Cloud-Wolke kommt der Fog-Nebel

Die sogenannte Fog-Technologie oder das Fog-Computing steht bereit, den Markt zu revolutionieren. Davon ist Mark Hawtin, Investment Director beim Vermögensverwalter GAM, überzeugt: „Die Cloud-Technologie hat sich mittlerweile weitgehend etabliert, auch wenn ihr volles Potenzial noch nicht ausgeschöpft wird. Die Flexibilität, die die Cloud bietet, wird nun durch den Fog sogar noch erweitert. Die Cloud-Technologie stößt an ihre Grenzen, wenn sehr große Datenmengen in Echtzeit abgerufen und verarbeitet werden müssen. Beim Fog werden Daten nicht mehr komplett an die Cloud gesendet, sondern zunächst zu einem Server in der Nähe, der dann einen Teil direkt verarbeitet und den Rest an die Cloud sendet. Der Fog setzt sich also aus vielen Endgeräten in der Nähe des Users zusammen und greift so zum Beispiel ungenutzte Server-Kapazitäten ab. Diese lokalen Geräte, die sogenannten Edge Devices, übernehmen teilweise Aufgaben der Cloud und reduzieren so die zu übertragende Datenmenge“, so der Experte.

Die Kombination aus Cloud und Fog bildet laut Hawtin die Basis für künftige Entwicklungen: „Wir stehen am Beginn einer neuen Ära. Künstliche Intelligenzen, zum Beispiel in selbstfahrenden Autos, werden unseren Alltag bestimmen.“ Gerade Systeme mit künstlicher Intelligenz verdeutlichten die Notwendigkeit der Fog-Technologie, da sie eine Unmenge an Daten verbrauchten. „Die Spracherkennung oder -steuerung von Smartphones zum Beispiel passiert per WLAN oder mobilen Internets komplett in der Cloud. Bei selbstfahrenden Autos kann dieses Modell aber nicht funktionieren, da die Datenmenge zu groß ist“, erklärt Hawtin. Laut des Wirtschaftsforschungsinstituts Bernstein nehme die Nutzung von Google Maps für eine Stunde eine Datenmenge von fünf Megabytes in Anspruch. Die Sensoren eines selbst fahrenden Autos hingegen würden in derselben Zeit 25 Gigabyte generieren. „Das ist mit der Cloud-Technologie nicht zu bewerkstelligen. Autos brauchen intelligente Systeme an Bord und ein Fog-Netzwerk nahe der Datenquelle“, ist Hawtin überzeugt. „Nach der Cloud-Wolke kommt der Fog-Nebel“ weiterlesen

Mit lokaler Cloud nach Aliens suchen

Data Scientists sind Menschen, die Mathematik und Informatik kombinieren und für die Datenanalyse nutzen. Ihnen bietet IBM die neue Arbeitsumgebung Data Science Experience Local, die sich komplett in die Private Cloud des eigenen Rechenzentrums integrieren lässt. Denn oft lassen sich Datenanalysen nicht in externe Clouds auslagern, weil das Datenvolumen zu hoch ist, externe Systeme ausgelastet sind oder es Compliance-Vorgaben nicht zulassen. Profitieren können von der IBM Data Science Experience Local Unternehmen aus dem Gesundheitswesen oder der Finanzwelt sowie Forschungseinrichtungen wie das US-amerikanische SETI Institut, das sich der Suche nach außerirdischem Leben widmet.

„Die enge Zusammenarbeit unter Data Scientists ist wichtig, um Ideen, Anregungen und Modelle schnell und einfach auszutauschen und voranzutreiben“, sagt Bill Diamond, President und CEO des SETI-Instituts im kalifornischen Mountain View. „Mit ihrer Lösung bringt IBM den Data-Science-Ansatz auf eine neue Ebene und ermöglicht es uns, umfassende Dokumente, Live-Codes und Gleichungen mit Wissenschaftlern der IBM, der Stanford University oder anderen Institutionen auszutauschen – dies wird unsere Arbeit beflügeln.“

Das SETI-Institut (Search for Extra-Terrestrial Intelligence) nutzt die neue IBM Arbeitsumgebung Data Science Experience Local für ihre Suche nach außerirdischem Leben. Riesige Datenmengen von astronomischen Beobachtungen werten die SETI-Forscher aus, um nach erdähnlichen Planeten außerhalb unseres Sonnensystems zu forschen. Seit Mitte der 1990er Jahre haben Astronomen rund 3.500 Exoplaneten bei anderen Sternsystemen entdeckt, von denen einige als mögliche Habitate für Leben in Frage kommen.

Das SETI-Institut profitiert von IBM Data Science Experience Local, weil sich die Arbeitsumgebung in die lokale Private Cloud der Einrichtung integrieren lässt und in sich geschlossen auf den Servern des eigenen Rechenzentrums läuft. Die lokale Arbeitsumgebung basiert auf der bisherigen IBM Public-Cloud-Lösung, die alle zentralen Anwendungen zum Ausführen und Verwalten der Entwicklungsumgebung einschließt, inklusive der lokalen Installationen von Apache Spark und Object Storage sowie den Data Science Experience Services. Die Lösung läuft auf dem Open-Source-Framework Kubernetes, mit dem sich Docker-Container verwalten lassen. Wie die Public-Cloud-Version ermöglicht die lokale Lösung, innerhalb des Data-Science-Teams Projekte und Codes zu teilen und gemeinsam Modelle mit Werkzeugen wie H2O-Libraries, RStudio oder Jupyter Notebooks zu entwickeln. „Mit lokaler Cloud nach Aliens suchen“ weiterlesen

„Was kostet die Cloud?“

Aktuelle Umfrage bestätigt Kosteneinsparungen durch Cloud Computing und zeigt Alternativen zum reinen Public Cloud Modell auf

Wer sein Unternehmen fit für die Digitalisierung machen möchte, kommt an Cloud Computing nicht vorbei. Cloud-Lösungen sind zukunftsfähig, skalierbar und die Kosten planbar. Aber welches Cloud-Modell macht sich am ehesten bezahlt? Grundsätzlich gilt: Der Umzug von Daten und Anwendungen in eine Public Cloud und die Auslagerung der IT-Infrastruktur zu einem Colocation-Anbieter zahlen sich am schnellsten aus. Das haben die Marktforscher von Research in Action (RIA) im Auftrag von Interxion unter mehr als 500 IT-Entscheidern mit Budgetverantwortung in deutschen Unternehmen verschiedener Branchen herausgefunden.

Investitionen in die Private Cloud im eigenen Rechenzentrum amortisieren sich bei 90,7 Prozent der Befragten nach spätestens vier Jahren, während die Aufwände für eine Private Cloud in Colocation in nahezu allen Fällen (95,5 Prozent) in weniger als zwei Jahren wieder hereingeholt werden. Fast jedes zweite Unternehmen mit outgesourctem Rechenzentrum (48,9 Prozent) schafft es sogar innerhalb des ersten Jahres alle anfänglichen Aufwendungen zu decken. Dagegen überrascht nicht, dass sich Investitionen in Public Cloud-Dienste in 87,1 Prozent der Fälle bereits innerhalb des ersten Jahres rentieren.

„Safety First“ plus klare Kostenersparnisse bei Colocation-Lösungen

Unternehmen, die weniger kritische Workloads in die Public Cloud verlagern, profitieren unbestritten von attraktiven Kostenvorteilen. Viele deutsche Unternehmen sind hier noch zögerlich und verarbeiten wichtige Daten und Anwendungen lieber mit dem eigenen IT-Equipment. Für sie eignet sich ein Umzug der eigenen Server in ein Colocation-Rechenzentrum. So lassen sich vergleichsweise hohe Einsparungen erzielen, fanden die Marktforscher von Research in Action heraus. Demnach geben 46,1 Prozent der IT-Entscheider an, seit der Einführung von Cloud Computing im Colocation Modell zwischen 25 und 50 Prozent eingespart zu haben. Bei den Unternehmen, die die Private Cloud im eigenen Rechenzentrum betreiben, erreichen dagegen fast zwei Drittel der Studienteilnehmer nur Einsparungen von 25 Prozent und weniger. Wer sich für Public Cloud Services entscheidet, erzielt die höchsten Kostenvorteile: Etwas mehr als die Hälfte der IT-Entscheider (51,2 Prozent) konnten seit der Einführung der Cloud-Dienste schon zwischen 50 und 75 Prozent einsparen. „„Was kostet die Cloud?““ weiterlesen

Cloud-Sicherheit von Anfang bis Ende

Die Bundesdruckerei hat heute auf der CeBIT ihre neue Cloud-Speicherlösung Bdrive der Öffentlichkeit vorgestellt. Zielgruppen sind alle Unternehmen und Behörden, die einen hohen Anspruch an die Datensicherheit stellen sowie Informationen sicher und dennoch bequem austauschen wollen. „Bdrive ist konsequent nach dem ,Security-by-Design-Prinzip‘ entwickelt worden“, sagte Ulrich Hamann, Vorsitzender der Geschäftsführung der Bundesdruckerei. „Die Lösung bietet Cloud-Sicherheit über den gesamten Workflow bei einfachster Bedienung – das ist einzigartig auf dem Markt.“

Die Daten der Anwender werden am Arbeitsplatz verschlüsselt, danach mit der Sicherheitstechnologie RAIC (Redundant Array of Independent Clouds) verteilt und ausfallsicher auf mehreren unabhängigen Speicherdiensten innerhalb Deutschlands abgelegt. Das Ergebnis: Eine hohe Datenverfügbarkeit sowie ein Maximum an Datensouveränität – weder die Bundesdruckerei als Anbieter noch die Speicherdienste können die Daten lesen. Für die sichere Datennutzung steht ein modernes Identitätsmanagement zur Verfügung, das mehrstufige Authentifizierungsverfahren ermöglicht. Zugriffsrechte lassen sich bis ins kleinste Detail festlegen. Verschiedene Kollaborationsfunktionen erlauben zudem die effiziente Zusammenarbeit im Team. Hamann: „Bdrive ist so einfach und flexibel wie eine Public Cloud und so sicher wie eine Private Cloud“.

Erhältlich ist Bdrive ab Sommer 2017. Die Bundesdruckerei sucht auf der CeBIT interessierte Pilotanwender, die sich im Internet hier informieren und anmelden können. Die Cloud-Speicherlösung läuft in der ersten Version auf Windows-Betriebssystemen, eine Mac-Version ist geplant. Die Kosten orientieren sich an der Anzahl der Nutzer, die Preisstaffel beginnt bei 25 Anwendern. Das Basispaket ist bereits ab 34 Euro pro Nutzer und Monat zuzüglich 590 Euro einmalige Einrichtungsgebühr erhältlich (alle Preisangaben zzgl. USt.). Die Preise beinhalten pro Nutzer 100 GB Datenvolumen und die Einbindung von bis zu drei Geräten. Weitere Geräte und ein größeres Datenvolumen lassen sich optional hinzu buchen.

RAID für Cloud nutzbar gemacht „Cloud-Sicherheit von Anfang bis Ende“ weiterlesen

IBM: Die Frankfurter Cloud wird kognitiv

Zum Auftakt der CeBIT 2017 baut IBM ihr Cloud-Angebot in Frankfurt aus. Über die dortige IBM Cloud-Plattform Bluemix sind neue Services verfügbar, die sich um kognitive Lösungen oder Datenanalyse drehen. Insbesondere europäische und deutsche Unternehmen profitieren von dem Cloud-Ausbau, da nun Entwickler direkt auf kognitive APIs (Application Programming Interface) zugreifen können. Kognitive Services wie Personality Insights oder Tone Analyzer erweitern den Einsatz von intelligenten Anwendungen für unterschiedliche Branchen. Zudem bietet IBM ihren Kunden höchste Transparenz und Sicherheit und hat als eines der ersten Unternehmen den European Code of Conduct for Cloud Service Providers unterzeichnet.

Mit dem Ausbau ihrer Frankfurter Cloud schafft IBM nach eigenen Angaben eine regionale Plattform für Entwickler, die den Einsatz von Watson Services für Apps und Anwendungen vereinfacht. Gerade kognitive Technologien sind laut einer IDC-Studie europaweit stark im Kommen: Bis 2018 werden laut IDC die Hälfte aller Entwicklerteams intelligente Algorithmen in ihre Apps integrieren. Der Zugriff auf die Frankfurter IBM Cloud ermöglicht es Organisationen, ihre Daten lokal zu speichern und zu verarbeiten. Dies gewährleistet nicht nur mehr Kontrolle über das eigene Wissen, sondern auch ein digitales Datenmanagement, das Vorgaben zu Datenschutz und gesetzlichen Richtlinien erfüllt.
Eine sichere Cloud für Europa

IBM will den sicheren Einsatz der Cloud vorantreiben und hat als eines der ersten Unternehmen und Gründungsmitglied des neuen EU Data Protection Code of Conduct for Cloud Providers unterzeichnet. Unternehmen, die diesen Verhaltenskodex unterzeichnen, verpflichten sich, dass ihre Datenschutz- und Sicherheitsrichtlinien nicht nur rechtskonform sind, sondern weit über die gesetzlichen Bestimmungen hinausgehen. Der Kodex umfasst Infrastruktur, Plattform und Software-as-a-Service. IBM hat zunächst für ihre SoftLayer und Bluemix Infrastructure Services unterzeichnet, weitere werden in Bälde folgen. „IBM: Die Frankfurter Cloud wird kognitiv“ weiterlesen

Rechenzentren in Deutschland stärken Vertrauen in Cloud-Dienste

Die Speicherung von Daten ausschließlich in Deutschland spielt für Entscheider in der digitalen Transformation eine wesentliche Rolle. Dies zeigt eine aktuelle Studie der techconsult GmbH im Auftrag der Microsoft Deutschland GmbH, die vor allem Unternehmen aus dem Mittelstand und den Branchen Finanzwesen, Bildung, Gesundheitswesen und öffentliche Verwaltung untersucht.

Cloud-Computing gehört weltweit und branchenübergreifend zu den zentralen Antworten auf Fragen der Digitalisierung von Unternehmen oder dem öffentlichen Sektor. Zu den Hürden, Software-as-a-Service zu beziehen, zählen bei den Entscheidern häufig Bedenken, hinsichtlich des Datenschutzes. Seit Januar 2017 steht die Produktivitätssuite Office 365 in der Microsoft Cloud Deutschland zur Verfügung. Somit haben Unternehmen die Wahl zwischen Office 365 aus der deutschen oder der europäischen Cloud. Damit bedient Microsoft vor allem den Wunsch vieler Entscheider, ein Rechenzentrum in Deutschland anzubieten. Kontrolliert wird der Zugang zu den Daten vom deutschen Datentreuhänder T-Systems International GmbH, der unter deutschem Recht agiert.

Bestätigt wird dies nicht nur durch den „Cloud-Monitor 2016“ von Bitkom Research im Auftrag von KPMG, sondern auch durch eine aktuelle Studie der techconsult GmbH, die Chancen und Risiken von Office 365 Deutschland untersucht. „Rechenzentren in Deutschland stärken Vertrauen in Cloud-Dienste“ weiterlesen

Aus Drei mach Eins: T-Systems kombiniert Spezial-Cloud für Software-Entwickler

Software-Entwickler können ein neues digitales Werkzeug nutzen: AppAgile, Entwicklungsplattform von T-Systems für schnell verfügbare Geschäftsanwendungen und Data Analytics aus der Cloud, steht ab sofort auch als Hybrid Cloud auf Basis von Microsoft Azure bereit. Auf der Basis von Red Hat OpenShift Container Platform ist „AppAgile Azure Hybrid“ aus der Microsoft Cloud Deutschland und global als modulares Plattform-as-a-Service-Angebot verfügbar. Bei der Microsoft Cloud Deutschland werden die Azure-Dienste aus deutschen Rechenzentren bereitgestellt, die Kundendaten werden ausschließlich in Deutschland verarbeitet und gespeichert.

Der Zugang zu den Kundendaten liegt beim Datentreuhänder T-Systems: Ohne Zustimmung des Datentreuhänders oder des Kunden erhält Microsoft keinen Zugriff. Durch den AppAgile Hybrid-Ansatz können Kunden private, datenkritische Anwendungen mit Public Cloud-Angeboten kombinieren und behalten trotzdem die volle Kontrolle über ihre Daten. Sowohl „AppAgile Azure Hybrid“ als auch die Plattform Services werden als durchgängig gemanagte Services mit einheitlichem Service Level Agreement angeboten. „Aus Drei mach Eins: T-Systems kombiniert Spezial-Cloud für Software-Entwickler“ weiterlesen

Studierende entwickeln mit Industriegrößen Anwendungen mit der Microsoft Cloud

Microsoft hat unter dem Motto Hack@Home Studierende in ganz Deutschland dazu aufgerufen, mit Hilfe der neuen Public-Cloud-Dienste der Microsoft Cloud Deutschland zukunftsfähige Lösungen zu entwickeln, die auch datensensible Unternehmen in Deutschland dabei unterstützen, ihre digitale Transformation voranzutreiben und den Wirtschaftsstandort Deutschland nachhaltig zu stärken. Microsoft hat dafür die mehr als 300 Teilnehmer des Wettbewerbs mit Partnern aus Universitäten sowie Paten aus der Industrie zusammengebracht: Audi, Bundesdruckerei, Daimler, DAK, Deutsche Bank, Deutsche Telekom, EnBW, Gühring, nexxTV, thyssenkrupp, RWE und Uniper.

Die Studierenden haben in den deutschlandweiten Hackathons Lösungen für ganz konkrete Herausforderungen der jeweiligen Industriepaten erarbeitet, etwa für die Überwachung von Produktionsrobotern, zur Verbesserung der Sicherheit auf Baustellen, für den Peer-to-Peer-Energiehandel oder für die Rückverfolgung der Produktionskette von Gütern.

„Mit der Microsoft Cloud Deutschland befähigen wir Unternehmen aller Größen und Branchen, die Potenziale intelligenter Public-Cloud-Dienste für ihr Geschäftswachstum auszuschöpfen und bieten ihnen gleichzeitig mehr Kontrolle und Wahlfreiheit darüber, wo und wie ihre Daten gespeichert werden“, sagt Sabine Bendiek, Vorsitzende der Geschäftsführung von Microsoft Deutschland. „Wie das konkret aussehen kann, zeigen die Teilnehmer unseres Wettbewerbs mit ihren inspirierenden Projekten für Big Data, Machine Learning und das Internet der Dinge auf sehr kreative Art und Weise.“ „Studierende entwickeln mit Industriegrößen Anwendungen mit der Microsoft Cloud“ weiterlesen

T-Systems erhält Zuschlag für europäische Forschungswolke

T-Systems hat bei einer gemeinsamen vorkommerziellen Auftragsvergabe unter der Leitung des CERN einen Rahmenvertrag für die Konzeption, Prototypenerstellung und Pilotphase der Helix Nebula Science Cloud erhalten. Mit Unterstützung des Technologiepartners Huawei entwickelt T-Systems eine Lösung, die auf der Open Telekom Cloud (OTC) aufbaut. Die öffentlichen Services der OTC bietet T-Systems seit März 2016 an. Inzwischen werden sie von diversen führenden Unternehmen, KMUs und Einrichtungen des öffentlichen Sektors genutzt.

Die Ausschreibung für eine vorkommerzielle Auftragsvergabe im Wert von 5,3 Mio. Euro unter der Leitung des CERN sieht den Aufbau einer europäischen Hybrid Cloud Plattform vor. Zum Einsatz kommen soll die neue Plattform bei leistungs- und datenintensiven wissenschaftlichen Anwendungsfällen, die von zehn führenden öffentlichen Forschungseinrichtungen in Europa finanziert und von der Europäischen Kommission gefördert werden. Insgesamt reichten im Sommer 2016 28 multinationale Unternehmen, KMUs und öffentliche Forschungseinrichtungen aus zwölf Ländern ihre Angebote ein. Die vorkommerzielle Auftragsvergabe beginnt mit einer Konzeptionsphase. Neben T-Systems und Huawei sind drei weitere Konsortien ausgewählt, um ihre Konzeption einer europäischen Hybrid Cloud Plattform zu entwickeln.

CERN betreibt eine der weltweit größten privaten OpenStack Clouds mit über 7.000 Servern und 190.000 Prozessorkernen. Da immer mehr Forschungseinrichtungen auf den Einsatz von Cloud-Diensten setzen, wächst die Nachfrage nach dynamischen Kapazitäten, die in einer Hybrid Cloud transparent freigeschaltet werden können. Die OTC wird von T-Systems betrieben, unterstützt vom Technologiepartner Huawei. Sie basiert auf einer OpenStack Open Source Architektur und wird zur Verwaltung und Migration von Daten und Ressourcen zwischen privaten und öffentlichen Clouds eingesetzt. „T-Systems erhält Zuschlag für europäische Forschungswolke“ weiterlesen

Bis 2020: 92 Prozent des Datenverkehrs in Rechenzentren ist Cloud-Traffic

Die Anforderungen an Skalierbarkeit und Leistung beschleunigen die Migration in Cloud-Architekturen und sorgen für rasantes Wachstum: Laut dem sechsten Cisco® Global Cloud Index (2015-2020) wird der cloudbasierte Datenverkehr von 3,9 Zetabyte (ZB) im Jahr 2015 auf 14,1 ZB im Jahr 2020 steigen und sich somit fast vervierfachen. Ein weiterer Grund für die Cloud-Migration ist die höhere Workload-Leistung. Ein Workload ist ein integrierter Softwareverbund aus Anwendung, Middleware, Datenbank und Betriebssystem, der eine bestimmte Berechnungsaufgabe durchführt.

Die Studie prognostiziert folgende Entwicklungen bis 2020:

Unternehmen:
• Bis 2020 werden Workloads von Unternehmen 72 Prozent (344,5 Millionen) der gesamten Arbeitslast im Rechenzentrum ausmachen, verglichen mit 79 Prozent (142,3 Millionen) im Jahr 2015 (2,4-faches Wachstum).
• 29 Prozent dieser Workloads werden für Computing benötigt, verglichen mit 28 Prozent im Jahr 2015, und
• 24 Prozent für Collaboration, verglichen mit 25 Prozent im Jahr 2015.
• Weitere 22 Prozent des gesamten Workloads werden von Datenbank/Analysen/Internet der Dinge (IoT) belegt, verglichen mit 20 Prozent im Jahr 2015. „Bis 2020: 92 Prozent des Datenverkehrs in Rechenzentren ist Cloud-Traffic“ weiterlesen

Künstliche Intelligenz – Warum gerade jetzt?

Am Beispiel des neuen Smartphones von Google wird deutlich, wie das Datennetz weitergesponnen wird. Schon bald wird Künstliche Intelligenz (KI) zu einem fest eingewebten Bestandteil. Nutzern kommunikationsfähiger Geräte wird die KI in allen Lebenslagen assistierend zur Seite stehen. Wer die Dienste der Assistenten nutzen will, wird sich allerdings offenbaren müssen, denn die Basis für leistungsfähige Künstliche Intelligenz ist das Maschinelle Lernen. Maschinelles Lernen wiederum ist auf Daten angewiesen, und davon so viel wie möglich.

Google hat ein komplett selbst entwickeltes Smartphone mit dem schlichten Namen Pixel vorgestellt, zusammengebaut aus hauseigener Soft- und Hardware. Noch ein überteuertes Gadget der Oberklasse zur Politur des eigenen Images, könnte man denken. „Mit den Pixel Telefonen gehen wir ganz neue Wege. Sie sind mit dem Besten ausgestattet, was Google je zu bieten hatte,“ sagt Dr. Wieland Holfelder, Entwicklungschef Google Deutschland. Marketingsprech, könnte man meinen.

Neue Wege sind für Holfelder unter anderem der mit Pixel verknüpfte, kostenlose und unbegrenzte Online Speicher für Fotos und Videos und der „Google Assistant“ für die Sprachsteuerung. Unbegrenzter Online Speicher, also unbegrenzter Speicherplatz in der Google Cloud, hört sich gut an, aber was soll ein weiterer Assistent? Es gibt doch schon Google Now, und andere Hersteller schicken Siri und Cortana ins Rennen. Doch bei Google Assistant geht es offenbar um wesentlich mehr. Es geht um eine Schnittstelle zu Googles Künstlicher Intelligenz, die im Laufe der nächsten Jahre den Alltag der Menschen prägen soll.
„Künstliche Intelligenz – Warum gerade jetzt?“ weiterlesen

Microsoft verdoppelt Cloud-Kapazitäten in Europa

Im Rahmen ihres Europa-Besuchs haben Microsoft-CEO Satya Nadella und Microsoft-Präsident Brad Smith heute in Berlin ihre Denkschrift „Cloud for Global Good“ vorgestellt. Mit der Schrift will Microsoft europäischen Unternehmen und Organisationen einen sicheren und nachhaltigen Weg in die Cloud aufzeigen. Microsoft hat die Kapazitäten seiner europäischen Cloud-Angebote allein im vergangenen Jahr verdoppelt und insgesamt mehr als drei Milliarden US-Dollar (rund 2,7 Milliarden Euro) in neue Rechenzentrumsregionen in Deutschland, Österreich und Finnland sowie in bereits bestehende in Dublin und Amsterdam investiert. Am Montag kündigte Nadella zudem an, dass ab 2017 auch Cloud-Dienste aus französischen Rechenzentren bereitgestellt werden sollen. Die Investitionen helfen europäischen Unternehmen bei der digitalen Transformation, da sie die Entwicklung und Bereitstellung von zukunftsfähigen Public-Cloud-Lösungen auch bei besonders strengen Anforderungen an Datensouveränität und Compliance ermöglichen.

Mehr als 100 Rechenzentren in 40 Ländern treiben digitale Transformation

„Unsere Mission ist es, die deutschen Bürger, Unternehmen und politischen Organisationen dabei zu unterstützen, mehr zu erreichen. Wir haben signifikant in die Cloud-Infrastruktur Europas investiert, um die wachsende Nachfrage von Kunden und Partnern nach Public-Cloud-Diensten zu befriedigen“, sagt Satya Nadella vor 200 Vertretern aus Wirtschaft, Politik und Medien in Berlin, darunter Timotheus Höttges, Vorstandsvorsitzender der Deutschen Telekom AG, Bernhard Rohleder vom Branchenverband BITKOM und Stefan Prasse vom Verein Mobile Retter e.V. „Microsoft verdoppelt Cloud-Kapazitäten in Europa“ weiterlesen

Cat versus Cattle – Hosting in Zeiten von IoT

Keine Frage, das Internet der Dinge kommt – und zwar mit Macht. Egal, ob es nun 20 oder 30 Milliarden Dinge sind, die im Jahr 2020 vernetzt sind und miteinander sprechen, eines entsteht bei all dem gewiss: Big Data. In Zukunft kommen die Informationen praktisch von selbst – und das in einem Ausmaß, das früher nicht für möglich gehalten wurde. Und diese Daten machen alles “smart”: Telefone, Fernseher, Häuser, Autos, Kleidung und ganze Fabriken.

Von Andreas Bachmann, CIO der Adacor Hosting GmbH

Das diese Entwicklung auch Auswirkungen auf das Thema Hosting, Cloud und Security hat ist offensichtlich. Aber was bedeutet das für einen Managed-Hosting-Anbieter und vor allem für die Geschäftsbeziehung zu seinen Kunden? Andreas Bachmann, CIO der Adacor Hosting, erklärt am Prinzip „Cat versus Cattle – Haustier gegen Farmtier” den wesentlichen Unterschied zwischen einer klassischen Hosting-Umgebung und dem künftigen Betrieb in der Cloud unter den Rahmenbedingungen von IoT.
Produktion von Datenmassen

Die neue Technik produziert eine unglaublich große Menge an Daten – Big Data. Mittels Sensoren übertragen die „Dinge“ – seien es das autonom einparkende Fahrzeug, das Container-Terminal im Hafen oder die digitale Ableseuhr an der Zentralheizung – über Funknetze und WLAN-Verbindungen ihre Daten bis zu den Servern der Unternehmen. Dort werden sie eingelesen, entschlüsselt und weiterverarbeitet. Um die einlaufenden Daten für analytische Zwecke verwenden zu können, werden Projekte aufgesetzt, die auf der einen Seite vollautomatisierte Prozesse ermöglichen und auf der anderen Seite das Potenzial haben, kontinuierlich zu wachsen. „Cat versus Cattle – Hosting in Zeiten von IoT“ weiterlesen

Samsung to acquire public and private cloud provider Joyent

Samsung Electronics today announced that it has agreed to acquire Joyent, Inc., a leading public and private cloud provider. With Joyent’s superior cloud technology, Samsung will now have access to its own cloud platform capable of supporting its growing lineup of mobile, Internet of Things (IoT) and cloud-based software and services. The transaction remains subject to customary closing conditions.

“Samsung evaluated a wide range of potential companies in the public and private cloud infrastructure space with a focus on leading-edge scalable technology and talent. In Joyent, we saw an experienced management team with deep domain expertise and a robust cloud technology validated by some of the largest Fortune 500 customers,” said Injong Rhee, CTO of the Mobile Communications business at Samsung Electronics.

As smartphones and connected-devices have taken hold across the world, cloud computing has become fundamental in providing users with exciting and reliable services and experiences on their devices. With leadership positions in both mobile and IoT, this acquisition represents Samsung’s commitment to provide a seamless user experience to millions of customers.
Joyent’s technology will strengthen this position, while allowing Samsung to scale its own cloud infrastructure and services as it continues to innovate with new software and technologies. Through this acquisition, Joyent’s talented team of technologists, including CEO, Scott Hammond, CTO, Bryan Cantrill, and VP of Product, Bill Fine will join Samsung to work on company-wide cloud initiatives. „Samsung to acquire public and private cloud provider Joyent“ weiterlesen

Cloud Monitoring erhöht Wettbewerbsfähigkeit

Autor: Dr. Peter Putz, Ops Lead Software Innovation bei Dynatrace

Eine Diskussion in diesem Blog hat aufgezeigt, dass sich IT-Verantwortliche in Unternehmen künftig vor allem um die Koordination der Cloud Services kümmern und zum „Cloud Conductor“ (Cloud-Dirigent) werden könnten. Doch wohin auch immer sich das IT-Management entwickelt, verantwortlich für sein Unternehmen handeln kann nur, wer ein effizientes, umfassendes Cloud Monitoring durchführt.

Vertrauen ist gut …

Nach einer aktuellen Studie von Crisp Research beschäftigen sich heute bereits 85 Prozent der deutschen mittelständischen Unternehmen intensiv mit dem Thema Cloud und befinden sich in der Planung, Implementierung oder im produktiven Betrieb. Single-Cloud-Architekturen werden dabei die Ausnahme darstellen, denn 68,8 Prozent der Befragten nutzen hybride und Multi-Cloud-Ansätze. Doch unabhängig davon, für welche Provider sie sich entscheiden, stellt sich die Frage, ob diese auch tatsächlich die vereinbarten Servicelevels einhalten. Sind die Angebote von AWS (Amazon Web Services), Microsoft Azure oder VMware vCloud Air tatsächlich jederzeit verfügbar und bieten sie auch die versprochene Performance?

Ohne perfekten Kundenservice, heutzutage spricht man von User Experience, der Kundenerfahrung, lässt sich schließlich keine Anwendung intern im Unternehmen oder extern an Business- und Endkunden ‚verkaufen‘. Sind Angebote nicht verfügbar, ärgert dies die Nutzer und sie springen ab, denn es gibt fast immer leicht zu erreichende Parallel-Produkte und -Lösungen. Zudem spricht sich eine langsame Reaktionszeit oder schlechte Erreichbarkeit im heutigen Zeitalter der sozialen Medien sehr schnell herum – ebenso wie die schnellen, praktischen und zuverlässigen Alternativen. Interne Anwendungen werden dann durch öffentlich zugängliche Angebote ersetzt, auch an der IT-Abteilung vorbei als Schatten-IT. Und bei externen Services gehen zahlende Kunden verloren.

… Kontrolle ist besser

Kontrolle und Überwachbarkeit der Cloud-Anwendungen sind daher wichtige Themen bei der Nutzung verschiedener Anbieter. Um diese Anforderungen zu erfüllen, benötigen Unternehmen umfassende Lösungen für das Cloud Monitoring, die sich einfach in die entsprechenden Services integrieren lassen. Sie sollten eine tiefgehende Transparenz in mögliche Performance-Probleme aus Kundensicht bieten. Außerdem bildet die Fähigkeit der automatischen Erkennung von zusätzlich zur Verfügung gestellten Kapazitäten der Cloud-Plattformen ein wichtiges Kriterium, vor allem wenn Container- und Microservice-Architekturen zum Einsatz kommen. Monitoring-Lösungen wie Dynatrace Ruxit überwachen dabei nicht nur den gesamten Technologie-Stack (von der Anwendung über die Datenbank und das Netzwerk bis zur (virtuellen) Server-Infrastruktur), sondern visualisieren die mit Hilfe von künstlicher Intelligenz gewonnenen Erkenntnisse auch in Form einer interaktiven „Landkarte“ der IT-Infrastruktur.

Vertraue, aber prüfe nach

Mit modernen Monitoring-Lösungen lassen sich Probleme nicht nur frühzeitig erkennen, noch bevor sie der Nutzer bemerkt. Auch die Ursache des Problems lässt sich schneller finden oder wird im Idealfall von der Lösung selbst gefunden. Damit lässt sich z.B. eine Erhöhung der generellen Antwortzeiten auf den verursachenden Drittanbieter zuordnen. Ein umfassendes synthetisches Monitoring sorgt dafür, dass die Erfüllung der vereinbarten Servicelevels jederzeit nachvollzogen werden kann.

Mit Cloud Monitoring wird sichergestellt, dass dem Nutzer zu jeder Zeit die bestmögliche User Experience geboten wird. Dies erhöht die Zufriedenheit von Kunden und Mitarbeitern und damit auch die Wettbewerbsfähigkeit des Unternehmens.