ABB und HPE wollen Industrieanlagen intelligent machen

ABB und Hewlett Packard Enterprise (HPE) haben heute eine strategische Partnerschaft angekündigt, um ABBs Digital-Portfolio mit den Angeboten von HPE für eine sogenannte „hybride IT“ zu kombinieren. Die Partner wollen ihren Kunden Lösungen zur Verfügung stellen, die große Mengen von Betriebsdaten zu Steuerungsinformationen verarbeiten. Damit sollen die Kunden die Effizienz und Flexibilität ihres Betriebs verbessern und Wettbewerbsvorteile schaffen können.

ABB und HPE wollen gemeinsame Lösungen zur Verfügung stellen, die Industrie- und IT-Technologie zusammenführen, um aus Betriebsdaten Einsichten zu generieren und Prozesse zu automatisieren. Dabei werden Cloud-Plattformen wie Microsoft Azure mit IT-Systemen kombiniert, die in Firmen-Rechenzentren und an den Außenrändern des Netzwerks laufen, also in räumlicher Nähe zu Maschinen und Anlagen. Diese Mischung aus IT-Plattformen soll die Datenanalyse in den Industrie-Anlagen beschleunigen und gleichzeitig eine effektive Steuerung von industriellen Prozessen über Standorte hinweg ermöglichen.

„Diese strategische Partnerschaft markiert die nächste Ebene der digitalen industriellen Transformation. Zusammen bringen wir Intelligenz von Cloud-basierten Lösungen in lokale Installationen in Industrie-Anlagen und Rechenzentren, um höhere Verfügbarkeit, Schnelligkeit und Produktivität zu ermöglichen“, wird Ulrich Spiesshofer, CEO von ABB, in einer Mitteilung zitiert: „ABB und HPE werden Lösungen bereitstellen, die die ganze Bandbreite von IT-Systemen umfassen wird, die Unternehmen heute brauchen – vom Außenrand des Netzwerks über die Cloud zu den Firmen-Rechenzentren.“ „ABB und HPE wollen Industrieanlagen intelligent machen“ weiterlesen

Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter

Hewlett Packard Enterprise (HPE) stellt heute den weltgrößten Computer mit einheitlichem Arbeitsspeicher vor, es ist der neuste Meilenstein des Forschungsprojekts „The Machine“. The Machine ist das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt HPE ein neues Computer-Paradigma, genannt Memory-Driven Computing – eine speziell für das Zeitalter von Big Data entwickelte Computer-Architektur.

„Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen“, so Meg Whitman, CEO von Hewlett Packard Enterprise. „Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“

Der heute vorgestellte Prototyp hat 160 Terabyte (TB) Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten – etwa 160 Millionen Bücher. Es war vorher nie möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Skalierbarkeit und gesellschaftliche Auswirkungen
„Hewlett Packard Enterprise enthüllt Computer für das Big-Data-Zeitalter“ weiterlesen

Hewlett Packard Enterprise erweitert Deep-Learning-Angebot

Hewlett Packard Enterprise (HPE) hat auf der GPU Technology Conference in San Jose neue Systeme, Partnerschaften und Dienstleistungen für Deep Learning angekündigt. Zu den neuen Systemen gehört der Hochleistungs-Computer HPE SGI 8600. Er beruht auf der SGI-Architektur ICE XA und bietet eine optimale Kombination aus flüssiggekühlter Grafikprozessor-Leistung und NVIDIAs Tesla-GPU-Beschleunigern mit NVLinkTM-Technologie. Das System ist für die komplexesten und größten Umgebungen geeignet – bis zu Tausenden von Rechnerknoten mit bester Energieeffizienz. Der neue HPE Apollo 6500 mit NVIDIAs Tesla-GPUs, zertifiziert für NVIDIAs VCA-Software, ist für das interaktive Rendering optimiert. Außerdem kündigte HPE an, die nächste Generation von NVIDIAs Tesla-GPUs mit Volta-Architektur in den Systemen Apollo 2000, Apollo 6500 und Proliant DL380 zu unterstützen.

HPE und NVIDIA bauen Zusammenarbeit bei Deep Learning aus

Auf der Grundlage des neuen HPE-Supercomputers am Tokyo Institute of Technology, einem der größten Cluster mit NVIDIAs Tesla-P100-GPUs, werden HPE und NVIDIA „Center of Excellence“ für Benchmarking, Code-Modernisierung und Proof-of-Konzept-Projekte etablieren. Die Standorte dafür sind unter anderem in Korea, Sydney, Grenoble, Bangalore und Houston. Außerdem bieten die Partner ein Early-Access-Programm für Volta-basierte Systeme mit NVIDIAs Tesla-SXM2-GPUs mit je acht Grafikprozessoren für ausgewählte Kunden im 4. Quartal 2017.

„Durch unsere Partnerschaft mit SGI und jetzt HPE, hat das Tokyo Institute of Technology erfolgreich eine weltweit führende HPC- und Deep-Learning-Plattform aufgebaut, die unsere Anforderungen und die unseres Landes erfüllt“, so Satoshi Matsuoka, Professor und Leiter des TSUBAME-Projektes am Tokyo Institute of Technology. „Die Lösung mit NVIDIA Tesla P100 SXM2 ermöglicht ein Deep Learning, das auf die gesamte Größe des TSUBAME 3.0 skalierbar ist. Wir freuen uns, unsere Partnerschaft mit HPE fortzusetzen, um weitere Projekte in den Bereichen HPC und Deep Learning umzusetzen.“ „Hewlett Packard Enterprise erweitert Deep-Learning-Angebot“ weiterlesen