HPE Blog, Austria, Germany & Switzerland
abbrechen
Suchergebnisse werden angezeigt für 
Stattdessen suchen nach 
Meintest du: 

Hochleistungsteam für Hochleistungs-Computing

111.jpgWas die Olympischen Spiele für den Sport sind, das ist in der IT das High-Performance Computing (HPC) – nur dass HPC eben nicht nur alle vier Jahre für ein paar Wochen stattfindet, sondern rund um die Uhr, und das in immer mehr Unternehmen. Denn rasant wachsende Datenberge – IDC erwartet 175 Zettabytes im Jahr 2025 – erfordern geradezu olympische Rechenpower für eine steigende Zahl von Aufgaben. Die gute Nachricht: Neuste Technologien machen HPC-Spitzenleistungen einer breiteren Masse von Unternehmen zugänglich.

Wie in der Leichtathletik, so gibt es auch im High-Performance Computing die unterschiedlichsten Disziplinen: Big-Data-Analysen, Modellierung und Simulation oder auch Anwendungen aus der facettenreichen Welt der künstlichen Intelligenz (KI), von der Spracherkennung bis hin zu autonomen Fahrzeugen. Entsprechend vielfältig sind heute – auf der Schwelle zum sogenannten Exascale-Zeitalter, in dem kaum mehr begreifbare Datenmassen zu bewältigen sind – die Einsatzfelder: War HPC früher einigen wenigen Regierungsinstitutionen und Forschungseinrichtungen vorbehalten, kommt es heute in zahlreichen Branchen zum Einsatz, vom Portfolio- und Risikomanagement in Banken und Versicherungen über die Wetter- und Klimamodellierung bis hin zur Genomforschung.

Mit HPC gegen Corona

2.jpg

Die wachsende Bedeutung des High-Performance Computings brachte Antonio Neri, Präsident und CEO von HPE, letzten Herbst anlässlich der Akquisition des Supercomputing-Vorreiters Cray auf den Punkt: „Die Antworten auf einige der dringendsten Herausforderungen der Gesellschaft sind in riesigen Datenmengen verborgen. Nur durch die Verarbeitung und Analyse dieser Daten werden wir in der Lage sein, Antworten auf kritische Herausforderungen in Bereichen wie Medizin, Klimawandel, Weltraum und anderen zu finden.“

Wie dringlich die HPC-Aufgaben sind, zeigt die aktuelle Corona-Krise. „Wir sind stolz darauf, dass unsere Technologie und unsere Teams hinzugezogen werden, um Organisationen bei der Bewältigung der COVID-19-Krise zu unterstützen“, so Antonio Neri kürzlich in einem Blog-Post. HPE unterstützt als Teil des COVID-19 HPC Consortiums unter anderem weltweit führende Forschungszentren wie das Argonne National Laboratory des US-Energieministeriums oder das Oak Ridge National Laboratory bei Simulationen und Deep Learning dabei, Medikamente gegen den neuen Virenstamm zu entwickeln.

Beim deutschen Forschungszentrumsverbund DZNE (Deutsches Zentrum für neurodegenerative Erkrankungen in der Helmholtz-Gemeinschaft) wiederum beschleunigt HPE-Technologie die Analyse von Daten im Petabytes-Bereich zum Beispiel für eine effektivere Alzheimer-Forschung. Zeitgleich setzen auch immer mehr produzierende Betriebe auf Innovationen wie eine präskriptive Wartung ihrer Anlagen, Maschinen und Produkte, also auf die KI-gestützte Vorhersage von Mängeln inklusive ebenso KI-basierter Empfehlungen für Gegenmaßnahmen. Das senkt die Fehlerquote, verringert die Kosten und schont zugleich die Umwelt.

HPC-Server für alle Aufgaben

3.jpg

Ohne modernstes, präzise auf die jeweilige Disziplin abgestimmtes Equipment ist im Hochleistungssport längst kein Blumentopf mehr zu gewinnen; ebenso erfordert HPC Hochleistungsserver, die für das Anwendungsszenario optimiert sind. HPE deckt hier sämtliche Einsatzfälle ab. Seit der Cray-Akquisition letztes Jahr reicht das Portfolio von HPE sogar bis hin zur Weltspitze des rechenintensiven Number-Crunchings für anspruchsvollste Simulationen und KI-Anwendungen.

Doch die wenigsten Unternehmen haben so extreme HPC-Anforderungen wie die globale Champions League der High-End-Forschungszentren. Deshalb liefert HPE zusammen mit einem eingespielten Team aus Technologiepartnern ein umfassendes Portfolio von Computern, Speichersystemen, Netzwerken, Software und Services, mit dem auch ein mittelständisches Unternehmen seine Big-Data-Analysen und Simulationen auf Höchstleistung trimmen oder KI-Modelle effektiv trainieren kann.

Den Sprung in die Welt des Hochleistungs-Computings ermöglicht die Serverfamilie HPE Apollo 2000 Gen10. Denn sie erlaubt es, mit kleinen HPC-Projekten zu starten und diese dann zu sehr umfangreichen Umgebungen auszubauen. Der bewährte „Zehnkämpfer“ für unterschiedlichste HPC-Workloads ist HPE Apollo 6500 Gen 10, ein hochverfügbares, flexibel bestückbares Rack-System für alle Disziplinen von der Telemetriedatenanalyse bis zum Deep Learning. Die NASA nutzt übrigens ein Apollo 40 System, um rechenintensive Kalkulationen gleich an Bord der Raumstation ISS durchzuführen, ohne die Daten erst auf den 20 Minuten langen Weg zur Erde schicken zu müssen. Am oberen Ende der HPC-Skala findet man neben den Cray-Systemen auch HPE SGI 8600. Auf ihm basiert der Supercomputer Hawk am Hochleistungsrechenzentrum der Universität Stuttgart (HLRS).

Computing-Spitzenleistung benötigt ebenbürtige Speicherlösungen, um ihre Kraft zu entfalten. Für die hohen Storage-Anforderungen heutiger Applikationen stehen mit HPE Apollo 4200 Gen10 und HPE Apollo 4510 Gen10 zwei leistungsstarke Storage-Systeme zur Auswahl. Die Architektur des HPE Apollo 4200 Gen10 Servers ist optimiert für Big Data-Analysen sowie softwaredefinierte Speicherung, Sicherung und Archivierung. Noch mehr Storage-Power bietet sein großer Bruder, der HPE Apollo 4510 Gen10. Er ist konzipiert für anspruchsvolle Big Data-Lösungen wie Objektspeicher, Datenanalysen und ähnlich datenintensive Workloads. Die Geräte bieten Platz für 448 bzw. 960 TByte Rohdaten, doch dank kompakter Bauweise – der Apollo 4200 belegt nur zwei, der 4510 nur vier Höheneinheiten im Rack – sparen Sie wertvollen Platz im Rechenzentrum.

HPC-Software und HPC-Know-how

4.jpg

Hervorragendes Equipment allein garantiert noch lange nicht den Erfolg – das weiß jeder Sportbegeisterte. Neben knallhartem Commitment zu Höchstleistung benötigt ein Spitzenathlet konsequentes Training ebenso wie Fachwissen darüber, was und wie man am besten trainiert, um an der Weltspitze mithalten zu können. Ähnliches gilt in der IT: Die leistungsfähigste Hardware mit den modernsten Chipsätzen von Intel, AMD und Nvidia käme nicht aus den Startlöchern ohne die passende Software und das Know-how, wie man das Gesamtsystem am effektivsten nutzt.

Für die möglichst steile Trainingskurve auf dem Weg zur Computing-Spitzenleistung bietet HPE deshalb ein umfassendes Softwareportfolio: Es umfasst neben HPE- und Cray-eigenen Innovationen auch Partnerlösungen aller namhaften Dritthersteller ebenso wie die einschlägige Software aus dem Open-Source-Umfeld. HPEs Beratungsorganisation Pointnext liefert dazu die vollständige Palette von Services zu HPC-Applikationen und Workflows für Modellierung, Simulation, Analytics und KI. Die Pointnext Consulting Services helfen Unternehmen beim Start in die HPC-Welt mit innovativen HPC-Projekten. Ebenso unterstützen die HPC- und Applikationsexperten aber auch die Skalierung vorhandener Umgebungen und die Leistungsoptimierung selbst komplexester Codes.

HPC mit dem Cray Programming Environment

6.jpg

Viele Entwickler in den „olympischen Dörfern“ des Supercomputings auf aller Welt setzen für ihre HPC-Applikationen auf Crays bewährte Programmierumgebung (Cray Programming Environment, CPE). CPE ist eine voll integrierte Softwaresuite für Anwendungen mit höchster Leistung und Skalierbarkeit. In Kürze wird sie – ein wichtiges Ergebnis aus der Übernahme von Cray durch HPE – auch für die Apollo-Maschinen verfügbar sein. Große, aber auch für mittelständische Unternehmen, die auf HPC setzen wollen, müssen für den Einstieg in das High-Performance Computing der Spitzenklasse somit keinen Cray-Supercomputer einrichten: Die CPE-Migration auf Apollo macht Cray-typische HPC-Applikationen künftig einem deutlich breiteren Spektrum von Unternehmen zugänglich – auch solchen, bei denen die Beschaffung eines Supercomputers Wunschtraum bleiben müsste, da sie das IT-Budget sprengen würde.

Denn so wie zahlreiche Spitzensportler ihre Vorbereitungen auf globale Wettkämpfe ohne Sponsoren gar nicht finanzieren könnten, stellte die Frage der Finanzierung des High-Performance Computing viele Unternehmen bislang vor eine Hürde. Doch inzwischen hat das innovative Finanzierungsmodell HPE Greenlake von HPE Pointnext die Arena betreten: HPE Greenlake ermöglicht die Abrechnung von IT-Ressourcen rein nach Verbrauch, also genau so, wie man dies von Cloud-Services her kennt – aber eben nicht nur für Cloud-Services, sondern auch für Ressourcen, die ein Unternehmen lokal im eigenen Rechenzentrum betreibt oder in einer Hosting-Umgebung betreiben lässt.

Dies erlaubt es einem Unternehmen, erste Trainingseinheiten mit HPC zu überschaubaren Kosten zu absolvieren. Anschließend kann es die Umgebung nach Bedarf skalieren und auch weitere HPC-, Big-Data- oder KI-Projekte mit hinzunehmen. HPE Greenlake ergänzt damit bestehende Finanzierungsmodelle für High-Performance Computing. Beim Pittsburg Supercomputing Center zum Beispiel können Unternehmen dank HPE-Technologie „HPC as a Service“ beziehen. Zugleich bieten HPE Financial Services aber auch weiterhin Finanzierungsangebote für klassische Kaufmodelle.

HPC auch für den Mittelstand

7.jpg

Hinter jeder Spitzensportlerin und jedem Spitzensportler steht ein ganzes Team, das die Höchstleistung erst ermöglicht – nicht anders verhält es sich mit Spitzenleistung im High-Performance Computing. HPE unterstützt Organisationen hier nicht nur mit einem umfangreichen Portfolio an HPC-Rechnern vom Apollo 2000 bis zu Cray-Supercomputern: Zugleich bietet HPE zusammen mit einem breit gefächerten Netzwerk von Partnerunternehmen alle erforderlichen Softwarelösungen, sowohl kommerzielle als auch Open-Source-basierte HPC-Software. Und nicht zuletzt stehen die Beratungsexperten von Pointnext bereit, die einem Unternehmen den Weg zum HPC-Erfolg zu ebnen: vom ersten Sprint für ein neues HPC-Projekt über den Hürdenlauf projekt- und budgetgerechter Skalierung bis hin zum Marathon einer langfristigen Ausrichtung neuer Geschäftsmodelle am enormen Potenzial schier unendlicher Datenmassen.

Wegen der Coronakrise mussten die Olympischen Spiele um ein Jahr verschoben werden. HPE und seine Partner helfen Unternehmen hingegen schon heute beim Sprung in die Spitzenklasse der IT. Denn Innovation findet in der IT schließlich laufend statt – nicht nur alle vier Jahre.

Weitere Informationen dazu finden Sie hier.

 

Featured Blog-Artikel:


Capture.PNGDima Tsaripa ist Category Manager HPC, Big Data & Artificial Intelligence bei Hewlett Packard Enterprise.

Dima Tsaripa
Hewlett Packard Enterprise

twitter.com/HPE_DE
linkedin.com/in/dima-tsaripa-31b1b319/
hpe.com/de

0 Kudos
Über den Autor

Dima_Tsaripa

Dima Tsaripa ist Category Manager HPC, Big Data & Artificial Intelligence bei Hewlett Packard Enterprise.

Veranstaltungen
Starting June 23
HPE Discover Virtual Experience
Joins us for HPE Discover Virtual Experience live and on-demand
Mehr lesen
Online Expert Days - 2020
Visit this forum and get the schedules for online Expert Days where you can talk to HPE product experts, R&D and support team members and get answers...
Mehr lesen
Alle anzeigen