HPE Blog, Austria, Germany & Switzerland
1748265 Mitglieder
4190 Online
108760 Lösungen
Neuer Artikel
Dima_Tsaripa

Wie Sie die Datensturzflut bewältigen können - mit HPE Ezmeral Data Fabric

HPE Ezmeral Data Fabric ist eine reine Softwareplattform, die Ihre Technologien für Datenmanagement und -verarbeitung vereint sowie Datensilos in einer einzelnen verteilten Edge-to-Cloud Data Fabric im Exabyte-Bereich als Antwort auf die verschiedenen Datenanforderungen moderner Unternehmensanwendungen verbindet.

Regatta auf dem Datensee

HPE Ezmeral Data Fabric - Datensee.jpgWasser ist lebensnotwendig, doch wenn es in übergroßer Menge auftritt – als Ozean, Sturzflut oder gar als Taifun –, dann kann es uns vor enorme Hindernisse stellen. Daten wiederum sind für das Business lebensnotwendig – doch im Zeitalter der Digitalisierung stehen viele Unternehmen vor der Herausforderung, wie sie die Datensturzflut bewältigen sollen. Mit traditionellen Mitteln kommt man hier nicht weiter – ebenso wenig, wie man sich mit einem Binnenschiff an eine Ozeanüberquerung wagen würde. Vielmehr ist es notwendig, das Business auf eine datenzentrierte IT-Architektur umzustellen: auf eine sogenannte „Data Fabric“.

HPE Ezmeral Data Fabric -Daten.jpg

 

Ohne Daten kein Geschäft: Man ahnt, wie es dem eigenen Unternehmen erginge, hätte es wegen eines Blackouts, Internetausfalls oder Ransomware-Angriffs für zwei Wochen keinen Zugriff mehr auf Datenbestände. Das Datenvolumen wird in den kommenden Jahren exponentiell zunehmen. IDC erwartet für 2025 bekanntlich einen Anstieg des weltweiten Datenbestands auf kaum mehr vorstellbare 175 Zettabyte. Mit dem Datenvolumen wächst auch die Bedeutung schneller Analyse: Wissen ist Macht, aber das Wissen will aus den Datenflüssen erst einmal herausgefischt sein – möglichst zeitnah, denn Umsatzchancen sind flüchtig und die Konkurrenz schläft nicht. 

Unternehmen investieren seit Jahrzehnten in datengestützte Geschäftsprozesse: in Datenbanken, Business-Intelligence-Lösungen, Data Warehouses und Cloud-Storage. Eigentlich sollten sie für die heranrauschende Datenflut gut gerüstet sein. Doch fünf Probleme erschweren den Schritt von der digitalen Binnenschifffahrt zur Hochseetauglichkeit:

1. Silos. Die digitalen Schätze der Unternehmen lagern meist in Datenspeichern, die auf die Anforderungen spezifischer Geschäftsprozesse oder Anwendungen ausgelegt sind – sprich: in Datensilos. Der Brückenschlag zwischen diesen Silos ist aufwendig, denn er bedeutet in aller Regel Datenreplikation über Schnittstellen und/oder eine Mehrfacherfassung von Daten. Dies birgt Probleme bezüglich Datenformaten (Stichwort: Normalisierung), Datenkonsistenz, Backup, Hochverfügbarkeit und Managementaufwand. Zugleich kommen durch die Digitalisierung neue Datenströme hinzu, etwa unstrukturierte Videodaten, wie sie autonome oder semi-autonome Fahrzeugen laufend erfassen. Auf deren Bewältigung sind viele Silos nicht ausgelegt.

2. Echtzeitfähigkeit. Traditionelle IT-Infrastrukturen sind dafür konzipiert, Daten von Zweigstellen und Niederlassungen regelmäßig zur Zentrale zu überspielen, zu konsolidieren, auszuwerten und die Auswertung danach unternehmensweit HPE Ezmeral Data Fabric-Echtzeitfähigkeit.jpgbereitzustellen. So geruhsam funktionert das digitale Zeitalter aber nicht: Einzelhandelsketten zum Beispiel arbeiten derzeit daran, möglichst in Echtzeit auf Veränderungen im Kundenverhalten reagieren zu können. In der Regel ist dazu eine Echtzeitübermittlung („Streaming“) von Sensordaten zwischen Datenquelle und Analysesoftware erforderlich. Dies ist mitunter mit ebenso echtzeitnaher Reaktion verbunden, zum Beispiel beim Robotereinsatz in der Industrie. Doch für Streaming und Echtzeitreaktion sind zahlreiche IT-Umgebungen nicht gebaut.

 

3. Skalierbarkeit. Herkömmliche Datenbanken skalieren vertikal: Steigen die Anforderungen, muss ein größerer Datenbankserver her, und das ist teuer. Im Zeitalter der Digitalisierung – und das heißt auch: der Cloud – hingegen sind immer mehr Anwendungen beispielsweise für den Online-Handel oder digitale Serviceangebote Cloud-nativ und horizontal skaliert. Die Dateninfrastruktur muss ebenso dynamisch mitskalieren – in beide Richtungen: Wenn wieder weniger Ressourcen erforderlich sind, muss die Speicherumgebung aus Kostengründen auch wieder kleiner werden.

HPE Ezmeral Data Fabric-Edge to Cloud.jpg4. Edge-to-Cloud. Zahlreiche Digitalisierungsszenarien, längst nicht nur der genannte Fall der „Smart Factory“, erfordern Rechen- und Speicherkapazitäten direkt vor Ort. Für eine Datenübermittlung zur Unternehmenszentrale oder in die Cloud fehlt oft aus Latenzgründen die Zeit, von den Kosten ganz zu schweigen. Ein Beispiel: Bei einer Öl-Pipeline sind die Pumpstationen heute intelligent, also kleine Rechenzentren – sie müssen auch ohne Anweisungen aus dem Konzern-RZ autark arbeiten können. In derlei Fällen ist Edge Computing gefragt: Datenverarbeitung direkt an der Datenquelle. Das Ergebnis ist ein Datenbestand, der sich über das Unternehmens-RZ, diverse Cloud-Umgebungen und zahlreiche Edge-Instanzen erstreckt. Verwaltet man diese zahllosen Datenpools auf Applikationsebene, also ohne einheitliche Dateninfrastruktur, geht schnell jeder Überblick verloren – entsprechend steigen Managementaufwand und Kosten. Zudem ist es zwingend notwendig, vom Edge bis zur Cloud für durchgängige Zugriffs- und Informationssicherheit zu sorgen.

5. KI/ML-Einsatz. Immer mehr Digitalisierungsszenarien nutzen künstliche Intelligenz und maschinelles Lernen (KI, ML): von autonomen Fahrzeugen über KI-gestützte Trendanalysen des Kundenverhaltens bis hin zu Assistenten, die HPE Ezmeral Data Fabric-KI ML.jpgnatürliche Sprache erkennen (Voice Bots), etwa in Inbound-Call-Centern. Je mehr Daten für das Training von KI und ML verfügbar sind, desto besser sind später die Ergebnisse – ein Data Lake („Datensee“) schafft die Basis für diesen rechen- und datenaufwendigen Ablauf. Doch viele Unternehmen haben Probleme, KI/ML-Projekte in die Praxis umzusetzen: Sie müssen dazu erst alle Daten in den Data Lake replizieren, und damit eskaliert die Komplexität der Dateninfrastruktur erneut.

 

 

 

 

Grenzen des bewährten Umgangs mit Daten

Das bestehende Instrumentarium des Datenmanagements stößt somit heute gleich mehrfach an seine Grenzen. Nötig ist somit eine Infrastruktur, die statt der Applikationen die Daten selbst in den Mittelpunkt rückt. Dies leistet die HPE Ezmeral Data Fabric: Sie ersetzt die Silos durch eine durchgängige Infrastruktur für den einheitlichen Zugriff auf alle Unternehmensdaten („Global Namespace“): Die Ezmeral Data Fabric bietet einen konsolidierten Blick auf Daten und Dateien, unabhängig davon, in welchen Datentöpfen sie sich befinden, über RZ-, Edge- und Cloud-Umgebungen hinweg. Damit ebnet sie den Weg für die Entwicklung neuer Applikationen, die sich mühelos nach Bedarf von lokalen Installationen in die Cloud und zurück verschieben lassen.

HPE Ezmeral Data Fabric.jpg

 

Die HPE Ezmeral Data Fabric sorgt für eine einheitliche Dateninfrastruktur für alle Applikationen im Unternehmen, von traditionellen Business-Anwendungen bis hin zu neuen, cloudbasierten KI/ML-Analysen und vom Edge über das RZ bis zur Cloud.

 

 

Die Ezmeral Data Fabric unterstützt eine Vielzahl von Daten, ob strukturiert und unstrukturiert, in Tabellen, Streams oder Dateien, also auch IoT- und Sensordaten. Dabei kann sie mit Billionen von Dateien umgehen, mit tausenden Knoten und hunderten von Petabytes. Weiter unterstützt sie die Anbindung herkömmlicher Applikationen ebenso wie moderner, containerbasierter Apps. So gibt es keinen Grund mehr, für bestimmte Arten von Daten oder Anwendungen dedizierte Umgebungen aufzusetzen.

Ebenso flexibel ist der Betrieb der Data Fabric selbst: Eine IT-Organisation kann mit Standard-Hardware einen On-Premises-Cluster aufbauen, das RZ in die Cloud skalieren oder aber Edge-Cluster aufsetzen, ganz wie es die Unternehmensziele erfordern. Je nach den Anforderungen an die Datenverfügbarkeit – „heiße, warme und kalte“ Daten – platziert die Data Fabric die Datenbestände automatisch auf entsprechenden Systemen („Auto-Tiering“). Ebenso automatisch verschiebt sie die Daten zwischen den Ablageorten, sobald sich die Zugriffshäufigkeit ändert. Durch diese Automatismen kann ein Unternehmen das Maximum aus seinen Speicherinvestitionen herausholen.

Die Architektur der Data Fabric stellt dabei sicher, dass mehrere Kopien der Datenbestände über Knoten, Cluster und Racks verteilt sind. So gehen bei Ausfällen keine Daten verloren. Damit agiert die Data Fabric letztlich als hochverfügbarer, verteilter Cluster für alle Unternehmensdaten. Zugleich bringt sie als mandantenfähiges System Funktionen für hohe Informationssicherheit mit. Daten lassen sich in Datenspeichern isolieren, zudem kann die IT-Organisation Restriktionen für Mandanten vorsehen: Die IT-Organisation kann Endanwendern – etwa Standorten, Abteilungen oder Partnern – den Zugriff bis auf die Ebene einzelner Datentöpfe gestatten oder verweigern.

 Die IT-Organisation eines Unternehmens erhält mit der Ezmeral Data Fabric den Überblick über die Datennutzung im gesamten Unternehmen und kann so Datenverfügbarkeit, Informationssicherheit und Kosten optimieren.

Zudem ist die Data Fabric auf schnelle horizontale Skalierung ausgelegt. Die IT muss also nicht mehr für jede neue Applikation ein präzises Sizing der Speicherkapazitäten durchführen und vorab passendes Equipment beschaffen: Auch nachträglich lässt sich die Speicherinfrastuktur in Art und Größe flexibel skalieren – das vermeidet teure Überprovisionierung.

Selbstverständlich ist die Ezemeral Data Fabric auch auf Big-Data-Analysen und KI/ML-Einsatzfälle ausgelegt: Dank integrierter Analysefunktionalität können Unternehmen Datenbestände auswerten, ohne die Daten erst aus dem jeweiligen Datenpool verschieben zu müssen. Dies beschleunigt Analysen und senkt gegenüber herkömmlichen KI/ML-Umgebungen die Kosten. Und da die Data Fabric auch containerisierte Anwendungen unterstützt, kann eine IT-Organisation in schneller Folge neue Apps für Datenauswertungen und KI/ML-Analysen erstellen und einsetzen. Daimler zum Beispiel nutzt bei der Entwicklung autonomer Fahrzeuge die Datentechnologie von HPE.

IT-Organisationen haben damit die Möglichkeit, die Data Fabric nach Belieben in ihre Bestandsumgebung zu integrieren – selbstverständlich auch „as a Service“ via HPE Greenlake. In Kürze wird HPE zudem AI Bundles auf den Markt bringen, um den Unternehmen den Einstieg in die KI-Welt zu ebnen. Auch hier ist die Ezmeral Data Fabric mit an Bord.

Unter dem Strich heißt das: Unternehmen, die zu den Ufern der neuen Digitalisierungswelt aufbrechen wollen, benötigen vor allem als tragfähige Basis eine datenzentrierte IT-Infrastuktur. Die HPE Ezmeral Data Fabric liefert genau das. Mit ihr müssen Unternehmen nicht mehr in trüben Datentümpeln fischen, sondern erhalten eine flexible Datenarchitektur, die – wie groß die Datenseen und Datenmeere auch sein mögen – absolut hochseetauglich ist.

Lesen Sie mehr über HPE Ezmeral Data Fabric.

 

Weiterführende Inhalte:

 


Dima Tsaripa ist Category Manager HPC, Big Data & Artificial Intelligence bei Hewlett Packard Enterprise.

Dima Tsaripa HPE.PNGDima Tsaripa
Hewlett Packard Enterprise

twitter.com/HPE_DE
linkedin.com/in/dima-tsaripa-31b1b319/
hpe.com/de

0 Kudos
Über den Autor

Dima_Tsaripa

Dima Tsaripa ist Category Manager HPC, Big Data & Artificial Intelligence bei Hewlett Packard Enterprise.