HPE Blog, Austria, Germany & Switzerland
abbrechen
Suchergebnisse werden angezeigt für 
Stattdessen suchen nach 
Meintest du: 

Automatisierter Betrieb von ML-Umgebungen: Mehr Schwung für KI-Projekte

AI2.PNGDas Schwungrad der IT-Innovation dreht sich immer kraftvoller. Neuerdings treibt es vermehrt KI-Projekte in die Unternehmen: Mittels Machine Learning (ML) oder gar Deep Learning (DL) ringt man den Daten zuvor unerreichbare Erkenntnisse ab. Solche KI-Umgebungen in die Applikationslandschaft einzubinden ist allerdings aufwendig und kompliziert, der Betrieb selbst häufig ineffizient. Das verzögert den Erkenntnisgewinn und kostet die Unternehmen Zeit und Geld. ML-Projekte benötigen mehr Automatisierung.

Künstliche Intelligenz (KI) kann einem Unternehmen entscheidende Wettbewerbsvorteile liefern – wenn es denn in der Lage ist, mittels ML-basierter Analyse Erkenntnisse aus kaum mehr überschaubaren Datenbeständen zu gewinnen. Der Weg dorthin ist steinig: Unternehmen müssen bei ML-Projekten häufig Monate Vorlauf in Kauf nehmen, bis sie verwertbare Erkenntnisse aus ihren eigenen Daten schöpfen können. In der Zwischenzeit müssen die Datenwissenschaftler wertvolle Arbeitszeit mit dem Zusammenstellen und Optimieren geeigneter Softwareumgebungen zubringen, statt sich ihrer eigentlichen Aufgabe – der Entwicklung, dem Training und der Optimierung von ML-Modellen – widmen zu können. Eingespielte Prozesse und Workflows fehlen, was im Alltagsbetrieb erneut Zeitverluste und Kosten verursacht. Das schafft Frust bei den raren Fachkräften und bringt das Unternehmen im Rennen um Wettbewerbsvorteile in Rückstand. Teils weichen ML-Teams auf Public-Cloud-Umgebungen aus. Dem Unternehmen fehlt dann schnell der Überblick, wer wo welche Ressourcen bezieht. Als Folge drohen Security- und Compliance-Probleme.

Häufig scheitern ML-Projekte sogar vollends. So berichtete Sumit Pal, Senior Director Analyst bei Gartner, auf einer Konferenz des Analystenhauses: 60 Prozent der Datenmodelle, die für den Einsatz in Unternehmen konzipiert wurden, gehen nie in Betrieb. Über 80 Prozent der Unternehmen stoßen laut Pal auf das Problem der „letzten Meile“: Sie scheitern beim Übergang von der ML-Experiementierphase zur Operationalisierung, also bei der Verknüpfung der Datenmodelle mit Geschäftsanwendungen, um Erkenntnisse mit Nutzen für das Business zu erzielen.

Zu wenig Automation und Überblick

ML-Projekten mangelt es an Automation von Prozessen und Workflows, und auch der Überblick über die Ressourcennutzung fehlt meist. Zwar haben viele Unternehmen bei ihren Applikationen schön längst auf agile Softwareentwicklung, DevOps und automatisiertes Management der Applikations-Lebenszyklen umgestellt, doch lässt sich dies nicht einfach auf ML-Projekte übertragen. Denn Machine Learning erfordert die Kombination diverser Spezialsoftware-Bausteine im Rahmen hochgradig iterativer Abläufe, bedingt doch ML unter anderem ein Experimentieren mit und Training von Datenmodellen in immer neuen Varianten. Diese Komplexität überfordert die Standardlösungen für das Softwaremanagement aus der DevOps-Welt.

Auf den ersten Blick bietet die Public Cloud hier einen Ausweg. Schließlich können sich Datenwissenschaftler bei den Hyperscalern ihre ML-Umgebungen hardware- und softwareseitig nach Bedarf zusammenstellen. Allerdings müssen sie, dem Self-Service-Prinzip der Cloud folgend, neue Umgebungen jeweils manuell „zusammenklicken – das kostet Zeit und birgt das Risiko von Konfigurationsfehlern. Zugleich sind Anwender auf das Toolset angewiesen, das der jeweilige Cloud-Provider bereithält. Des Weiteren ist ein Ausweichen in die Public Cloud für viele Projekte aufgrund extrem umfangreicher oder sensibler Datenbestände nicht praktikabel. Anderen versperren Compliance-Vorgaben oder interne Richtlinien den Zugang zur öffentlichen Cloud.

Unternehmen brauchen deshalb eine Möglichkeit, ML-Projekte im Hause, aber dennoch in Cloud-Manier durchzuführen: hochgradig standardisiert und automatisiert, mit Zugriff auf gemeinsam genutzte Ressourcen, einem hohen Anteil an Self-Service und durchgängiger Kontrolle über die Ressourcenauslastung und -nutzung. Hier kommt eine neue Kategorie von Lösungen für den Betrieb von Machine-Learning-Umgebungen zum Zuge: : HPE Machine Learning Operations Lösungen (HPE ML-Ops) sind dafür konzipiert, das gesamte Lifecycle-Management von ML-Projekten zu strukturieren und durch automatisierte Abläufe zu beschleunigen.

Zeit spart der ML-Ops-Ansatz den Datenwissenschaftlern über den gesamten ML-Lebenszyklus hinweg, schon ab der Modellerstellung: Sie können vorab paketierte Sandbox-Umgebungen für ML-Anwendungen einfach per Self-Service beziehen. Denn eine solche Plattform, wie sie HPE mit HPE ML Ops liefert, entkoppelt Prozessor- und Speicherressourcen und schafft dadurch einen Pool flexibel kombinierbarer Bausteine, die projektübergreifend nach Bedarf buchbar sind. Auch das Modelltraining kostet die Fachkräfte weniger Zeit, dank eines klar strukturierten Zugriffs auf die Datenquellen selbst in verteilten Multi-Node-Clustern. Ein wichtiger Punkt dabei: Die Daten lassen sich direkt aus den Datenquellen abrufen, ein Unternehmen muss Datenbestände daher nicht replizieren und konsolidieren. Das vermeidet doppelte Datenhaltung und vereinfacht die Nutzung der Daten für ML-Projekte.

Anschließend geht auch das Deployment des Modells schneller von der Hand. Das garantieren automatisierte Rollouts nativer Laufzeit-Images mit dynamischer Skalierung der Knoten. CI/CD-Workflows mit gemeinsam genutzten Code-, Modell- und Projekt-Repositories erleichtern die Zusammenarbeit. Dem IT-Betriebsteam verschafft ein Performance-Monitoring den Überblick über die Ressourcennutzung, während Sicherheit und Compliance durch Integration in Unternehmenslösungen wie LDAP, Active Directory oder Kerberos gegeben sind. Für Flexibilität bei der Skalierung sorgt zudem die Option, die Software nicht nur On-premises, sondern bei Bedarf auch in einem hybriden Modell zu betreiben, das Public-Cloud-Kapazitäten einbezieht.

Fazit: Automation, Kontrolle, dynamische Skalierung

Die HPE ML Ops Plattform steigert die Produktivität der Datenwissenschaftler wie auch der IT-Organisation, während Business-Entscheider ihre Geschäftsstrategie schneller und effizienter mit ML-gestützten Analysen untermauern können. Im Zusammenspiel mit sorgt HPE ML Ops dafür, dass das Unternehmen dabei keinerlei Kompromisse bezüglich Performance, Sicherheit oder Compliance eingehen muss, während der Weg zur elastischen Skalierung per Public Cloud weiterhin offensteht. Kurz: Die Kombination beider Ansätze sorgt für Tempo in KI-Projekten – ohne dass das Unternehmen jedesmal das Schwungrad neu erfinden muss.

Im Juli findet die Hannover Messe statt, auf der HPE zeigt, wie Unternehmen mittels künstlicher Intelligenz Verbesserungen in der Fertigung erlangen können. Besuchen Sie uns am Stand E64 in Halle 15, um mehr über die Beschleunigung von KI-Projekten und den ML-Ops-Ansatz zu erfahren. Sie können bereits vorab einen Termin oder eine Standtour anfragen.

Weitere Informationen über HPE ML Ops finden Sie hier: https://www.hpe.com/de/de/solutions/machine-learning-operations.html

 

Capture.PNGDima Tsaripa ist Category Manager HPC, Big Data & Artificial Intelligence bei Hewlett Packard Enterprise.

Dima Tsaripa
Hewlett Packard Enterprise

twitter.com/HPE_DE
linkedin.com/in/dima-tsaripa-31b1b319/
hpe.com/de

0 Kudos
Über den Autor

Dima_Tsaripa

Veranstaltungen
Online Expert Days - 2020
Visit this forum and get the schedules for online Expert Days where you can talk to HPE product experts, R&D and support team members and get answers...
Mehr lesen
HPE at 2020 Technology Events
Learn about the technology events where Hewlett Packard Enterprise will have a presence in 2020
Mehr lesen
Alle anzeigen