- Community Home
- >
- HPE Community, Austria, Germany & Switzerland
- >
- HPE Blog, Austria, Germany & Switzerland
- >
- Den Wissensschatz für Geschäftsvorteile nutzen
Kategorien
Company
Local Language
Forums
Diskussionsforum
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Diskussionsforum
Forums
Diskussionsforum
Diskussionsforum
Diskussionsforum
Forums
Diskussionsforum
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Forums
Blogs
- RSS-Feed abonnieren
- Als neu kennzeichnen
- Als gelesen kennzeichnen
- Lesezeichen
- Abonnieren
- Drucker-Anzeigeseite
- Anstößigen Inhalt melden
Den Wissensschatz für Geschäftsvorteile nutzen
Die Einsatzfälle für künstliche Intelligenz (KI) in der Finanzbranche sind vielfältig. Deshalb arbeiten Banken und Versicherungen daran, alle internen Anwendungen KI-fähig auszulegen. So können sie Wettbewerbsvorteile schaffen, die Rentabilität zu steigern, die Kundenbindung verbessern und die gemeinsame Nutzung von Wissen im Unternehmen optimieren. Eine Herausforderung stellt dabei der Umgang mit hausinternen sensiblen Daten dar.
KI bietet enormes Optimierungspotenzial – diese Erkenntnis hat sich quer durch alle Branchen durchgesetzt, da bildet auch die Finanzindustrie keine Ausnahme. Hier reichen die Verbesserungsmöglichkeiten vom digitalen Assistenten für alltägliche Office-Workflows über Chatbots und Voicebots für die reibungslose Multi-Channel-Interaktion mit Kundinnen und Kunden bis hin zu KI-Agenten, um zeitraubende Aufgaben und Abläufe deutlich zu beschleunigen.
Eines von vielen Einsatzbeispielen ist das Compliance-Management: Ein KI-gestützter Compliance-Agent könnte automatisiert Vertragstexte und Nutzungsbestimmungen auf Konformität mit den neuesten Gesetzen und Datenschutzvorgaben untersuchen, problematische Textpassagen identifizieren und hierfür Aktualisierungen vorschlagen. Dies kann insbesondere das Personal bei Finanzinstituten entlasten, die in zahlreichen Ländern aktiv sind.
Drei zentrale Aspekte von KI-Projekten
Bei der Umsetzung derartiger KI-Projekte stehen stets folgende drei Aspekte im Mittelpunkt:
- Datensouveränität: Der Einsatz eines unternehmensspezifischen KI-Modells erfordert es stets, dieses Modell vorab mit den unternehmenseigenen Daten zu trainieren (ein Verfahren namens Retrieval-Augmented Generation, kurz RAG), um eine domänenspezifische Genauigkeit, verbesserte Transparenz und Kontrollen, Vertrauen und weniger Halluzinationen zu erreichen. Zu diesem Informationsbestand zählen auch personenbezogene Daten, nicht-öffentliche Unternehmensinterna und letztlich sogar Informationen, die das Kerngeschäft des Finanzinstituts berühren – etwa bei der Risikobewertung von Anlagefonds oder Gebäudeversicherungen.
Die Herausforderung: Zahlreiche Public Cloud-Services sind Cloud-basiert, darunter nicht zuletzt die Angebote der großen Cloud-Anbieter (Hyperscaler) Doch Unternehmen aus der Finanzindustrie wollen – und dürfen – viele ihrer sensiblen Datenbestände nicht einfach in eine Public Cloud hoch laden.
Ein Finanzunternehmen muss stets die vollumfängliche Kontrolle über seine Daten und deren Nutzung bewahren. Die Kernfrage ist hier also: Was ist mein Wissensschatz – was darf in die Cloud gelangen, was nicht? Dies beeinflusst Entscheidungen von der Wahl des KI-Modells bis hin zur Frage, wer die KI-Instanzen für die Inferenz betreibt und managt.
Für Finanzinstitute empfiehlt es sich daher, die einfache Nutzung generativer KI etwa mittels KI-gestützter Office-Tools von den sensiblen KI-Einsatzfällen zu entkoppeln. Das bedeutet in der Praxis, mehrere KIs parallel zu betreiben, um Wettbewerbsvorteile zu erzielen und zugleich die Datensouveränität sicherzustellen. - Betrieb der KI-Infrastruktur: KI-Modelle werden zwar von Quartal zu Quartal effizienter und ressourcenschonender, doch nach wie vor ist insbesondere das KI-Modelltraining sehr rechenintensiv. Dies ist eines der Hauptargumente der Hyperscaler, um für das Auslagern dieses Arbeitsschritts zu werben. Soll das Modelltraining aus Gründen der Compliance oder der Datensouveränität lokal erfolgen, verursacht es einen hohen Energieverbrauch und sorgt für entsprechend viel Abwärme im Rechenzentrum.
Doch dafür gibt es inzwischen Lösungen: Das IT-Team eines Finanzinstitutes verwendet für das KI-Modelltraining und oft auch für für die KI-Nutzung (Inferenz) spezielle Hochleistungsserver für den Unternehmenseinsatz, die auf KI-Aufgaben ausgelegt sind und mit Kühlflüssigkeit statt nur mit Luft gekühlt werden. - Kosten: Trotz aller erwarteten Vorteile und Gewinne gilt es natürlich auch bei KI-Projekten, die Kosten im Rahmen zu halten. Auch aus diesem Grund setzen Unternehmen für KI-Pilotprojekte oft auf Public-Cloud-Ressourcen.
Kommen jedoch Chat-/Voicebots, KI-Assistenten oder KI-Agenten erst einmal unternehmensweit zum Einsatz, können die Kosten Cloud-gestützter KI-Lösungen schnell eskalieren, insbesondere bei Nutzung von agentenbasierendem Argumentieren (Agentic Reasoning) Solche Effekte gilt es bei KI-Projekten von Anfang an zu berücksichtigen. Eine lokale KI-Infrastruktur sorgt dafür, dass die Kosten für KI-Projekte nicht plötzlich „durch die Decke gehen“. Vielmehr bleiben sie prinzipbedingt stets im Rahmen des vorgegebenen Investitionsvolumens.
KI muss nicht in der Public Cloud laufen
Vor diesem Hintergrund entscheiden sich Finanzinstitute deshalb oft dagegen, KI-Projekte generell in die Hände von Cloud-Providern zu legen. Manche nutzen zwar für die Optimierung alltäglicher Office-Aufgaben KI-gestützte Cloud-Angebote der einschlägigen Hyperscaler. Sofern hier die Compliance gewahrt bleibt, spricht nichts dagegen. Doch für die geschäftskritischen KI-Projekte – etwa für What-if-Szenarien im Investment-Bereich – bevorzugen viele Unternehmen den KI-Betrieb im hauseigenen Rechenzentrum. Als Alternative ziehen hier einige – zumindest für die rechenintensivsten Aufgaben, Stichwort Flüssigkeitskühlung – den Colocation-Anbieter ihres Vertrauens heran.
Gegenüber dem scheinbar naheliegenden Einsatz von Public-Cloud-Services bieten KI-Modelltraining, -finetuning und der KI-Betrieb unter Nutzung von Agentic Reasoning in einer Private Cloud im unternehmenseigenen Rechenzentrum oder dem eines Colocation-Providers somit gleich mehrere Vorteile:
- Die Datensouveränität bleibt stets gewahrt, denn sämtliche Daten einschließlich jener für das KI-Modelltraining, -finetuning und jeglicher Inferenz-Prozesse bleiben stets unter der Hoheit des Finanzinstituts und unter der Kontrolle der hauseigenen IT-Abteilung.
- Die Auswahl passender Server und Speichergeräte für den Betrieb im hauseigenen oder im Colocation-Rechenzentrum sorgt für den optimierten Ablauf von der Modellerstellung bis zur Inferenz. Die Verwendung von Blueprints oder Lösungsbeschleunigern erlaubt es dabei, KI-Projekte schnell zum Ziel zu führen, um Prozesse rasch zu optimieren und gegebenenfalls die KI-gestützte Datennutzung zügig monetarisieren zu können.
- Die Begrenzung des KI-Projekts auf die vorgegebene KI-Umgebung sorgt dafür, dass die Kosten durch die Skalierung des Piloten – und erst recht beim flächendeckenden Rollout – nicht plötzlich explodieren.
Datensouveränität und Kostenkontrolle durch lokale KI
Für die Finanzbranche empfehlen sich deshalb KI-Umgebungen, die sich lokal installieren und betreiben, aber zugleich in Public-Cloud-Manier agil skalieren lassen. Solche Umgebungen bietet HPE in enger Zusammenarbeit mit dem KI-Vorreiter NVIDIA. Die hochperformanten Computing Platformen von HPE und NVIDIA liefern hier die nötige Rechenpower für Modelltraining, Finetuning und Inferenz.
HPE Private Cloud AI - NVIDIA und HPE liefern auf der Basis intensiver gemeinsamer Entwicklung eine agil skalierbare, hochperformante Infrastruktur für den Aufbau datensouveräner lokaler KI-Umgebungen.
Bild: HPE/NVIDIA
Die NVIDIA Blueprints wiederum erleichtern es Entwicklern durch vordefinierte, anpassbare Workflows, KI-Applikationen wie z.B. KI-Assistenten zügig zu entwickeln. Es gibt zum Beispiel Blueprints zur Entwicklung von Agenten für die Dokumentensuche, die Erzeugung strukturierter Reports oder auch für die Erstellung von Sprachagenten für die Kundenkommunikation. Mittels NVIDIA Inference Microservices (NIM) wiederum lassen sich KI-Systeme schnell in Betrieb nehmen. NVIDIA NIM bietet standardierte Programmierschnittstellen (APIs) für die einfache Integration in Unternehmenssysteme und -anwendungen.
Für den performanten Betrieb der lokalen KI-Umgebung sorgt HPE durch seine Serversysteme mit NVIDIA-Chips, während hochverfügbare Speichersysteme von HPE die Daten verlässlich im Zugriff halten – ein absolutes Muss in KI-Umgebungen. Server wie auch Storage sind über das HPE GreenLake Portfolio in Cloud-Manier dynamisch skalierbar, verbleiben aber dank lokaler Installation unter der vollen Kontrolle und Datenhoheit des Anwenderunternehmens. Die Verwaltung vereinfacht HPE mit seiner Kontroll- und Steuerungsebene mittels HPE OpsRamp für Monitoring, Betriebsoptimierung und Reporting.
Fazit
Eine KI-Umgebung auf der Basis lokaler KI-Infrastruktur von NVIDIA und HPE bietet eine solide Grundlage für die effiziente, skalierbare und sichere Verwendung von KI in der Finanzbranche. Sie ermöglicht es Finanzinstituten, generative KI unter eigener Kontrolle und zu stets klar kalkulierbaren Kosten aufzusetzen und zu betreiben. Dabei müssen sie keinerlei Abstriche bei der Datensouveränität machen oder sich gar in eine Abhängigkeit von Cloud-Größen begeben. So können Finanzinstitute zeitraubende Prozesse und Abläufe beschleunigen, die Produktivität ihrer Beschäftigten steigern, der Kundschaft auf beliebigen Kommunikationskanälen eine bessere Kundenerfahrung bieten und den hausinternen Wissensschatz effektiver nutzen.
Beim Thema „Wissensschatz“ ermöglicht der Einsatz von KI sogar einen nützlichen Nebeneffekt, der in Zeiten des Personalmangels seine volle Wirkung erst noch entfalten wird. Denn die Generation der Babyboomer geht in den kommenden Jahren in Rente, und Finanzinstitute werden – wie Unternehmen aller Branchen – zunehmend Schwierigkeiten haben, diese Stellen mit kompetenten Fachkräften neu zu besetzen.
Hier erleichtert generative KI den Wissenstransfer von altgedienten Mitarbeitern zu Neulingen: Generative KI kann mit bestehenden Wissensquellen verbunden werden, so dass neue Mitarbeiter sich schnell einarbeiten und das Wissen des Unternehmens nutzen können, um ihre Aufgaben korrekt auszuführen. Diese Technologie hilft, wichtiges Fachwissen zu bewahren und kontinuierlich zu erweitern, damit es nicht durch Pensionierung verloren geht.
- Zurück zum Blog
- Älterer Artikel
- Martin Fryba auf: HPE verpflichtet Lieferanten auf wissenschaftlich ...
- ThoRah auf: Initiales Setup eines Nimble Arrays
- UO auf: Höchstleistung aus dem Rechenzentrum
- gregor58 auf: VVols - Ganz einfach mit Nimble