Wenn der weltweit größte Verkäufer von KI-Infrastruktur eine Umfrage zur KI-Adoption veröffentlicht, lohnt sich ein genauer Blick auf das Kleingedruckte. Der sechste jährliche „NVIDIA State of AI in Financial Services" Report, basierend auf einer Befragung von mehr als 800 Branchenvertretern, meldet Rekordwerte bei Nutzung, Return on Investment (ROI) und Budgets. 89 Prozent sagen, KI steigere den Umsatz und senke die Kosten. 73 Prozent der Führungskräfte bezeichnen KI als entscheidend für den künftigen Geschäftserfolg. Fast 100 Prozent wollen ihre KI-Budgets erhöhen oder mindestens halten. Ein bisschen zu schön, um unkritisch übernommen zu werden.

In Kürze

Was: NVIDIA State of AI in Financial Services 2026 – sechste jährliche Branchenumfrage

Stichprobe: 800+ Branchenvertreter weltweit (Banken, Versicherungen, Asset Manager, FinTechs)

Herausgeber: NVIDIA – gleichzeitig größter Anbieter der GPU-Infrastruktur, die für KI-Training benötigt wird

Kernzahlen: 89 % ROI ∙ 65 % aktive Nutzung ∙ 42 % Agentic AI ∙ 84 % Open Source wichtig

Blinder Fleck: EU AI Act, DORA (Digital Operational Resilience Act) und MaRisk werden nicht erwähnt

Die Headline-Zahlen – und was dahinter steckt

Der Report liefert beeindruckende Schlagzeilen. 65 Prozent der Befragten geben an, KI aktiv zu nutzen – ein Anstieg von 45 Prozent im Vorjahr. 61 Prozent setzen generative KI ein oder evaluieren sie, ein Plus von 52 Prozent gegenüber dem Vorjahr. Die Use Cases reichen von Dokumentenverarbeitung über Betrugserkennung bis hin zu algorithmischem Handel und Risikomanagement. 52 Prozent nennen die Schaffung operativer Effizienz als größte Verbesserung, 48 Prozent die Steigerung der Mitarbeiterproduktivität.

Und dann die ROI-Zahlen: 64 Prozent berichten, dass KI den Jahresumsatz um mehr als fünf Prozent gesteigert habe – darunter 29 Prozent, die eine Steigerung von mehr als zehn Prozent angeben. Auf der Kostenseite sagen 61 Prozent, KI habe die jährlichen Kosten um mehr als fünf Prozent gesenkt, 25 Prozent melden Einsparungen von mehr als zehn Prozent.

Diese Zahlen sind als Trendindikator wertvoll. Als Entscheidungsgrundlage für die eigene KI-Strategie sind sie unzureichend – aus vier Gründen.

These 1: ROI ohne Vollkostenrechnung

Selbstauskunft ist kein auditiertes Ergebnis

Die 89-Prozent-Zahl basiert auf Selbstauskunft der Befragten. Es handelt sich nicht um geprüfte Finanzergebnisse, sondern um die Einschätzung von Branchenteilnehmern. Entscheidend ist, was in der Rechnung fehlt: eine Total Cost of Ownership (TCO), die den tatsächlichen Aufwand für GPU-Infrastruktur, spezialisiertes ML-Personal, Datenaufbereitung, Governance und laufende Modellpflege einschließt.

Die Kosten für GPU-Cluster sind erheblich. Ein einzelner NVIDIA H100-GPU kostet je nach Konfiguration zwischen 25.000 und 40.000 US-Dollar. Für produktive Large Language Model (LLM)-Inferenz benötigen Finanzinstitute in der Regel mehrere solcher Einheiten. Dazu kommen Energiekosten, Kühlung, Wartung und das Fachpersonal, das diese Systeme betreibt. Wenn ein Institut meldet, KI habe den Umsatz um fünf Prozent gesteigert, aber die TCO für die zugrunde liegende Infrastruktur nicht gegenrechnet, ist die ROI-Aussage unvollständig.

Zudem stellt sich die Frage der Kausalität. Korreliert der Umsatzanstieg tatsächlich mit KI-Einsatz – oder mit gleichzeitigen Marktbewegungen, Produktinnovationen oder regulatorischen Veränderungen? Der Report macht hier keine Unterscheidung.

These 2: Open Source als Trojanisches Pferd für GPU-Lock-in

Modell-Freiheit, Infrastruktur-Abhängigkeit

84 Prozent der Befragten halten Open-Source-Modelle und -Software für wichtig in ihrer KI-Strategie, 43 Prozent bewerten sie als sehr bis extrem wichtig. Der Report präsentiert dies als Zeichen von Flexibilität und Wahlfreiheit. Die Realität ist komplexer.

Open source models can help banks close the gap with early movers, unlock cost efficiencies and safeguard against vendor lock-in, but they're not without their limitations – proprietary approaches can unlock superior performance for domain-specific tasks. Alexandra Mousavizadeh, Mitgründerin und Co-CEO, Evident Insights

Wer Open-Source-Modelle selbst finetuned und betreibt, braucht signifikant mehr Rechenkapazität als beim reinen API-Konsum. Das Fine-Tuning eines 70-Milliarden-Parameter-Modells auf institutseigenen Daten erfordert Dutzende von High-End-GPUs über Wochen hinweg. Und genau hier liegt das Geschäftsmodell: NVIDIA verkauft nicht KI-Modelle, sondern die Hardware, auf der sie laufen. Je mehr Institute auf Open Source setzen und selbst trainieren, desto mehr GPU-Kapazität wird nachgefragt.

Der eigentliche Lock-in ist dabei nicht die Lizenz – die ist bei Open Source per Definition frei – sondern das Ökosystem. NVIDIAs CUDA-Plattform (Compute Unified Device Architecture) ist der De-facto-Standard für GPU-beschleunigtes Computing. Wer einmal Code, Workflows und Toolchains auf CUDA aufgebaut hat, wechselt nicht ohne Weiteres zu AMD oder Intel. Der Open-Source-Trend bei Modellen zementiert paradoxerweise die Abhängigkeit auf Infrastrukturebene.

These 3: Agentic AI – Hype vs. Realität

42 Prozent nutzen oder prüfen, 21 Prozent haben deployed

Der Report meldet, dass 42 Prozent der Befragten Agentic AI „nutzen oder evaluieren". Das klingt nach einer Technologie am Kipppunkt zum Mainstream. Doch die Aufschlüsselung erzählt eine andere Geschichte: Nur 21 Prozent haben tatsächlich KI-Agenten im Produktivbetrieb. Weitere 22 Prozent planen einen Einsatz „innerhalb des nächsten Jahres und darüber hinaus" – eine bemerkenswert vage Zeitangabe.

Die Differenz zwischen „nutzen oder prüfen" und „deployed" ist keine semantische Spitzfindigkeit. Ein Proof of Concept (PoC) in einer Sandbox ist etwas fundamental anderes als ein autonomer Agent, der in einer regulierten Produktionsumgebung Zahlungen verarbeitet, Kreditentscheidungen vorbereitet oder Compliance-Prüfungen durchführt. Die Sprung von 21 auf 42 Prozent besteht zu einem erheblichen Teil aus Instituten, die sich das Thema ansehen – nicht aus solchen, die es beherrschen.

The most tangible ROI I'm seeing is in payment operations, specifically authorization optimization and intelligent routing. What makes this compelling is that every basis point improvement in authorization rates translates directly to revenue – there's no ambiguity in measurement. Dwayne Gefferie, Payments Strategist, Gefferie Group

Für europäische Institute kommt ein spezifisches Problem hinzu: Die regulatorischen Rahmenbedingungen für autonome KI-Agenten sind weitgehend ungeklärt. Wer haftet, wenn ein Agent eine fehlerhafte Kreditentscheidung trifft? Wie ordnen sich autonome Agenten in die Mindestanforderungen an das Risikomanagement (MaRisk) ein? Wie ist das operationelle Risiko unter dem Digital Operational Resilience Act (DORA) zu bewerten, wenn ein Drittanbieter-Agent ausfällt? Der NVIDIA-Report stellt diese Fragen nicht.

These 4: Das regulatorische Vakuum im Report

EU AI Act, DORA, MaRisk – alles Themen, die nicht vorkommen

Der auffälligste blinde Fleck des Reports: Regulierung kommt praktisch nicht vor. Für einen US-zentrierten Hardware-Hersteller mag das nachvollziehbar sein. Für europäische Finanzinstitute, die den Report als Orientierung nutzen wollen, ist es ein gravierendes Manko.

Der EU AI Act klassifiziert zahlreiche KI-Anwendungen im Finanzsektor als Hochrisikosysteme – darunter Kreditscoring, Versicherungstarifierung und Betrugserkennungssysteme. Ab August 2026 gelten strenge Dokumentations-, Transparenz- und Überwachungspflichten. DORA etabliert seit Januar 2025 verbindliche Anforderungen an die digitale operationelle Resilienz, einschließlich des Managements von IKT-Drittanbieterrisiken (Informations- und Kommunikationstechnologie) – und GPU-Cloud-Provider wie NVIDIA fallen potenziell in diese Kategorie.

Die neunte MaRisk-Novelle, die sich derzeit in der Konsultationsphase befindet, wird voraussichtlich explizite Anforderungen an den Einsatz von KI im Risikomanagement formulieren. Jede KI-Investitionsentscheidung, die europäische Institute heute treffen, muss gegen diese regulatorischen Anforderungen gespiegelt werden – unabhängig davon, ob der NVIDIA-Report sie erwähnt oder nicht.

Handlungsempfehlungen für europäische Finanzinstitute

Der NVIDIA-Report ist als Trendindikator brauchbar, als Entscheidungsgrundlage für KI-Investitionen in regulierten Finanzinstituten unzureichend. Europäische Institute sollten die Zahlen zwingend gegen die regulatorische Realität und eine ehrliche Vollkostenrechnung spiegeln. Vier konkrete Handlungsfelder:

1. Eigene TCO-Rechnung aufstellen

Sofort: Bevor KI-Budgets auf Basis optimistischer ROI-Zahlen freigegeben werden, sollten Institute eine vollständige Total Cost of Ownership kalkulieren. Dazu gehören: Hardware-Kosten (GPU-Cluster, Netzwerk, Storage), Energiekosten, Personalkosten für ML Engineering und Data Science, Kosten für Datenaufbereitung und -qualität, laufende Governance-Aufwände sowie Modellpflege und Re-Training. Erst wenn diese Vollkostenrechnung steht, lässt sich beurteilen, ob die NVIDIA-ROI-Zahlen auf das eigene Institut übertragbar sind.

2. Multi-Vendor-Strategie für GPU-Infrastruktur evaluieren

Q2–Q3 2026: Der CUDA-Lock-in ist real, aber nicht unausweichlich. Institute sollten ihre KI-Workloads systematisch auf Portabilität prüfen. Alternativen wie AMD ROCm, Intel oneAPI oder Cloud-basierte Inferenz-Services (Amazon Web Services Inferentia, Google Cloud TPUs) können den Abhängigkeitsgrad reduzieren. Eine bewusste Multi-Vendor-Strategie schützt nicht nur vor Preismacht eines einzelnen Anbieters, sondern adressiert auch die DORA-Anforderungen an IKT-Konzentrationsrisiken bei kritischen Drittanbietern.

3. KI-Investitionen gegen regulatorische Anforderungen spiegeln

Laufend: Jede KI-Initiative sollte von Beginn an gegen die Anforderungen des EU AI Act (insbesondere die Hochrisiko-Klassifizierung für Finanz-KI), DORA (IKT-Drittanbieterrisiko bei GPU-Cloud-Providern) und die kommende MaRisk-Novelle bewertet werden. Institute, die heute ohne regulatorische Folgenabschätzung in KI investieren, riskieren nachträgliche Compliance-Kosten, die den prognostizierten ROI auffressen.

4. Agentic AI mit realistischem Zeithorizont angehen

H2 2026: Agentic AI ist eine vielversprechende Technologie, aber die Lücke zwischen den 42 Prozent, die „nutzen oder prüfen", und den 21 Prozent, die tatsächlich deployed haben, zeigt den Reifegrad. Europäische Institute sollten mit klar abgegrenzten Piloten in risikoarmen Domänen beginnen – etwa dokumentenbasierte Prozesse oder interne Recherche – und die regulatorischen Leitplanken für autonome Agenten im Finanzsektor aktiv mitgestalten, statt auf fertige Frameworks zu warten.

newsletter
the agentic banker

Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.

Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.

DSGVO-konform. Jederzeit abbestellbar.

← Zurück zur Übersicht