Die Welle ist da. Vier von fünf Finanzinstituten arbeiten in irgendeiner Form mit Künstlicher Intelligenz. Hinter dieser scheinbar finalen Adoptionszahl verbirgt eine im April 2026 vom Cambridge Centre for Alternative Finance (CCAF) gemeinsam mit der Bank for International Settlements (BIS), dem International Monetary Fund (IMF), dem World Economic Forum (WEF), der Inter-American Development Bank (IDB), CGAP und dem Arab Monetary Fund (AMF) veröffentlichte Studie eine ungewöhnlich nüchterne Diagnose. Sie schlüsselt 628 Antworten von Finanzinstituten, KI-Anbietern und Aufsichtsbehörden aus 151 Jurisdiktionen auf – und beschreibt eine Branche, die zwischen breitflächiger Pilotierung und echter strategischer Umsetzung in einem strukturellen Spagat steckt.
Studie: The 2026 Global AI in Financial Services Report (CCAF, 28. April 2026, 140 Seiten)
Stichprobe: 628 Respondenten aus 151 Jurisdiktionen – 203 Fintechs, 149 Traditional Financial Institutions, 146 AI-Vendors, 130 Regulatoren
Partner: BIS, IMF, WEF, IDB, CGAP, AMF, Financial Innovation for Impact (Fii), UK FCDO
Headline-Befund: 81 Prozent KI-Adoption, aber nur 14 Prozent strategische Transformation – ein dokumentierter Execution Gap
Der Adoptionsbefund täuscht
Die Headline-Zahl von 81 Prozent klingt nach einem abgeschlossenen Übergang. Tatsächlich ordnen sich nur 40 Prozent der befragten Industrievertreter selbst in den Reifestufen „Scaling“ oder „Transforming“ ein. Lediglich 14 Prozent halten KI für „transformativ“ für ihre Strategie und ihre Wettbewerbsposition. Bei den Aufsichtsbehörden fallen die Werte deutlicher ab: 48 Prozent verharren in der „Exploring“-Phase, 33 Prozent „Piloting“ – nur 18 Prozent erreichen die Stufe „Scaling“. Adoption ist also nicht gleich Transformation. Sie ist heute Bestandsaufnahme, nicht Wettbewerbsvorteil.
Bemerkenswert ist die methodische Disziplin der Cambridge-Forscher um Bryan Zhang und Kieran Garvey. Sie unterscheiden zwischen experimenteller Anwendung, selektiver Skalierung und echter Geschäftsmodell-Reaktion. Wer heute über die Belegschaft hinweg ChatGPT-Lizenzen einkauft, hat Adoption. Wer seine Kreditprozesse, seine Marktrisiko-Modelle oder seine Beratungslogik substanziell neu denkt, beginnt mit Transformation. Zwischen beiden klafft eine Lücke, die sich numerisch kaum schließen wird, solange Investitionsmuster und Aufbauarbeit nicht zueinander passen.
Wo Wertschöpfung verbrennt
Produktivitätsgewinne sind in den Daten klar erkennbar: 79 Prozent berichten positive Effekte in Technologie, Daten und Produkt; 75 Prozent in Operations und Back Office; 69 Prozent im kundennahen Geschäft. Doch nur 40 Prozent der Befragten sehen einen positiven Effekt auf die Profitabilität. 43 Prozent sehen keinen, 17 Prozent „wissen es nicht“. Das ist die ernüchternde Schere – Aktivität ohne quantifizierbaren Hebel.
Das eigentliche Problem ist nicht der negative Befund. Es ist die Messlücke. 60 Prozent selbst der Firmen, die sich in der „Scaling“-Stufe einordnen, berichten Schwierigkeiten, den Wert ihrer KI-Investitionen zu beziffern. Bei großen Instituten mit über 5.000 Mitarbeitern steigt der Wert auf 76 Prozent. Drei von vier Großbanken können also nicht solide quantifizieren, was ihre KI-Investitionen tatsächlich liefern – und ob die Implementierung den Aufwand rechtfertigt.
Die Korrelation zwischen Investitionshöhe und Profitabilität ist statistisch deutlich: Firmen, die mehr als 100.000 US-Dollar pro Jahr für KI ausgeben, melden zu 62 Prozent Profitabilitätsgewinne, gegenüber 39 Prozent bei kleineren Spendings. Wichtig ist aber der vom Report selbst angebrachte Caveat: „spending may be a symptom rather than a cause of higher AI maturity“. Hohe Ausgaben können ebenso Indikator wie Treiber für Reife sein. Wer ohne entsprechende Capability-Building-Programme einfach das Budget hochfährt, kauft sich nicht in die Profitabilitätskurve ein.
Der Vorsprung der Fintechs ist messbar – und beunruhigend
Eine der robustesten Erkenntnisse der Studie ist die Schere zwischen Fintechs und etablierten Finanzinstituten. 47 Prozent der Fintechs berichten advanced KI-Reife (Scaling oder Transforming) – nur 30 Prozent der Inkumbenten. Im „Transforming“-Status: 19 zu 6 Prozent. Bei der Profitabilität: 56 zu 34 Prozent. Im Front Office liegt der Produktivitäts-Vorsprung bei 76 zu 59 Prozent. Die Fintechs haben kein KI-Geheimnis. Sie haben weniger Legacy. Das alleine genügt für einen strukturellen Vorsprung.
Für deutsche und europäische Großbanken bedeutet das: Der Wettbewerb wandelt sich von einem Vergleich der Bilanzen zu einem Vergleich der Adaptionsgeschwindigkeit. 36 Prozent der Industrie nennen den Zugang zu KI-Talent als zentralen Werttreiber, gegenüber nur 6 Prozent der Anbieter. Die Industrie sucht Fachleute, der Anbietermarkt verkauft Software. Die Lücke wächst.
Agentic AI als der nächste Cyber-Vektor
Hinter den Adoptions- und Wertfragen steht eine Risiko-Diskussion, die im Report ungewohnt scharf gezeichnet ist. Bereits 52 Prozent der Industrievertreter berichten aktiven Einsatz von Agentic AI – also Systemen, die nicht nur antworten, sondern eigenständig planen und handeln. Das geschieht überwiegend im Software Engineering: 42 Prozent der Befragten haben KI-gestützte Code-Generierung vollständig im Einsatz, 33 Prozent in der Entwicklung. Damit ist Software Engineering die reifste KI-Anwendung der Branche.
Die Cambridge-Autoren zeichnen daraus einen Cyber-Schluss, der die Vorstandsetage erreichen sollte. Manuelle Code-Reviews skalieren nicht mehr, wenn KI Volumen und Geschwindigkeit der Code-Erzeugung um Größenordnungen anhebt. Gleichzeitig verweist der Report auf jüngste Disclosures von Anthropic zu „next generations of AI models … incredibly capable of exploiting software vulnerabilities“ (Seite 83). Die nächste Modellgeneration könnte gleichzeitig Code-Generator und Schwachstellen-Scanner sein. 50 Prozent der Industrie und 57 Prozent der Aufseher nennen adversarielle KI-Cyber-Bedrohungen als Top-Risiko. KI-Anbieter selbst sind mit 35 Prozent deutlich entspannter – ein Perception Gap, der die Aufsicht stärker als die Industrie alarmiert.
Hinzu kommt das, was die Studie „loss of human oversight and collective forgetting“ nennt: Den Verlust institutionellen Wissens, wenn Automatisierung manuelle Verfahren ersetzt. 55 Prozent der Industrie stufen es als kritisch ein – höher als bei Aufsehern (42 Prozent). Wer in der Krise mit ausgefallenen Systemen das manuelle Pendant nicht mehr beherrscht, hat ein operationales Problem, das im Pre-Mortem nicht modelliert wurde.
Definition: Verlust institutionellen Gedächtnisses und manueller Handlungsfähigkeit, wenn Automatisierung das tägliche Tun verlagert.
Risikomechanik: In der Krise, wenn KI-Systeme versagen oder Eingaben unzuverlässig werden, kann das Personal die Aufgabe manuell nicht mehr ausführen.
Industrie-Wert: 55 Prozent (das dritthöchste Risiko nach Datenschutz und Halluzinationen). Aufseher: 42 Prozent.
Die Aufsicht im Aufholmodus
Die Studie ist gleichzeitig die globalste Bestandsaufnahme dessen, was Finanzaufsichten machen – und was nicht. 130 Aufsichtsbehörden aus 151 Jurisdiktionen wurden befragt. Der EU AI Act ist mit 42 Prozent Referenzen das meistgenutzte Framework weltweit, gefolgt von sektor-spezifischen Leitlinien (Financial Stability Board, IOSCO, Basel) mit 41 Prozent und ISO/IEC AI-Standards (etwa ISO 42001) mit 27 Prozent. Europa führt mit 59 Prozent der Behörden, die etablierte Frameworks haben – Lateinamerika hingegen liegt bei 58 Prozent ohne nationales Framework.
Innerhalb der Aufsichten dominiert der Use Case Marktüberwachung und Misconduct Detection (31 Prozent in Pilot oder Deployment), gefolgt von AML/CFT (27 Prozent) und Konsumentenschutz (25 Prozent). Aber: Nur 24 Prozent erheben überhaupt Daten zur KI-Adoption ihrer Beaufsichtigten; 43 Prozent planen das auch in den nächsten zwei Jahren nicht. Wer weiß, was sein Risiko-Subjekt nicht messbar tut, hat die Aufsichtsfunktion strukturell delegiert.
Noch plastischer ist der Pain-Point-Vergleich: 48 Prozent der Aufseher nennen fehlendes KI-Training und Capacity Building als Top-Hürde – nur 17 Prozent der Industrie. 45 Prozent klagen über unzureichende Technik-Infrastruktur, gegenüber 28 Prozent in der Industrie. Der BIS Innovation Hub hat in Zusammenarbeit mit der Hong Kong Monetary Authority und der britischen Financial Conduct Authority unter dem Namen Project Noor begonnen, ein Explainability-Toolkit für Aufseher zu entwickeln. Das ist begrüßenswert. Es kommt spät.
Der Explainability-Spalt
Die regulatorische Belastungsprobe der nächsten Jahre lässt sich an einer einzigen Zahl ablesen. 79 Prozent der befragten Aufseher halten Erklärbarkeit (Explainability) für kritisch oder wichtig. Nur 50 Prozent der Industrie hat überhaupt Explainable-AI-Methoden adoptiert. Zwei Drittel monitoren ihre KI-Systeme nicht auf Diskriminierung, Ausschluss oder systemischen Bias. Lediglich 37 Prozent klassifizieren Modell-Opazität als operationelles Risiko.
In der Kreditvergabe und der Versicherungs-Preisgestaltung – in der EU explizit als Hochrisiko-KI eingestuft – ist die Diskrepanz nicht nur ein Compliance-Thema. Sie ist ein Geschäftsmodell-Thema. Wer ablehnt, ohne erklären zu können, warum, hat kein KI-Problem. Er hat ein Lizenzproblem.
Was 2030 entscheidet – und was nicht
Der Ausblick verdient eigene Aufmerksamkeit. 81 Prozent der Industrie erwarten, dass Agentic AI bis 2030 substanziell etabliert ist – die größte erwartete Wachstumsstrecke unter allen Technologie-Kategorien. Bei Artificial General Intelligence (AGI) wird es interessant: 44 Prozent aller Befragten erwarten ihre Erreichung bis 2030 – aber dahinter liegt ein deutliches Stakeholder-Gefälle. KI-Anbieter erwarten zu 51 Prozent AGI bis 2030, die Industrie zu 50 Prozent, Aufseher nur zu 28 Prozent. Wer die Wahrscheinlichkeit von AGI hochsetzt, hat auch ein kommerzielles Interesse an dieser Erwartung. Die Studie nennt das Phänomen explizit ein „Paradox“: AGI rangiert heute als Risiko auf Platz 21 von 22 priorisierten Risiken – nur 9 Prozent halten es für ein akutes Top-Thema.
Zwei in den Concluding Thoughts versteckte Trends verdienen mehr Aufmerksamkeit, als sie bisher in der Branchen-Debatte erhalten. Erstens der Schnittpunkt zwischen verifizierter Identität – das Fundament der KYC-regulierten Finanzbranche – und der pseudonymen Architektur des Internets. KI macht beide Seiten leistungsfähiger: synthetische Identitäten und automatisierte Identitäts-Verifikation. Die Cambridge-Autoren formulieren es so: „decisions taken by financial regulators and institutions are likely to exert disproportionate influence on the digital identity standards that emerge for the wider economy“ (Seite 129). Die Frage, wer in einer Transaktion „echt“ ist, wird im nächsten Jahrzehnt zu einer Infrastruktur-Frage, die weit über die Finanzbranche hinausreicht.
Zweitens der Trend zu „World Models“ – Systemen, die nicht primär Muster erkennen, sondern kausale Repräsentationen ihrer Umgebung aufbauen. Plausible Anwendungen sind Risikomanagement, Szenario-Generierung, Portfoliomodellierung. Wer heute KI-Strategie als „Generative AI plus Agenten“ definiert, plant für die vorletzte Welle.
Die Konzentration als unterschätztes Systemrisiko
Ein Detail, das in der Diskussion bislang untergeht: 88 Prozent der Industrie-Nutzer von Google Cloud setzen auch Googles Foundation Models ein. Bei Microsoft sind es 35 Prozent, bei Amazon Web Services 23 Prozent. Vertikale Integration innerhalb derselben Tech-Stacks schafft Konzentrationspunkte, an denen Ausfälle oder Angriffe Schocks systemweit transportieren können. OpenAI ist mit 76 Prozent der Industrie der dominante Foundation-Model-Anbieter, gefolgt von Google mit 57 Prozent und Anthropic mit 35 Prozent. DeepSeek wird von 15 Prozent eingesetzt – ein Wert, den europäische Aufseher gerade aus Operational-Resilience-Sicht im Blick behalten sollten. Nur 18 Prozent der befragten Aufseher erheben überhaupt Daten zu Drittparteien-KI-Abhängigkeiten.
Für DACH-Banken bedeutet das eine konkrete Aufgabe: Drittpartei-Risiko-Frameworks, die auf dem Digital Operational Resilience Act (DORA) und ICT-Outsourcing aufgebaut sind, brauchen einen KI-spezifischen Layer. Cloud-Foundation-Model-Konzentration ist nicht nur ein Markt-Thema. Sie ist ein Stresstesting-Thema.
Handlungsempfehlungen: Sechs Hebel für DACH-Banken
Aus dem Cambridge-Befund ergeben sich für deutsche und europäische Finanzinstitute sechs prioritäre Handlungsfelder. Sie sind nicht neu im Wortlaut. Sie sind neu im Maßstab des inzwischen vorhandenen Belegs.
KI-Strategie als organisationale Reife-Aufgabe verstehen, nicht als Beschaffungsthema. Höhere Investitionen korrelieren mit besseren Outcomes – aber nur, wenn Talent, Datenqualität und Governance parallel mitwachsen. 62 Prozent der Firmen, die mehr als 100.000 USD pro Jahr in KI investieren, erreichen advanced Maturity. Aber der Cambridge-Caveat „spending may be a symptom rather than a cause“ verlangt, das Budget mit organisatorischer Reife zu verbinden, nicht durch sie zu ersetzen.
Risk-Frameworks für Agenten-Systeme erstellen, bevor die Use Cases im Software Engineering produktiv ausgerollt werden. Code-Provenance-Standards, automatisierte Sicherheits-Reviews, Anti-Tampering-Kontrollen für KI-generierte Patches gehören in den Risikoappetit. 42 Prozent der Industrie haben Code-Generierung bereits voll im Einsatz – manuelle Reviews skalieren nicht mehr, wenn Geschwindigkeit und Volumen um Größenordnungen wachsen.
Explainable-AI-Methoden über Compliance hinaus in die Audit-Trails einbauen. Project Noor (BIS / HKMA / FCA UK) und vergleichbare Aufseher-Toolkits werden den Belegungsdruck strukturell erhöhen. Wer heute keine modellunabhängige Attribution leisten kann, hat 2027 ein Konformitätsproblem – insbesondere bei Hochrisiko-KI im Sinne des EU AI Act.
25 Prozent der Industrie erwarten signifikantes Reskilling, 24 Prozent eine Netto-Reduktion der Stellen bis 2030. Die Aufgabe entscheidet sich am Personalmanagement, nicht an der Technologie. Capability-Maps für die fünf am stärksten KI-betroffenen Funktionen sind heute zu schreiben, nicht 2028. Insbesondere im Commercial- und Wholesale-Banking, wo 44 Prozent der Befragten einen Netto-Anstieg der Rollen erwarten, lohnt sich der gezielte Aufbau hybrider Profile aus Banking-Tiefe und KI-Kompetenz.
Cloud-Foundation-Model-Konzentration als Drittpartei-Risiko-Faktor klassifizieren. Multi-Vendor-Strategien für kritische Use Cases verfolgen, Exit-Pläne im Sinne von DORA Art. 28 auf KI-Stack ausweiten. Dass 88 Prozent der Google-Cloud-Nutzer auch Google-Foundation-Models einsetzen, ist nicht nur Vendor-Lock-in – es ist ein Schock-Transmissionsweg, den nur 18 Prozent der Aufseher heute überhaupt messen.
Ohne saubere Wertmessung wird das Investment-Argument intern unhaltbar. Produktivität, Qualität und Risikoausgleich pro KI-Initiative quantifizieren – nicht nur „AI Spend YoY“. Drei von vier Großbanken können den Wert ihrer KI-Investitionen nicht solide beziffern. Wer das auch in 24 Monaten nicht kann, verliert zuerst das interne, dann das externe Argument.
Timeline: Die nächsten 24 Monate
Die Cambridge-Studie ist die bislang nüchternste globale Bestandsaufnahme zu KI in der Finanzbranche. Ihre Stärke liegt nicht in der Headline, sondern in der Disziplin: Sie unterscheidet zwischen Adoption und Transformation, zwischen Investition und Reife, zwischen Vendoren-Erwartungen und Aufsichts-Realität. Für DACH-Banken ist die zentrale Aufgabe nicht, mehr KI einzusetzen. Sie ist, KI organisatorisch zu verarbeiten – mit Talent, mit Governance, mit messbaren Outcomes und mit der Bereitschaft, regulatorische Auflagen aktiv vorwegzunehmen, statt sie zu erleiden.
Quellen
Dieser Artikel stützt sich auf die nachstehenden Primärquellen. Aufgrund der Bedeutung der Studie und der direkten Zitate folgt hier ausnahmsweise ein Quellenverzeichnis.
| # | Herausgeber | Titel | Link |
|---|---|---|---|
| 1 | Cambridge Centre for Alternative Finance (CCAF), Judge Business School, University of Cambridge | The 2026 Global AI in Financial Services Report: Adoption, impact and risks (April 2026, 140 Seiten) | jbs.cam.ac.uk |
| 2 | CCAF / BIS / IMF / WEF / IDB / CGAP / AMF / FCDO | Globale Umfrage von 628 Respondenten (203 Fintechs, 149 Traditional FIs, 146 AI-Vendors, 130 Regulatoren) aus 151 Jurisdiktionen | PDF (8,2 MB) |
| 3 | BIS Innovation Hub / HKMA / FCA UK | Project Noor – Explainable AI Toolkit for Financial Supervisors (Partner Perspective im CCAF-Report, S. 92) | bis.org/bisih |
| 4 | Anthropic | „Mythos“-Disclosures (referenziert im CCAF-Report S. 83) zur Fähigkeit kommender Modell-Generationen, Software-Schwachstellen auszunutzen | anthropic.com/research |
| 5 | Europäische Union | Artificial Intelligence Act (Verordnung (EU) 2024/1689); Anwendbarkeit der Hochrisiko-Bestimmungen ab 2. August 2026 | eur-lex.europa.eu |
| 6 | Europäische Union | Digital Operational Resilience Act (DORA, Verordnung (EU) 2022/2554); ICT-Drittpartei-Risiko-Framework | eur-lex.europa.eu |
| 7 | ISO/IEC | ISO/IEC 42001:2023 – AI Management System Standard | iso.org/42001 |
| 8 | World Bank Group | Report to G20 South Africa Presidency: AI Adoption among Financial Authorities (zusammengefasst im CCAF-Report S. 117–119) | worldbank.org |
| 9 | CGAP (Consultative Group to Assist the Poor) | Powering AI with Inclusive Data: A Roadmap for Financial Inclusion (Working Paper, 2026; Partner Perspective im CCAF-Report S. 76) | cgap.org |
Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.
Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.
DSGVO-konform. Jederzeit abbestellbar.