Die europäische Finanzbranche steht vor einem Wendepunkt im Umgang mit Künstlicher Intelligenz (KI). Während klassische Machine-Learning-Modelle (ML-Modelle) seit Jahren in der Risikomodellierung zum Einsatz kommen, entsteht mit sogenannter Agentic AI – autonomen KI-Systemen, die eigenständig planen, entscheiden und handeln – eine qualitativ neue Kategorie. Laut einer Accenture-Erhebung erwarten 57 Prozent der befragten Bankvorstände, dass KI-Agenten innerhalb der nächsten drei Jahre vollständig in Risiko-, Compliance- und Auditfunktionen eingebettet sein werden. Das globale Marktvolumen für KI im Bankensektor wird für 2026 auf 45,6 Milliarden US-Dollar geschätzt – gegenüber 26,2 Milliarden im Jahr 2024.

Doch der Übergang von assistierenden zu autonom agierenden Systemen ist kein gradueller Schritt, sondern ein Paradigmenwechsel. Er wirft Fragen auf, die über technische Implementierung weit hinausgehen: Wer haftet, wenn ein KI-Agent eine fehlerhafte Kreditentscheidung trifft? Wie lässt sich ein System beaufsichtigen, dessen Entscheidungslogik sich dynamisch anpasst? Und wie verhindern Institute, dass autonome Agenten in Wechselwirkung miteinander systemische Risiken erzeugen?

In Kürze

Technologie: Agentic AI – autonome KI-Systeme mit Werkzeugnutzung, adaptiver Strategie und Multi-Agent-Koordination

Marktdynamik: 57 % der Bankvorstände erwarten Vollintegration in Risiko-/Compliance-Funktionen binnen drei Jahren; Bankensektor-KI-Marktvolumen 2026: 45,6 Mrd. USD

Regulatorische Eckpfeiler: EU AI Act (Hochrisiko-Pflichten ab 2. August 2026), DORA (anwendbar seit 17. Januar 2025), BaFin-Orientierungshilfe KI (Dezember 2025)

Governance-Reifegrad: Nur 32 % der CROs als „Risk Strategists“ klassifiziert – 93 % der KI-Ausgaben fließen in Technologie, 7 % in Governance, Personal und Schulung

Was Agentic AI von konventioneller KI unterscheidet

Der Begriff Agentic AI bezeichnet KI-Systeme, die über reine Mustererkennung und Vorhersage hinausgehen. Sie können eigenständig komplexe, mehrstufige Aufgaben planen und ausführen – etwa einen Kreditantrag vollständig bearbeiten, regulatorische Änderungen auf Handlungsbedarf prüfen oder ein Portfolio in Echtzeit umschichten. Anders als herkömmliche Modelle, die auf einen definierten Input einen Output liefern, interagieren Agentic-AI-Systeme mit ihrer Umgebung: Sie rufen externe Datenquellen ab, steuern nachgelagerte Prozesse an und passen ihre Strategie auf Basis von Zwischenergebnissen an.

McKinsey beschreibt diesen Übergang als „Paradigmenwechsel“ in der Bankbetriebsführung. Die Unternehmensberatung sieht das Potenzial für Nettokostensenkungen von bis zu 20 Prozent – allerdings nur bei konsequenter Umsetzung und angemessener Governance. Denn genau diese Autonomie, die Agentic AI leistungsfähig macht, erzeugt zugleich neuartige Risiken, die mit den etablierten Kontrollmechanismen nicht vollständig adressiert werden können.

Agentic AI – Kernmerkmale auf einen Blick

Autonomie: KI-Agenten planen und führen mehrstufige Aufgaben eigenständig aus, ohne bei jedem Schritt menschliche Freigabe zu benötigen.

Werkzeugnutzung: Agenten greifen auf externe Application Programming Interfaces (APIs), Datenbanken und Systeme zu, um Informationen zu beschaffen und Aktionen auszulösen.

Adaptive Strategie: Die Entscheidungslogik passt sich auf Basis von Zwischenergebnissen und Feedback dynamisch an.

Multi-Agent-Systeme: Mehrere spezialisierte Agenten arbeiten koordiniert an komplexen Prozessen – etwa Kreditprüfung, Compliance-Check und Dokumentation parallel.

Abgrenzung: Während konventionelle ML-Modelle auf einen Input einen Output liefern, operieren Agentic-AI-Systeme in Schleifen mit Umgebungsinteraktion.

Kreditrisiko: Vom Scoring-Modell zum autonomen Kreditentscheider

Im Kreditrisikomanagement zeichnet sich eine Entwicklung ab, die weit über die bisherige Nutzung von ML-Modellen zur Bonitätsbewertung hinausgeht. Agentic-AI-Systeme können den gesamten Kreditprozess orchestrieren: von der automatisierten Datenerhebung und Dokumentenprüfung über die Risikoeinschätzung bis hin zur Kreditentscheidung und Vertragsausfertigung. Institute, die solche Systeme erproben, berichten von 25 bis 40 Prozent schnelleren Kreditgenehmigungen und einer Reduktion manueller Eingriffe um bis zu 80 Prozent.

Ein typischer Anwendungsfall: Ein KI-Agent nimmt einen Kreditantrag entgegen, extrahiert und validiert automatisch die eingereichten Unterlagen, gleicht die Daten mit externen Quellen ab – Schufa, Handelsregister, Kontohistorie –, erstellt ein Risikoprofil und trifft im Rahmen definierter Parameter eine Entscheidung. Bei Standardfällen erfolgt dies ohne menschliche Beteiligung. Erst bei Grenzfällen oder ungewöhnlichen Konstellationen eskaliert der Agent an einen menschlichen Analysten.

Die Effizienzgewinne sind erheblich. Doch sie kommen mit einem Preis. Deloitte identifiziert in einer aktuellen Analyse sechs zentrale Risikodimensionen für Agentic AI im Bankensektor, die im Kreditbereich besonders relevant sind: „misaligned goals“ – Agenten, die in der Optimierung auf Geschwindigkeit ausgerichtet sind, können Kreditanträge systematisch zu restriktiv oder zu großzügig bewerten. „Opaque decisions“ – Entscheidungsketten, die über mehrere Agenten und Datenquellen verlaufen, sind für Prüfer kaum noch nachvollziehbar. Und „runaway agents“ – Systeme, die in unvorhergesehenen Situationen Aktionen ausführen, die nicht beabsichtigt waren, etwa die automatische Ablehnung einer gesamten Antragskategorie aufgrund eines fehlinterpretierten Signals.

„Weil KI-Agenten darauf ausgelegt sind, mit einem gewissen Grad an Autonomie zu operieren, können sie Risiken erzeugen, die bestehende Risikomanagement-Rahmenwerke der Banken nicht vollständig adressieren.“ Deloitte Insights – Managing the new wave of risks from AI agents in banking, 2026

Marktrisiko: Echtzeit-Analyse mit systemischer Dimension

Im Bereich Marktrisiko eröffnet Agentic AI die Möglichkeit, Portfoliorisiken in Echtzeit zu analysieren und – in einem weiteren Autonomiegrad – auch aktiv zu steuern. Agenten können Marktdaten aus verschiedenen Quellen aggregieren, Stressszenarien durchspielen, Value-at-Risk-Berechnungen (VaR-Berechnungen) aktualisieren und bei Limitüberschreitungen automatisch Hedge-Positionen initiieren oder Risikoreduktionen vorschlagen.

Für Handelsabteilungen bedeutet das einen Geschwindigkeitsvorteil, der in volatilen Marktphasen entscheidend sein kann. Statt auf eine tägliche Risikoberechnung zu warten, aktualisiert ein Agentic-AI-System die Risikolage kontinuierlich und reagiert auf Abweichungen in Minuten statt in Stunden.

Doch genau hier liegt auch das systemische Risiko. Deloitte warnt vor dem Phänomen der „unbounded execution“: Portfoliooptimierungs-Agenten, die in Schleifen Tausende von Szenarien durchlaufen und dabei unkontrolliert Ressourcen konsumieren oder – gravierender – eigenständig Handelsaufträge ausführen, die in Summe marktbewegende Volumina erreichen. Wenn mehrere Institute gleichzeitig ähnlich konfigurierte Agenten einsetzen, entsteht das Risiko prozyklischer Verstärkung: Alle Systeme reagieren auf dasselbe Signal mit derselben Strategie – ein Mechanismus, der aus dem algorithmischen Handel bereits bekannt ist, durch autonome Agenten aber eine neue Qualität erreichen kann.

Multi-Agent-Risiken im Marktkontext

Die Interaktion mehrerer Agenten erzeugt zusätzliche Risikoebenen. Deloitte identifiziert vier Schwachstellen in Multi-Agent-Systemen: emergente Fehlverhalten durch unvorhersehbare Agenteninteraktionen, Koordinationsversagen durch unklare Zuständigkeitsgrenzen, Feedback-Schleifen die zu Deadlocks oder Endloszyklen führen, sowie kaskadierende Fehler, bei denen ein initialer Fehler sich über vernetzte Agenten verstärkt. Im Kontext des Marktrisikomanagements kann jede dieser Schwachstellen finanzielle Verluste verursachen, die über den Wirkungsbereich eines einzelnen Modells hinausgehen.

Operationelles Risiko: Automatisierung mit Kontrollbedarf

Im operationellen Risikomanagement liegt der unmittelbarste Mehrwert von Agentic AI in der Automatisierung hochvolumiger, regelbasierter Prozesse. KI-Agenten können Transaktionsströme überwachen, Anomalien erkennen, Verdachtsfälle in der Geldwäscheprävention (Anti-Money Laundering, AML) aufbereiten und Eskalationspfade anstoßen – und das in einem Durchsatz, der manuell nicht erreichbar wäre.

Oliver Wyman beziffert das Automatisierungspotenzial im Compliance-Bereich auf bis zu 70 Prozent der manuellen Tätigkeiten, bei gleichzeitiger Vervierfachung der Erkennungsgenauigkeit. Institute setzen Agenten bereits ein, die AML-Fallakten zusammenstellen, Onboarding-Dokumente extrahieren und validieren, Sanktionsprüfungen durchführen und Fälle mit vollständigem Verfahrenskontext an menschliche Bearbeiter eskalieren.

Der operative Vorteil ist offensichtlich. Weniger offensichtlich sind die neuen operationellen Risiken, die durch den Einsatz der Technologie selbst entstehen. Ein fehlerhaft konfigurierter Agent, der Verdachtsmeldungen fehlerhaft priorisiert, kann dazu führen, dass tatsächliche Geldwäschefälle systematisch übersehen werden – mit regulatorischen und strafrechtlichen Konsequenzen. Die Abhängigkeit von externen APIs und Datenquellen erzeugt neue Single Points of Failure. Und die Frage, wie die Qualität autonomer Entscheidungen kontinuierlich überwacht werden kann, stellt Institute vor operative Herausforderungen, für die es noch keine etablierten Standards gibt.

„Agentic AI verwandelt Compliance-Teams von reaktiven Sachbearbeitern zu strategischen Beratern – vorausgesetzt, die menschliche Aufsicht bleibt durchgängig gewährleistet.“ Oliver Wyman – Agentic AI Compliance: Reshaping Financial Institutions, Februar 2026

Compliance-Monitoring: Der Weg zur kontinuierlichen Überwachung

Im Compliance-Monitoring deutet sich der wohl grundlegendste Wandel an. Traditionell arbeiten Compliance-Abteilungen zyklisch: Regulierungsänderungen werden analysiert, Richtlinien aktualisiert, Schulungen durchgeführt, Stichproben gezogen. Agentic AI ermöglicht den Übergang zu einer kontinuierlichen, nahezu echtzeitfähigen Überwachung.

Ein Agentic-AI-System kann regulatorische Veröffentlichungen – von der Europäischen Bankenaufsichtsbehörde (European Banking Authority, EBA) über die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) bis hin zu internationalen Standardsetzern – automatisch erfassen, auf Relevanz für das eigene Institut prüfen, betroffene Geschäftsprozesse identifizieren, Handlungsbedarf ableiten und die notwendige Dokumentation erstellen. Der Schritt von der reaktiven zur proaktiven Compliance wird damit operativ möglich.

Besonders relevant wird dies im Kontext der Verordnung über die digitale operationale Resilienz im Finanzsektor (Digital Operational Resilience Act, DORA), die seit Januar 2025 anzuwenden ist, und des KI-Gesetzes der Europäischen Union (EU AI Act), dessen Anforderungen an Hochrisiko-Systeme ab August 2026 vollumfänglich gelten. Beide Regelwerke stellen erhebliche Dokumentations-, Test- und Nachweispflichten an Finanzinstitute, die ohne KI-gestützte Automatisierung kaum zu bewältigen sein werden.

Regulatorische Landschaft: Was die Aufsicht erwartet

Die europäische Finanzaufsicht hat das Thema Agentic AI bereits auf dem Radar – auch wenn die regulatorischen Rahmenwerke dem technologischen Fortschritt wie üblich hinterherlaufen. Drei Entwicklungen sind für deutsche Finanzinstitute besonders relevant.

BaFin-Orientierungshilfe zu KI und IKT-Risiken

Im Dezember 2025 veröffentlichte die BaFin eine Orientierungshilfe zum Management von Informations- und Kommunikationstechnologie-Risiken (IKT-Risiken) beim Einsatz von KI. Die Kernbotschaft ist eindeutig: KI-Systeme müssen wie jede andere IKT-Anwendung verstanden, gesteuert und kontrolliert werden – unter zusätzlicher Berücksichtigung KI-spezifischer Risikodimensionen. Die BaFin erwartet, dass Institute eine KI-Strategie entwickeln, die mit der übergeordneten Risikostrategie und der Strategie für digitale operationale Resilienz abgestimmt ist. Zudem soll der gesamte Lebenszyklus von KI-Systemen – von der Entwicklung über den Test bis zum laufenden Betrieb und zur Stilllegung – dokumentiert und überwacht werden.

EU AI Act und Hochrisiko-Einstufung

Ab dem 2. August 2026 müssen KI-Systeme, die als Hochrisiko-Systeme eingestuft werden, sämtliche Anforderungen des EU AI Act erfüllen. Für den Finanzsektor betrifft dies insbesondere Systeme zur Kreditwürdigkeitsprüfung, zur Risikobewertung bei Versicherungen und zur automatisierten Betrugserkennung. Die Sanktionen sind empfindlich: Bis zu sieben Prozent des weltweiten Jahresumsatzes bei Verstößen. Eine detaillierte Compliance-Roadmap für Banken findet sich in meinem EU-AI-Act-Artikel vom April 2026.

EBA-Aktivitäten zu KI im Bankensektor

Die EBA hat im November 2025 ein Factsheet zu den Auswirkungen des AI Act auf den europäischen Banken- und Zahlungsverkehrssektor veröffentlicht. Die Aufsichtsbehörde stellt fest, dass keine wesentlichen Widersprüche zwischen dem AI Act und der bestehenden Bankenregulierung bestehen – der AI Act ergänzt vielmehr das existierende Regelwerk. Für 2026 und 2027 plant die EBA spezifische Aktivitäten zur Unterstützung der AI-Act-Implementierung, darunter die Förderung einheitlicher Aufsichtsansätze und die Zusammenarbeit mit dem European Artificial Intelligence Office.

Regulatorischer Rahmen für KI im Finanzsektor – Status Q2 2026

EU AI Act: In Kraft seit August 2024. Hochrisiko-Anforderungen gelten vollumfänglich ab 2. August 2026. Sanktionen bis zu 7 % des globalen Jahresumsatzes.

DORA: Anwendbar seit 17. Januar 2025. Verpflichtet Finanzinstitute zu umfassendem IKT-Risikomanagement, das KI-Systeme explizit einschließt.

BaFin-Orientierungshilfe KI: Veröffentlicht Dezember 2025. Konkretisiert Aufsichtserwartungen an KI-Governance, Lebenszyklus-Management und Risikosteuerung.

EBA-Factsheet AI Act: November 2025. Bestätigt Komplementarität zwischen AI Act und Bankenregulierung. Weitere Leitlinien für 2026–2027 angekündigt.

Governance-Lücke: Warum bestehende Rahmenwerke nicht ausreichen

Die Zahlen sind ernüchternd. Laut McKinsey erreichen nur rund ein Drittel der Organisationen einen Reifegrad von drei oder höher – auf einer Fünferskala – in den Bereichen KI-Strategie, Governance und spezifisch Agentic-AI-Governance. Eine EY-Erhebung unter Chief Risk Officers (CROs) zeigt, dass lediglich 32 Prozent der befragten Unternehmen als „Risk Strategists“ klassifiziert werden können – also als Institute, die KI-Risiken strategisch und proaktiv managen. Die übrigen befinden sich in reaktiven oder experimentellen Stadien.

Die Governance-Lücke hat strukturelle Ursachen. Erstens sind bestehende Modellrisikomanagement-Rahmenwerke (Model Risk Management, MRM) auf deterministische oder statistisch fundierte Modelle ausgelegt – nicht auf adaptive Systeme, die ihre Entscheidungslogik dynamisch verändern. Zweitens fehlen etablierte Standards für die Validierung von Multi-Agent-Systemen. Drittens besteht ein erheblicher Fachkräftemangel: 81 Prozent der Finanzinstitute geben an, nicht über ausreichend spezialisiertes Personal für KI-Governance zu verfügen.

93 % der KI-bezogenen Ausgaben fließen in Technologie – nur 7 % in Personal, Schulung, Change Management und Governance. Institute beschleunigen die technologische Einführung, ohne die organisatorischen Voraussetzungen im gleichen Tempo zu schaffen. Befund aus der Deloitte-Risikoanalyse 2026

Handlungsempfehlungen: Fünf Maßnahmen für Finanzinstitute

Der Einsatz von Agentic AI im Risikomanagement ist keine Frage des Ob, sondern des Wie und Wie schnell. Institute, die die Technologie strategisch einsetzen wollen, ohne regulatorische oder operationelle Risiken zu übersehen, sollten die folgenden fünf Maßnahmen priorisieren.

1. Agentic-AI-Risikorahmenwerk aufsetzen

Bestehende Modellrisikomanagement-Richtlinien um agentenspezifische Risikodimensionen erweitern – insbesondere Autonomiegrade, Werkzeugnutzung, Entscheidungsverkettung und Multi-Agent-Interaktionen. Die sechs von Deloitte identifizierten Risikoklassen bieten eine geeignete Taxonomie als Ausgangsbasis. Nicht bei Null anfangen: MaRisk, EBA-Leitlinien und DORA liefern das Fundament, auf dem die KI-spezifischen Anforderungen aufgebaut werden können.

2. Gestuftes Autonomiemodell definieren

Für jeden Anwendungsfall einen klaren Autonomiegrad festlegen – von rein unterstützend (menschliche Entscheidung) über teilautonom (menschliche Freigabe bei Grenzfällen) bis hin zu vollautonom (vordefinierte Parameter, nachgelagerter Audit). Die Einstufung muss an die Risikowesentlichkeit und die regulatorische Klassifizierung gekoppelt sein. Bei Hochrisiko-Systemen nach EU AI Act ist die Schwelle für Vollautonomie besonders hoch anzusetzen.

3. Audit-fähige Transparenz sicherstellen

Alle Entscheidungspfade, Datenzugriffe und Agenteninteraktionen lückenlos protokollieren. Die BaFin-Orientierungshilfe und der EU AI Act verlangen nachvollziehbare Entscheidungsprozesse – bei autonomen Agenten eine technisch anspruchsvolle, aber unverzichtbare Anforderung. Protokollierung muss automatisiert erfolgen und 10 Jahre aufbewahrbar sein. Manuelle Log-Auswertung skaliert nicht.

4. Investitionsasymmetrie korrigieren

Den Anteil der KI-bezogenen Ausgaben für Governance, Fachpersonal und Schulung von derzeit sieben Prozent deutlich erhöhen. Neue Rollen – KI-Risikomanager, Agent-Auditoren, Automatisierungsspezialisten – aufbauen oder extern beschaffen. Die EY-Erhebung zeigt: „Risk Strategists“ sind 48 Prozent wahrscheinlicher in der Lage, unerwartete Risiken zu reduzieren. Governance ist kein Overhead, sondern Wettbewerbsvorteil.

5. Pilotierung mit regulatorischer Abstimmung verbinden

Agentic-AI-Piloten nicht isoliert von der Aufsicht durchführen, sondern frühzeitig in den regulatorischen Dialog einbinden. Angesichts der bevorstehenden Hochrisiko-Anforderungen des EU AI Act ab August 2026 ist eine proaktive Abstimmung mit BaFin und EBA nicht optional, sondern betriebswirtschaftlich geboten. Institute, die den Aufsichtsdialog suchen, reduzieren das Risiko nachträglicher Eingriffe.

Timeline: Vom AI Act zur aufsichtlichen Praxis

Der folgende Fahrplan zeigt die regulatorische Taktung und den kritischen Pfad für Agentic-AI-Governance im europäischen Finanzsektor.

August 2024
EU AI Act tritt in Kraft
Veröffentlichung im Amtsblatt der EU. Stufenweise Anwendbarkeit über 24 Monate.
17. Januar 2025
DORA wird anwendbar
Finanzinstitute müssen umfassendes IKT-Risikomanagement nachweisen – einschließlich KI-Systeme.
November 2025
EBA-Factsheet zu AI Act und Bankensektor
Bestätigung der Komplementarität. Ankündigung weiterer aufsichtlicher Aktivitäten für 2026–2027.
Dezember 2025
BaFin-Orientierungshilfe zu KI und IKT-Risiken
Konkretisierung der Aufsichtserwartungen: KI-Strategie, Lebenszyklus-Management, Governance auf Geschäftsleitungsebene.
Q1–Q2 2026
EU-Kommission: Leitlinien zur Hochrisiko-Klassifizierung
Konkretisierung, welche KI-Anwendungsfälle im Finanzsektor als Hochrisiko gelten. Erwartet bis Mai 2026.
2. August 2026 – Kritische Deadline
EU AI Act: Hochrisiko-Anforderungen vollumfänglich gültig
Kreditscoring, Risikobewertung und automatisierte Betrugserkennung müssen alle regulatorischen Anforderungen erfüllen. Sanktionen bis 7 % des globalen Jahresumsatzes.
2026–2027
EBA: Aufsichtliche Konvergenz und AI-Office-Kooperation
Entwicklung einheitlicher Aufsichtsansätze für KI im Bankensektor. Zusammenarbeit mit dem European AI Office zur Implementierungsunterstützung.
Fazit

Agentic AI ist im Risikomanagement weder Hype noch Randerscheinung. Die Technologie verschiebt die Grenzen dessen, was automatisierbar ist – und erzwingt zugleich eine Weiterentwicklung der Governance. Institute, die den Wandel aktiv gestalten, nutzen bestehende Strukturen aus MaRisk, EBA-Leitlinien und DORA als Fundament und erweitern sie um agentenspezifische Kontrollen. Wer dagegen auf regulatorische Klarheit wartet, verliert nicht nur operativen Vorsprung, sondern riskiert, bei der Durchsetzung der Hochrisiko-Pflichten im August 2026 unvorbereitet zu sein. Die Frage ist nicht, ob Banken Agentic AI einsetzen werden – sondern wie schnell sie ihre Kontrollsysteme auf das neue Autonomieniveau heben.

Christian Schablitzki

Christian Schablitzki

Strategy & Management Consultant · Agentic-AI-Experte für Finanzinstitute

Über 20 Jahre in Investmentbanking und Derivatehandel, anschließend mehr als 10 Jahre als Berater für Finanzinstitute. Aktuell Partner bei Infosys Consulting in Deutschland. Zertifiziert in Google AI, Generative AI Leader (Google Cloud) und IBM RAG and Agentic AI.

LinkedIn-Profil →
newsletter
the agentic banker

Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.

Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.

DSGVO-konform. Jederzeit abbestellbar.

← Zurück zur Übersicht