Die Compliance-Funktion in europäischen Banken steht vor einer stilleren, aber tiefgreifenderen Transformation als alles, was Digitalisierung und Regtech bisher versprochen haben. Im Februar 2026 hat Oliver Wyman einen Report mit dem Titel „Reimagining Compliance With Agentic AI" veröffentlicht, der eine provokante These aufstellt: Bis zu 70 Prozent der manuellen Compliance-Arbeit lassen sich durch agentische KI-Systeme automatisieren, und die Erkennungsgenauigkeit kann dabei um das Vierfache steigen. Was nach typischer Beraterprosa klingt, wird durch einen konkreten Fall belegt – Raymond James, ein börsennotierter US-Finanzdienstleister, hat genau diese 70-Prozent-Marke in der Praxis erreicht.
Der eigentliche Paradigmenwechsel liegt allerdings nicht in der Effizienzsteigerung. Er liegt in der Architektur: Agentic AI – also KI-Systeme, die nicht nur Antworten generieren, sondern mehrstufige Arbeitsprozesse autonom planen, ausführen und koordinieren – verschieben das Compliance-Monitoring von periodischen Stichproben hin zu einer kontinuierlichen, anlassbezogenen Überwachung aller Transaktionen und Kundenbeziehungen in Echtzeit. Perpetual Know Your Customer (pKYC) statt Jahresreview, Continuous Monitoring statt Sample Testing. Für deutsche Institute bedeutet das: Die Compliance-Funktion wird vom nachlaufenden Kontrollorgan zum vorausschauenden Risikomanager – oder sie wird von agileren Wettbewerbern und aufmerksameren Aufsehern überholt.
Was: Agentic AI als neue Architekturschicht in Compliance-Funktionen von Banken
Evidenz: Oliver Wyman (Feb 2026) – bis zu 70 Prozent Automatisierung, bis zu vierfache Erkennungsgenauigkeit
Pilot-Case: Raymond James mit WorkFusions Agent „Evelyn" – 52 Prozent der Sanctions- und PEP-Alerts ohne manuellen Review, 70 Prozent Gesamtreduktion manuelle Arbeit
Regulatorischer Rahmen: EU AI Act (High-Risk, anwendbar ab 2. August 2026), DORA, 9. MaRisk-Novelle (neues Modul AT 4.3.4 „KI und Modelle")
Zeithorizont: 2026–2028 – Window of Opportunity für Early Mover, bevor Aufsicht Benchmarks setzt
Die Dimensionen sind beträchtlich: Allein die WorkFusion-Plattform verarbeitet laut eigenen Angaben inzwischen täglich über eine Million Sanctions- und Adverse-Media-Alerts für Finanzinstitute. Raymond James reduzierte den manuellen Aufwand bei Namens-Screening-Alerts um 70 Prozent, ohne ein einziges zusätzliches Full Time Equivalent (FTE) einzustellen. Gleichzeitig zieht sich die Aufsicht mit drei regulatorischen Leitplanken – EU Artificial Intelligence Act (AI Act), Digital Operational Resilience Act (DORA) und die neunte Novelle der Mindestanforderungen an das Risikomanagement (MaRisk) – sukzessive enger um die Implementierung. Wer die Chance ergreifen will, muss beides gleichzeitig beherrschen: Agenten-Architektur und Governance-Framework.
Was Agentic AI in Compliance konkret bedeutet
Die Abgrenzung zu Generative AI
Der Unterschied zu klassischer generativer KI ist fundamental und wird oft unterschätzt. Ein Large Language Model (LLM) wie Claude oder GPT fasst Texte zusammen, beantwortet Fragen und entwirft Memos. Ein Agent hingegen ist ein semi-autonomer Orchestrator, der – wie Oliver Wyman es formuliert – „planning, acting, and coordinating complex compliance workflows" übernimmt. Er ruft Systeme auf, konsultiert Datenquellen, trifft Entscheidungen im Rahmen definierter Richtlinien und eskaliert nur, wenn seine Konfidenz oder Befugnis überschritten wird.
Für Compliance bedeutet das: Ein Agent kann einen Sanctions-Alert eigenständig abarbeiten. Er liest den Alert, zieht historische Adressdaten aus Drittquellen, prüft Geolocation-Daten, vergleicht Namens-, Datums- und Ortsvarianten anhand vortrainierter Matching-Modelle, dokumentiert die Entscheidung revisionssicher und schließt eindeutige False Positives selbstständig. Der Compliance-Officer sieht nur noch jene Alerts, bei denen tatsächlich Zweifel bestehen. Dasselbe Prinzip greift bei KYC-Updates, Adverse-Media-Scans, Transaktionsmonitoring und bei der Review von Suspicious Activity Reports (SARs).
Die drei Ebenen agentischer Compliance
In der Praxis etablieren sich drei Ebenen, auf denen Agentic AI Compliance-Prozesse neu strukturiert. Auf Ausführungsebene übernehmen Agenten repetitive, klar regelbasierte Fallbearbeitungen – Name Screening, einfache Adverse-Media-Reviews, Dokumentenprüfungen im Onboarding. Auf Analyseebene kombinieren sie Informationen aus verschiedenen Systemen zu einem konsolidierten Risikobild, identifizieren Muster und priorisieren Fälle nach Risiko-Score. Auf Monitoring-Ebene schließlich beobachten sie kontinuierlich Kundenportfolios, Transaktionsströme und externe Datenquellen und schlagen Alarm, sobald definierte Risikoschwellen überschritten werden. Diese dritte Ebene ist es, die das Paradigma verschiebt – weg vom periodischen Sample zur permanenten Überwachung.
Der Raymond-James-Case: 52 Prozent ohne Touch
Raymond James Financial ist ein breit diversifiziertes Finanzdienstleistungsunternehmen mit Hauptsitz in St. Petersburg, Florida. Das Unternehmen betreut rund 8.700 Finanzberater und verwaltet ein Vermögen im Billionenbereich. Seine Compliance-Abteilung stand vor einem klassischen Dilemma: steigende Alert-Volumina durch regulatorische Verschärfungen, wachsender Kostendruck, begrenzter Arbeitsmarkt für qualifizierte Financial Crime Officer. Die traditionelle Antwort wäre gewesen, Kapazität durch externe Dienstleister oder Staff Augmentation zu ergänzen. Raymond James wählte einen anderen Weg.
Das Unternehmen implementierte „Evelyn", den Agentic-AI-Mitarbeiter von WorkFusion für Name Screening. Der Agent übernimmt die Data-Point-by-Data-Point-Analyse – Namen, Datumsangaben, Orte, historische Adressen, Geolocation. Die Ergebnisse sind öffentlich dokumentiert und belegen die Oliver-Wyman-These anschaulich: 52 Prozent der Alerts müssen nicht mehr manuell reviewt werden. Bei den verbleibenden 48 Prozent reduziert sich der manuelle Aufwand um 50 bis 60 Prozent. In Summe ergibt das eine Gesamtreduktion des manuellen Aufwands von rund 70 Prozent – exakt die Größenordnung, die Oliver Wyman als Branchen-Benchmark ausweist.
Bemerkenswert an diesem Zitat von Brock Miller ist nicht die Effizienzaussage, sondern der zweite Halbsatz: „better identify true positives". Die Erwartung an Automatisierung war historisch, dass sie False Positives reduziert. Der tatsächliche Gewinn liegt tiefer – die Qualität der True-Positive-Erkennung steigt, weil der Agent konsistente Prüflogik anwendet, dritte Datenquellen systematisch einbezieht und menschliche Müdigkeits- oder Inkonsistenz-Effekte eliminiert. Genau das meint Oliver Wyman mit der vierfachen Erkennungsgenauigkeit.
Vom Stichproben-Audit zum Continuous Monitoring
Das periodische Paradigma ist gescheitert
Die klassische Compliance-Architektur deutscher Banken folgt einem Stichproben-Modell: Kundenprofile werden periodisch – je nach Risikoklasse alle ein bis fünf Jahre – vollständig reviewt. Transaktionsmonitoring läuft in Batch-Läufen, Sanctions-Screening erfolgt in definierten Zyklen. Zwischen den Prüfungen bleibt die Perspektive starr. Ein Kunde, der nach dem letzten Review in eine Risikogruppe eintritt, bleibt formal unverändert – bis der nächste Prüfzyklus ihn erfasst. Dieses Modell war notwendig, solange Compliance-Arbeit manuell und teuer war. Es ist jedoch nicht mehr sachgerecht, sobald die Kosten kontinuierlicher Überwachung gegen Null gehen.
Continuous Monitoring – in der Fachsprache zunehmend als Perpetual KYC (pKYC) bezeichnet – dreht die Logik um. Statt periodisch vollständig zu prüfen, überwachen Agenten permanent definierte Risikomarker: Änderungen der wirtschaftlich Berechtigten, plötzliche Transaktionsmuster, neue Adverse-Media-Einträge, grenzüberschreitende Transaktionen mit Hochrisikoländern. Eine Auffälligkeit triggert einen anlassbezogenen, tiefen Review – und nur diesen. Das spart Ressourcen und erhöht gleichzeitig die Dichte der Risikoerkennung dramatisch.
Periodisches Modell: Reviews alle 1 bis 5 Jahre, Batch-Monitoring, Stichprobentests, dazwischen Blindflug
Continuous-Monitoring-Modell: Permanente Überwachung aller Risikomarker in Echtzeit, anlassbezogene Deep Reviews
Ressourcen: Stichproben sind arbeitsintensiv bei niedriger Erkennungsdichte; Continuous Monitoring ist skalierbar bei hoher Erkennungsdichte
Regulatorische Wirkung: Aufsicht bewegt sich in Richtung „Risk-Based Approach in Real Time", Stichproben-Modell gerät unter Rechtfertigungsdruck
Warum das jetzt aufsichtsrelevant wird
Die Europäische Anti-Geldwäsche-Behörde (Anti-Money Laundering Authority, AMLA) hat 2026 ihre operative Arbeit in Frankfurt aufgenommen und beginnt sukzessive, Regulatory Technical Standards (RTS) für die direkte Beaufsichtigung ausgewählter Institute zu veröffentlichen. Der Tenor der bisherigen AMLA-Veröffentlichungen ist eindeutig: Europa bewegt sich auf ein stärker technologiegestütztes, enger beaufsichtigtes Geldwäsche-Regime zu. Banken, die weiterhin mit Jahreszyklen arbeiten, während Wettbewerber Real-Time-Detection implementieren, werden in Prüfungen einen schweren Stand haben – nicht, weil sie formal unzureichend prüfen, sondern weil der State of the Art sich verschiebt.
Die regulatorischen Leitplanken 2026
EU AI Act: Compliance-KI ist Hochrisiko
Der EU Artificial Intelligence Act klassifiziert KI-Systeme nach Risikokategorien. Anwendungen im Bereich Kreditvergabe, Betrugserkennung, Geldwäscheprävention und Transaktionsmonitoring fallen in die Kategorie der Hochrisiko-Systeme (High-Risk Systems, Annex III). Die zentralen Pflichten für High-Risk-Systeme werden am 2. August 2026 unmittelbar anwendbar. Das betrifft deutsche Banken doppelt: Die eingesetzten Agenten müssen die technischen und organisatorischen Anforderungen – Risikomanagementsystem, Datengovernance, Transparenz, menschliche Aufsicht, Robustheit, Cybersicherheit – erfüllen. Und die Institute bleiben als Deployer vollumfänglich verantwortlich, auch wenn die Technologie von einem Drittanbieter stammt.
Die Bußgeldrahmen sind scharf: Bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes für verbotene Praktiken, bis zu 15 Millionen Euro oder 3 Prozent für sonstige Verstöße. Entscheidend für die operative Praxis ist die Anforderung der Explainability: Jede automatisierte Entscheidung – ein Alert-Close, ein Onboarding-Clear, eine SAR-Filing-Empfehlung – muss mit einem Reason Code, einem Audit Trail und einer menschenlesbaren Begründung versehen sein. Agenten, die diese Nachvollziehbarkeit nicht nativ mitliefern, sind nicht einsetzbar.
DORA: Die Third-Party-Falle
Der Digital Operational Resilience Act (DORA) ist seit Januar 2025 unmittelbar anwendbar. Für Agentic Compliance relevant sind vor allem die Anforderungen an das ICT-Third-Party-Risk-Management. Wer einen externen Agenten-Anbieter wie WorkFusion, Quantexa oder Fenergo einsetzt, muss ihn im Register of Information (ROI) dokumentieren, die Kritikalität bewerten, Exit-Strategien definieren und Sub-Contractor-Ketten transparent machen. Die im Januar 2026 unterzeichnete Absichtserklärung zwischen der britischen und der europäischen Aufsicht zur gemeinsamen Beaufsichtigung kritischer Drittanbieter verschärft den Fokus zusätzlich. Das Zusammenspiel von AI Act und DORA ist keine Addition – es ist eine Multiplikation.
MaRisk: Die neunte Novelle kodifiziert KI-Modellrisiko
Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) hat am 1. April 2026 die Konsultationsfassung der 9. MaRisk-Novelle veröffentlicht. Das neue Modul AT 4.3.4 adressiert erstmals explizit Anforderungen an Modelle und Künstliche Intelligenz. Zwei Aspekte sind für Agentic Compliance besonders bedeutsam. Erstens: Institute müssen ein Modellinventar führen, in dem sowohl intern entwickelte als auch von Drittanbietern bezogene Modelle gleichwertig erfasst sind. Zweitens: Modelle müssen vor Einsatz validiert und mindestens alle drei Jahre reviewt werden; bei externen Modellen ist zusätzlich eine institutsspezifische Eignungsbeurteilung verpflichtend.
Die Intensität der Validierung richtet sich nach der Kritikalität des Modells. Je stärker ein Modell Risikoentscheidungen bestimmt, desto engmaschiger müssen Monitoring, Drift Detection, Change Management und Datenqualitätskontrollen ausgestaltet sein. Für einen Name-Screening-Agent, der eigenständig Alerts schließt, bedeutet das einen deutlich höheren Validierungsaufwand als für ein Dashboard-Modell mit menschlichem Letztentscheider. Institute, die Agentic AI in Compliance-Prozessen einsetzen, müssen diese Governance-Schicht von Anfang an mitdenken – sie ist kein Add-on.
Betroffenheit im Überblick
| Compliance-Funktion | Veränderung durch Agentic AI |
|---|---|
| Name Screening (Sanctions, PEP) | Ca. 50 Prozent der Alerts ohne manuellen Touch; Drittdaten- und Geolocation-Analyse integriert |
| KYC / Onboarding | Dokumentenprüfung, Entity Matching und Risikoklassifizierung autonom; Übergang zu Perpetual KYC |
| Transaktionsmonitoring | Von Batch-Läufen zu Real-Time-Scoring; Muster-basierte Anomalieerkennung jenseits statischer Regeln |
| Adverse Media Monitoring | Kontinuierliches Scannen mehrsprachiger Quellen; automatische Relevanz- und Reputationsbewertung |
| SAR-Filing-Vorbereitung | Datenaggregation und Erstentwurf durch Agent; menschliche Freigabe bleibt Pflicht |
| Regulatory Reporting | Daten-Extraktion und Konsistenzprüfung agentisch; End-of-Period-Meldungen schneller und fehlerärmer |
| Model Governance | Neue Validierungs-, Explainability- und Drift-Monitoring-Pflichten (MaRisk AT 4.3.4, AI Act) |
| Compliance-Belegschaft | Verschiebung von Fallbearbeitung zu Agent-Konfiguration, Exception Management und strategischer Steuerung |
Handlungsempfehlung: Fünf-Punkte-Plan für Compliance-Verantwortliche
Die Wahl ist nicht, ob Agentic Compliance kommt – sondern wer sie kontrolliert gestaltet und wer von ihr überrollt wird. Der Zeithorizont ist enger, als es auf den ersten Blick scheint: Der AI Act wird am 2. August 2026 für Hochrisiko-Systeme anwendbar, die neunte MaRisk-Novelle kommt voraussichtlich mit Übergangsfristen von 12 bis 24 Monaten, und Wettbewerber starten ihre Agenten-Programme jetzt. Die folgenden fünf Schritte strukturieren den Weg vom ersten Use Case zur produktiven Agentic-Compliance-Architektur.
Q2 2026: Die Einstiegskandidaten sind Prozesse mit hohem Volumen, klarer Regellogik und hohem False-Positive-Anteil – Name Screening, Adverse Media, Dokumentenprüfung im Onboarding. Jedes Institut sollte seine Top-5-Volumen-Prozesse mit einer quantitativen Baseline erheben (FTE-Einsatz, Fallzahlen, Durchlaufzeiten, False-Positive-Rate) und einen ersten Agentic-AI-Use-Case auf dem Fall mit dem höchsten Quick-Win-Potenzial aufsetzen.
Q2–Q3 2026: Agenten müssen von Tag eins mit Policy-Objekten ausgestattet sein, die Know Your Customer (KYC), Anti Money Laundering (AML), Office of Foreign Assets Control (OFAC) und General Data Protection Regulation (GDPR) strukturiert abbilden. Jeder agentische Schritt muss mit Reason Code, Audit Trail und menschenlesbarer Begründung dokumentiert werden. Governance nachträglich aufzupflanzen ist regulatorisch und operativ teurer als der native Aufbau.
Q3 2026: Die neunte MaRisk-Novelle verlangt ein vollständiges Modellinventar inklusive Drittanbieter-Modelle sowie dokumentierte Validierung vor Einsatz und mindestens alle drei Jahre. Institute sollten diese Anforderung nicht als Pflichtaufgabe, sondern als strategisches Asset begreifen: Wer sein Modellinventar sauber führt, kann Agenten schneller produktiv nehmen, weil der Governance-Pfad definiert ist.
Q3–Q4 2026: Externe Agenten-Anbieter sind im Register of Information (ROI) zu erfassen, ihre Kritikalität ist zu bewerten, Exit-Szenarien sind zu definieren. Verträge mit Agent-Providern müssen DORA-konforme Klauseln zu Auditrechten, Sub-Contractor-Transparenz und Incident Reporting enthalten. Ohne diese Integration sind Agenten operativ einsetzbar, aber regulatorisch angreifbar.
Fortlaufend ab 2026: Oliver Wyman formuliert treffend: Compliance-Professionals werden vom „drowning in manual reviews" zu Konfiguratoren, Ausnahmemanagern und strategischen Beratern. Institute, die Agentic AI nur als FTE-Sparprogramm verstehen, verlieren das Wissen der Belegschaft und die Fähigkeit, Agenten überhaupt sinnvoll zu steuern. Weiterbildung in Prompt Engineering, Agent Configuration und Model Monitoring ist keine Kür, sondern Voraussetzung.
Risiken und offene Fragen
Bei aller Aufbruchstimmung ist eine nüchterne Bestandsaufnahme angebracht. Erstens: Die 70-Prozent-Automatisierung bezieht sich auf klar regelbasierte Prozesse – nicht auf das gesamte Compliance-Mandat. Entscheidungen mit hohem Judgment-Anteil, etwa die Bewertung komplexer Strukturen im Private Banking oder die Einordnung geopolitischer Sanctions-Nuancen, bleiben menschliche Domäne. Wer die 70 Prozent als Gesamtreduktion der Compliance-Belegschaft missversteht, fliegt auf einen Weckruf der Aufsicht zu.
Zweitens: Die Qualität eines Agenten ist nur so gut wie seine Trainingsdaten und seine Policy-Scaffolds. Raymond James hat mit WorkFusion einen Anbieter gewählt, der seit Jahren auf Financial-Crime-Compliance spezialisiert ist. Ein generischer LLM ohne Compliance-Fine-Tuning wird bei regulatorischen Nuancen – etwa bei der Unterscheidung zwischen OFAC-SDN-List, Non-SDN-List und EU Consolidated List – systematisch versagen. Die Auswahl des Providers ist die wichtigste Einzelentscheidung im gesamten Projekt.
Drittens: Die Explainability-Anforderung des AI Act kollidiert teilweise mit der Black-Box-Natur großer Sprachmodelle. Institute brauchen Architekturen, die Agent-Entscheidungen auf deterministische Policy-Regeln zurückführen, statt sich auf probabilistische LLM-Ausgaben zu verlassen. Hybride Architekturen – deterministische Regel-Engine plus LLM-gestützte Kontextualisierung – sind der pragmatische Ausweg, aber komplexer im Aufbau, als es die Marketing-Folien der Anbieter vermuten lassen.
Viertens: Die Zukunft der Compliance-Arbeitsplätze wird oft beschönigt. Wenn ein Agent 52 Prozent der Alerts ohne Touch abschließt, fallen entsprechende operative Kapazitäten weg. Dass die freiwerdenden Mitarbeiter alle zu Agent-Konfiguratoren oder strategischen Beratern werden, ist eine Hoffnung, keine Zwangsläufigkeit. Institute, die Transformation ehrlich kommunizieren und konsequent in Qualifizierung investieren, werden Talent halten. Institute, die Effizienz als Endzweck verstehen, werden Glaubwürdigkeit und Expertise verlieren.
Agentic Compliance ist kein Marketing-Trend, sondern eine strukturelle Verschiebung. Die 70-Prozent-These von Oliver Wyman ist kein Versprechen, sondern ein Benchmark, den Raymond James in einem klar abgegrenzten Teilprozess erreicht hat. Die regulatorische Architektur aus AI Act, DORA und MaRisk ist streng, aber sie ist machbar – und sie ist planbar. Wer jetzt mit einem klaren Use Case startet, ein ehrliches Governance-Framework aufbaut und seine Belegschaft mitnimmt, gewinnt Zeit, Lerneffekte und Verhandlungsposition gegenüber Aufsicht, Anbietern und Wettbewerb. Wer wartet, bis die Benchmarks gesetzt sind, wird nach ihnen gemessen.
Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.
Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.
DSGVO-konform. Jederzeit abbestellbar.