Am 2. August 2026 wird der EU AI Act für Hochrisiko-KI-Systeme vollständig durchsetzbar. Für Banken, Versicherer und Asset Manager bedeutet das: Credit Scoring, algorithmische Kreditentscheidungen und KI-gestützte Risikobewertungen müssen bis dahin den strengen Anforderungen an Dokumentation, Transparenz, Datenqualität und menschliche Aufsicht entsprechen. Es bleiben weniger als fünf Monate. Dieser Artikel liefert eine praxisorientierte Roadmap – von der KI-Inventarisierung über die Konformitätsbewertung bis zur Integration in bestehende Governance-Strukturen.

In Kürze

Deadline: 2. August 2026 – volle Anwendbarkeit der Hochrisiko-Pflichten (Anhang III)

Betroffen: Credit Scoring, Kreditwürdigkeitsprüfung, Versicherungspreisgestaltung, AML-Screening, algorithmische Handelsentscheidungen

Sanktionen: Bis 35 Mio. EUR / 7 % (verbotene Praktiken), bis 15 Mio. EUR / 3 % (Hochrisiko-Verstöße)

Aufsicht DE: Bundesnetzagentur (BNetzA) als zentrale Marktüberwachung, BaFin für den Finanzsektor

Rechtsgrundlage: Verordnung (EU) 2024/1689, KI-MIG (Kabinettsbeschluss 11.02.2026)

Wo wir stehen: 20 Monate nach Inkrafttreten

Der EU AI Act ist seit dem 1. August 2024 in Kraft. Seitdem sind die verbotenen KI-Praktiken (Social Scoring, manipulative Systeme) seit Februar 2025 wirksam, die General Purpose AI (GPAI) Regelungen seit August 2025 durchsetzbar, und die KI-Kompetenzpflicht für Mitarbeitende gilt ebenfalls bereits. Was noch aussteht, ist der zentrale Meilenstein: die volle Anwendbarkeit der Hochrisiko-Pflichten am 2. August 2026.

Der Umsetzungsstand in der deutschen Finanzbranche ist gemischt. Großbanken haben die Klassifizierung ihrer KI-Systeme weitgehend abgeschlossen und erste Governance-Strukturen aufgebaut. Institute der zweiten und dritten Reihe – Sparkassen, Genossenschaftsbanken, mittelständische Versicherer – kämpfen noch mit grundlegenden Fragen: Welche unserer Systeme sind überhaupt KI im Sinne der Verordnung? Welche fallen unter Hochrisiko? Und wer ist intern verantwortlich?

Erschwerend kommt hinzu, dass die harmonisierten Standards der europäischen Normungsorganisationen CEN und CENELEC, die als Leitlinien für die Konformitätsbewertung dienen sollen, noch nicht finalisiert sind. Unternehmen müssen also Compliance-Strukturen aufbauen, bevor der vollständige technische Referenzrahmen steht – eine Situation, die an die frühen DORA-Implementierungsphasen erinnert.

Der Digital Omnibus: Aufschub oder Scheinsicherheit?

Ein Faktor, der die Diskussion in den Compliance-Abteilungen prägt, ist der sogenannte Digital Omnibus on AI. Die EU-Kommission hat Ende 2025 ein Gesetzespaket vorgeschlagen, das unter anderem die Durchsetzungsfristen für Hochrisiko-KI-Systeme anpasst. Der Kern: Annex-III-Systeme – also eigenständige Hochrisiko-KI wie Credit Scoring, HR-Screening oder biometrische Identifikation – erhalten ein absolutes Backstop-Datum am 2. Dezember 2027. Die tatsächliche Durchsetzung beginnt allerdings früher, sobald die Kommission bestätigt, dass geeignete harmonisierte Standards oder gemeinsame Spezifikationen vorliegen. Ab diesem Zeitpunkt läuft eine Sechsmonatsfrist.

Der legislative Prozess schreitet voran: Am 18. März 2026 haben die federführenden Ausschüsse IMCO und LIBE des Europäischen Parlaments ihre gemeinsame Position mit 101 zu 9 Stimmen angenommen. Die Trilog-Verhandlungen zwischen Parlament, Rat und Kommission haben unter der zyprischen Ratspräsidentschaft begonnen, mit dem Ziel eines finalen Textes bis Mai 2026.

Der Digital Omnibus ist kein Freibrief für Untätigkeit. Wer jetzt nicht handelt, riskiert selbst bei einer Fristverlängerung, dass die sechs Monate nach Verfügbarkeit der Standards nicht ausreichen – denn die inhaltlichen Anforderungen ändern sich nicht. Einschätzung auf Basis der Trilog-Verhandlungen

Die strategische Bewertung fällt eindeutig aus: Selbst wenn der Digital Omnibus wie geplant verabschiedet wird, verschiebt er nur den Durchsetzungszeitpunkt, nicht die Anforderungen. Die Konformitätspflichten bleiben identisch. Banken, die jetzt ihre Compliance-Programme aufsetzen, verschaffen sich einen Vorsprung – unabhängig davon, ob die Frist August 2026 oder Dezember 2027 lautet. Wer dagegen auf den Omnibus wartet und erst spät beginnt, geht ein erhebliches Risiko ein: Die Erfahrung aus der DORA-Implementierung zeigt, dass regulatorische Transformationsprojekte im Finanzsektor typischerweise 12 bis 18 Monate benötigen.

Was sich seit Februar 2026 geändert hat: BaFin und KI-MIG

Zwei Entwicklungen haben seit dem Grundlagenartikel vom Februar 2026 die regulatorische Landschaft weiter konkretisiert.

BaFin-Orientierungshilfe zu IKT-Risiken bei KI

Am 18. Dezember 2025 veröffentlichte die BaFin ihre Orientierungshilfe zu IKT-Risiken beim Einsatz von KI-Systemen in Finanzunternehmen. Das Dokument ist formal unverbindlich, signalisiert aber unmissverständlich die Aufsichtserwartungen. Der Kern: Die BaFin verortet den KI-Einsatz konsequent im bestehenden Rahmen des IKT-Risikomanagements nach DORA und betrachtet KI-Systeme über ihren gesamten Lebenszyklus – von der Datenakquisition und Modellentwicklung über die Implementierung bis zum laufenden Betrieb und der späteren Stilllegung.

Für Banken sind insbesondere zwei Aspekte relevant: Erstens müssen KI-Systeme systematisch in die bestehenden Prozesse für Risikoidentifikation, Prävention, Monitoring sowie Reaktion und Wiederherstellung eingebettet werden. Zweitens adressiert die Orientierungshilfe explizit das Drittparteienmanagement – ein Bereich, in dem sich die Anforderungen aus DORA und AI Act überschneiden und verstärken.

KI-MIG: Deutschlands Durchführungsgesetz

Am 11. Februar 2026 hat das Bundeskabinett das KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG) beschlossen – Deutschlands Durchführungsgesetz zum AI Act. Die wesentlichen Festlegungen: Die Bundesnetzagentur (BNetzA) wird zur zentralen Marktüberwachungsbehörde und EU-Anlaufstelle. Bei der BNetzA entsteht ein Koordinierungs- und Kompetenzzentrum für die KI-Verordnung (KoKIVO), das alle beteiligten Behörden bei der einheitlichen Rechtsauslegung unterstützt.

Für den Finanzsektor bleibt die BaFin als Marktüberwachungsbehörde zuständig – ein bewusster Ansatz, der an bestehende sektorale Aufsichtsstrukturen anknüpft, statt eine völlig neue KI-Sonderaufsicht aufzubauen. CRR-Kreditinstitute unterstehen damit bei selbst eingesetztem KI-Kredit-Scoring der BaFin, nicht der Bundesnetzagentur. Dieser hybride Aufsichtsansatz hat den Vorteil, dass die BaFin bereits über tiefe Expertise in der Prüfung von Risikomodellen und IT-Systemen verfügt – sie muss diese Kompetenz lediglich um die spezifischen AI-Act-Anforderungen erweitern.

Das Sanktionsregime: Drei Stufen, gestaffelte Schärfe

Der AI Act etabliert ein dreistufiges Sanktionsregime, das in seiner Härte an die DSGVO (Datenschutz-Grundverordnung) erinnert – und diese in den Maximalbeträgen sogar übertrifft.

Verstoßkategorie Maximalbuße Relevanz für Banken
Verbotene KI-Praktiken (Art. 5) 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes Social Scoring, manipulative Systeme – bereits seit Februar 2025 wirksam
Hochrisiko-Pflichten (Art. 9–19, 26–27) 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes Credit Scoring, AML, algorithmische Kreditentscheidungen, Versicherungspreisgestaltung
Sonstige Verstöße 7,5 Mio. EUR oder 1 % des weltweiten Jahresumsatzes Falsche oder irreführende Angaben, Dokumentationsmängel

Für eine deutsche Großbank mit 20 Milliarden Euro Jahresumsatz bedeuten 3 % ein Risiko von 600 Millionen Euro – eine Größenordnung, die das Thema unweigerlich auf die Vorstandsagenda bringt. Zumal die Sanktionen kumulativ wirken: Ein Institut, das gleichzeitig gegen mehrere Pflichten verstößt, kann mit Mehrfachbußen belegt werden.

Hochrisiko-KI im Finanzsektor: Wo die Anforderungen greifen

Der AI Act folgt einem risikobasierten Klassifikationsmodell. Für Finanzinstitute sind vor allem die Hochrisiko-Einstufungen gemäß Anhang III relevant. Die folgende Übersicht zeigt, welche typischen Bankanwendungen betroffen sind und welche Anforderungen sich daraus ergeben.

Direkt als Hochrisiko klassifiziert (Anhang III, Punkt 5b)

KI-Systeme zur Bewertung der Kreditwürdigkeit natürlicher Personen und zur Festlegung ihres Kredit-Scores fallen explizit unter die Hochrisikokategorie. Ebenso erfasst sind KI-Systeme zur Risikobewertung und Preisgestaltung für natürliche Personen bei Lebens- und Krankenversicherungen. Diese Systeme müssen die vollständige Compliance-Spine des AI Act erfüllen: Artikel 9 bis 19 für Anbieter sowie Artikel 26 und 27 für Betreiber.

Konkret bedeutet das für ein KI-basiertes Kredit-Scoring-System:

Pflichten für Hochrisiko-KI-Systeme im Überblick

Risikomanagementsystem (Art. 9): Kontinuierliche Identifikation, Analyse und Minderung von Risiken über den gesamten Lebenszyklus

Data Governance (Art. 10): Relevanz, Repräsentativität, Fehlerfreiheit und Vollständigkeit der Trainings- und Validierungsdaten

Technische Dokumentation (Art. 11, Anhang IV): Systembeschreibung, Entwurfsspezifikationen, Überwachungskonzepte – 10 Jahre Aufbewahrungspflicht

Protokollierung (Art. 12): Automatische Aufzeichnung relevanter Ereignisse während des Betriebs

Transparenz (Art. 13): Gebrauchsanweisung mit Informationen über Leistung, Einschränkungen und vorgesehene Verwendung

Menschliche Aufsicht (Art. 14): Design für wirksame menschliche Überwachung, Fähigkeit zur Intervention und Außerkraftsetzung

Genauigkeit, Robustheit, Cybersicherheit (Art. 15): Angemessenes Leistungsniveau, Widerstandsfähigkeit gegen Fehler und Angriffe

Grauzone: Algorithmischer Handel und AML-Screening

Nicht alle KI-Anwendungen im Finanzsektor sind eindeutig einzuordnen. Algorithmische Handelssysteme, die nicht direkt die Kreditwürdigkeit natürlicher Personen bewerten, fallen nicht automatisch unter Anhang III – könnten aber über den Umweg der Risikobewertung oder über sektorale Regulierung als Hochrisiko eingestuft werden. Ähnlich verhält es sich mit AML-Screening-Systemen (Anti-Money Laundering), die natürliche Personen bewerten und damit potenziell in den Anwendungsbereich fallen.

Die Empfehlung für Banken ist pragmatisch: Im Zweifelsfall die strengere Kategorie annehmen. Die Kosten einer vorübergehenden Überkompliance sind vernachlässigbar im Vergleich zu den Sanktionen bei Unterkompliance. Zudem bieten die bereits bestehenden MaRisk- und DORA-Anforderungen ein belastbares Fundament, auf dem die AI-Act-spezifischen Pflichten mit vertretbarem Aufwand aufgesetzt werden können.

Die Compliance-Roadmap: Sechs Schritte in fünf Monaten

Der folgende Fahrplan orientiert sich an den regulatorischen Anforderungen und der Praxis von Instituten, die bereits fortgeschritten in der Umsetzung sind. Die Schritte bauen aufeinander auf, können aber teilweise parallelisiert werden.

Phase 1: KI-Inventarisierung und Klassifizierung (April–Mai 2026)

Der erste und grundlegendste Schritt: eine vollständige Bestandsaufnahme aller KI-Systeme im Institut. Das klingt trivial, ist es in der Praxis aber nicht. Viele Banken haben keinen konsolidierten Überblick darüber, wo überall KI im Einsatz ist – insbesondere in zugekauften Softwarekomponenten, Cloud-Diensten und Drittanbieterlösungen verbergen sich häufig KI-Module, die bei der internen Erfassung übersehen werden.

Die Inventarisierung sollte für jedes System folgende Informationen erfassen: Name und Beschreibung des KI-Systems, Einsatzzweck und Geschäftsbereich, verantwortliches Team und Ansprechpartner, Risikokategorie gemäß AI Act, Klassifizierung als Anbieter oder Betreiber, verwendete Datenquellen und Datenoutputs, Betriebsumgebung (Cloud, On-Premise, Hybrid) sowie Status der Konformität. Der Output dieser Phase ist ein KI-Register – vergleichbar dem Informationsregister unter DORA, aber spezifisch auf KI-Systeme zugeschnitten.

Phase 2: Gap-Analyse gegen AI-Act-Anforderungen (Mai 2026)

Auf Basis des KI-Registers folgt eine systematische Gap-Analyse: Wo erfüllt das Institut die Anforderungen bereits (etwa durch bestehende MaRisk-Modellvalidierung oder DORA-konforme Dokumentation), und wo bestehen Lücken? Banken, die bereits ein robustes Modellrisikomanagement nach den EBA-Leitlinien (European Banking Authority) und den Grundsätzen für die effektive Aggregation von Risikodaten (BCBS 239) betreiben, werden feststellen, dass ein erheblicher Teil der AI-Act-Anforderungen bereits abgedeckt ist. Das lebenszyklusbezogene Risikomanagement, die Human-Oversight-Konzepte und die technische Dokumentation lassen sich vielfach auf bestehenden Strukturen aufbauen.

Phase 3: Governance-Strukturen aufbauen (Mai–Juni 2026)

KI-Governance ist keine IT-Aufgabe – sie gehört auf die Vorstandsagenda. Institute müssen eine zentrale, unabhängige KI-Governance-Funktion etablieren, die als Single Point of Accountability für alle KI-bezogenen Compliance-Fragen dient. Diese Funktion muss in das bestehende Interne Kontrollsystem (IKS) integriert werden, nicht als Parallelstruktur daneben stehen.

Konkret erfordert das: Klare Rollendefinitionen (wer genehmigt den Einsatz neuer KI-Systeme, wer verantwortet die laufende Überwachung), Eskalationspfade (wann muss der Vorstand informiert werden), Berichtslinien (regelmäßiges Reporting an Audit und Compliance) sowie die Integration in Gremienstrukturen (KI als Tagesordnungspunkt im Risiko- oder Technologieausschuss).

Phase 4: Technische Dokumentation und Konformitätsbewertung (Juni–Juli 2026)

Für jedes als Hochrisiko eingestufte KI-System muss eine umfassende technische Dokumentation gemäß Anhang IV erstellt werden. Diese umfasst unter anderem eine allgemeine Systembeschreibung, detaillierte Angaben zur Systemarchitektur, Informationen über Trainings-, Validierungs- und Testdatensätze sowie das Überwachungs- und Kontrollkonzept.

Die Konformitätsbewertung selbst ist für die meisten Finanzsektor-Anwendungen als Selbstbewertung nach Anhang VI durchführbar – eine notifizierte Stelle ist nur für biometrische Identifikation und kritische Infrastruktur erforderlich. Das bedeutet aber nicht, dass die Selbstbewertung weniger rigoros sein darf: Die BaFin wird im Rahmen ihrer Prüfungen die Qualität und Vollständigkeit der Konformitätsbewertung einfordern.

Phase 5: Drittparteienmanagement und Cloud-Compliance (parallel)

Die BaFin-Orientierungshilfe vom Dezember 2025 macht deutlich: KI-Risiken aus Drittanbieterbeziehungen müssen systematisch in das bestehende Third Party Risk Management (TPRM) integriert werden. Das betrifft insbesondere Cloud-basierte KI-Dienste der großen Hyperscaler. Verträge müssen um AI-Act-konforme Klauseln ergänzt werden: Dokumentationspflichten, Prüf- und Zugriffsrechte, Meldepflichten bei wesentlichen Änderungen am KI-System sowie Exit-Strategien.

Dabei überschneiden sich die Anforderungen aus DORA und AI Act erheblich. Institute, die ihr DORA-konformes Drittparteienmanagement bereits aufgebaut haben, können die KI-spezifischen Anforderungen als Erweiterung integrieren – statt eine separate Compliance-Spur zu fahren.

Phase 6: Schulung, Registrierung und Go-Live (Juli–August 2026)

Die KI-Kompetenzpflicht gemäß Artikel 4 gilt formal bereits seit Februar 2025. Dennoch zeigt die Praxis, dass viele Institute noch keinen flächendeckenden Schulungsplan umgesetzt haben. Die verbleibenden Monate müssen genutzt werden, um rollenspezifische Trainings für Entwickler, Betreiber, Compliance-Funktionen und Entscheider durchzuführen. Zuletzt sind Hochrisiko-KI-Systeme in der EU-Datenbank zu registrieren – ein Schritt, der vor der Inbetriebnahme oder vor dem 2. August 2026 für Bestandssysteme erfolgen muss.

Integration in bestehende Regulierung: Der AI Act als IKS-Erweiterung

Die vielleicht wichtigste strategische Erkenntnis für Banken lautet: Der AI Act ist weniger ein radikaler Bruch als eine KI-spezifische Erweiterung des bestehenden Internen Kontrollsystems. Wer den AI Act als isoliertes Regulierungsprojekt betreibt, verschwendet Ressourcen und erzeugt ineffiziente Parallelstrukturen. Der effizientere Weg besteht darin, die AI-Act-Kontrollen in die vorhandenen Governance-Rahmenwerke einzubetten.

Die Anschlussfähigkeit ist hoch: MaRisk liefert das Fundament für Modellrisikomanagement und Governance. Die EBA-Leitlinien (EGIM) definieren bereits Validierungs- und Gremienstrukturen. DORA stellt den Rahmen für IKT-Risikomanagement und Drittparteienaufsicht. BCBS 239 setzt Standards für Datenqualität und Aggregation. Der AI Act fügt diesem Rahmen die spezifischen Anforderungen für Hochrisiko-KI hinzu: lebenszyklusbezogenes Risikomanagement, explizite Human-Oversight-Konzepte, erweiterte technische Dokumentation und automatisiertes Logging.

Banken, die ihr Modellinventar, ihre Validierungsprozesse und Gremienstrukturen aus MaRisk und EBA-Guidelines nutzen, können den AI Act mit vertretbarem Aufwand integrieren. Wer bei Null anfängt, hat ein Problem. Praxisbefund aus der Umsetzungsbegleitung

Handlungsempfehlungen: Was Banken jetzt priorisieren müssen

Die folgenden sechs Handlungsfelder sind für Finanzinstitute von unmittelbarer Priorität. Sie spiegeln die Roadmap wider und priorisieren die Maßnahmen nach Dringlichkeit und Wirkung.

1. KI-Register aufbauen – vollständig und granular

Sämtliche KI-Systeme erfassen, klassifizieren und den Risikokategorien des AI Act zuordnen. Kritisch: auch KI-Komponenten in Drittanbieterlösungen und Cloud-Diensten identifizieren. Automatisierte Discovery-Verfahren über IT-Asset-Management können helfen, blinde Flecken aufzudecken. Wer Ende Mai kein konsolidiertes KI-Register hat, ist nicht mehr rechtzeitig fertig.

2. Gap-Analyse auf bestehende Governance mappen

Nicht bei Null anfangen: MaRisk-Modellvalidierung, DORA-Dokumentation und EBA-Guidelines als Ausgangsbasis nutzen. Die Gap-Analyse sollte gezielt die Delta-Anforderungen des AI Act identifizieren – nicht das gesamte Kontrollsystem neu aufbauen. Typische Lücken: explizite Human-Oversight-Konzepte, lebenszyklusbezogene Risikodokumentation, automatisiertes Event-Logging.

3. KI-Governance auf Vorstandsebene verankern

Eine zentrale KI-Governance-Funktion als Single Point of Accountability installieren und in das bestehende IKS integrieren. KI ist keine IT-Aufgabe. Der Vorstand muss informiert sein, Rollen und Eskalationspfade müssen definiert sein, und KI-Risiken müssen als regulärer Tagesordnungspunkt in Risiko- oder Technologieausschüssen erscheinen.

4. Hochrisiko-Systeme priorisiert dokumentieren

Kredit-Scoring, Kreditwürdigkeitsprüfung und Versicherungspreisgestaltung haben höchste Priorität. Die technische Dokumentation gemäß Anhang IV muss bis Juni 2026 stehen, um Zeit für die Konformitätsbewertung (Selbstbewertung nach Anhang VI) und eventuelle Nachbesserungen zu lassen. 10 Jahre Aufbewahrungspflicht einplanen.

5. Drittparteienverträge um KI-Klauseln ergänzen

KI-Risiken in das TPRM integrieren, insbesondere für Cloud-basierte KI-Dienste. Verträge um Dokumentationspflichten, Prüfrechte und Meldepflichten erweitern. Die Überschneidung mit DORA-Anforderungen nutzen – wer das DORA-konforme TPRM bereits aufgebaut hat, kann die KI-spezifischen Erweiterungen effizient integrieren.

6. KI-Kompetenz flächendeckend sicherstellen

Die KI-Kompetenzpflicht (Art. 4) gilt seit Februar 2025 – sie ist nicht verhandelbar und nicht durch den Digital Omnibus betroffen. Rollenspezifische Schulungen für Entwickler, Betreiber, Compliance und Management durchführen. Die BaFin wird im Rahmen von Sonderprüfungen gezielt nach Nachweisen fragen.

Timeline: Der kritische Pfad bis August 2026

Der folgende Fahrplan zeigt den Umsetzungsstand und die verbleibenden Meilensteine auf dem Weg zur vollen AI-Act-Compliance.

01. August 2024
Inkrafttreten des EU AI Act
Verordnung (EU) 2024/1689 tritt in Kraft. Beginn der gestaffelten Umsetzungsfristen.
02. Februar 2025
Verbotene KI-Praktiken & Kompetenzpflicht
Social Scoring und manipulative Systeme verboten. KI-Kompetenzpflicht für alle Beschäftigten tritt in Kraft.
02. August 2025
GPAI-Regelungen wirksam
Pflichten für General Purpose AI greifen. Transparenz- und Urheberrechtspflichten für GPAI-Anbieter.
18. Dezember 2025
BaFin-Orientierungshilfe zu KI
Orientierungshilfe zu IKT-Risiken beim Einsatz von KI-Systemen in Finanzunternehmen veröffentlicht.
11. Februar 2026
KI-MIG Kabinettsbeschluss
Deutsches Durchführungsgesetz beschlossen. Bundesnetzagentur wird zentrale Marktüberwachungsbehörde.
18. März 2026
Digital Omnibus: Parlamentsposition
IMCO/LIBE nehmen gemeinsame Position an (101:9). Trilog-Verhandlungen beginnen. Backstop-Datum: 02.12.2027.
02. August 2026 – Kritische Deadline
Hochrisiko-KI: Volle Anwendbarkeit
Alle Annex-III-Hochrisikosysteme müssen konform sein: Credit Scoring, Kreditwürdigkeitsprüfung, Versicherungspreisgestaltung. Sofern der Digital Omnibus verabschiedet wird, gilt stattdessen das frühere Datum von: 6 Monate nach Verfügbarkeit harmonisierter Standards oder spätestens 02.12.2027.
02. August 2027
Vollständige Anwendung aller Vorschriften
Alle Übergangsfristen für ältere GPAI-Modelle enden. Compliance-Pflicht für sämtliche regulierten KI-Produkte.
02. Dezember 2027
Backstop Digital Omnibus (Anhang III)
Absolutes äußeres Datum für Hochrisiko-KI-Systeme nach Anhang III, sofern der Digital Omnibus verabschiedet wird. Unabhängig von Standardverfügbarkeit.
Fazit

Fünf Monate sind im Kontext eines regulatorischen Transformationsprojekts wenig Zeit – aber sie reichen, wenn Institute jetzt entschlossen handeln. Der AI Act ist kein isoliertes Compliance-Projekt, sondern eine logische Erweiterung der bestehenden Regulierungsarchitektur. Wer die DORA-Lektion verstanden hat, weiß: Frühzeitig starten, bestehende Strukturen nutzen, nicht auf Fristverlängerungen spekulieren. Der Digital Omnibus mag die Deadline verschieben – aber die Erwartungen der Aufsicht und des Marktes verschieben sich nicht.

Christian Schablitzki

Christian Schablitzki

Strategy & Management Consultant · Agentic-AI-Experte für Finanzinstitute

Über 20 Jahre in Investmentbanking und Derivatehandel, anschließend mehr als 10 Jahre als Berater für Finanzinstitute. Aktuell Partner bei Infosys Consulting in Deutschland. Zertifiziert in Google AI, Generative AI Leader (Google Cloud) und IBM RAG and Agentic AI.

LinkedIn-Profil →
newsletter
the agentic banker

Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.

Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.

DSGVO-konform. Jederzeit abbestellbar.

← Zurück zur Übersicht