Im Februar 2026 machte Goldman Sachs eine Ankündigung, die weit über Wall Street hinaus Wellen schlug: Die Investmentbank hat sechs Monate lang Ingenieure von Anthropic in ihre Technologieteams eingebettet, um autonome AI-Agenten für Trade Accounting und Client Onboarding zu entwickeln. Es ist der bislang ambitionierteste Vorstoß einer Tier-1-Bank, regelbasierte Back-Office-Prozesse durch AI-Agenten zu automatisieren – nicht als Pilotprojekt in einer Innovation-Sandbox, sondern als operatives Werkzeug für Prozesse, die Billionen an Assets bewegen.

Für europäische Finanzinstitute ist dieser Schritt aus zwei Gründen relevant. Erstens: Goldman zeigt, was technisch bereits möglich ist, wenn eine Bank AI-Agenten nicht als Chatbot-Erweiterung begreift, sondern als autonome Prozessakteure in Kernfunktionen wie Reconciliation, Know Your Customer (KYC) und Anti-Money Laundering (AML). Zweitens: Am 2. August 2026 treten die High-Risk-Anforderungen des EU AI Act in Kraft – und AI-Agenten, die Compliance-Entscheidungen treffen, fallen genau in diese Kategorie.

In Kürze

Was: Goldman Sachs entwickelt mit Anthropic autonome AI-Agenten für Accounting, Compliance und Onboarding

Technologie: Anthropic Claude, co-entwickelt in sechsmonatiger Embedded-Partnerschaft

Use Cases: Trade Accounting, Reconciliation, KYC/AML-Screening, Trading Surveillance

Ergebnisse: Onboarding-Zeiten –30 %, Developer-Produktivität +20 %, Exception Queues –80 % (Zielwert)

EU-Kontext: Ab 2. August 2026 gelten High-Risk-Anforderungen des EU AI Act für AI in Finanzfunktionen

Die Anthropic-Partnerschaft: Vom Coding-Assistenten zum Compliance-Agenten

Sechs Monate Embedded Engineering

Der Weg zu autonomen AI-Agenten bei Goldman Sachs begann nicht mit einem strategischen Masterplan, sondern mit einer Beobachtung. Als Goldman-Entwickler Anthropics Claude zunächst als Coding-Assistenten testeten, fiel auf, dass die Reasoning-Fähigkeiten des Modells über einfache Code-Generierung hinausgingen. Marco Argenti, Chief Information Officer (CIO) von Goldman Sachs, beschrieb den Moment so: Die Ingenieure erkannten, dass Claudes Schlussfolgerungsfähigkeiten stark genug waren, um komplexere Finanzaufgaben zu bewältigen.

Was folgte, war eine für die Finanzbranche ungewöhnliche Form der Zusammenarbeit. Goldman bettete Anthropic-Ingenieure für sechs Monate direkt in die eigenen Technologieteams ein. Diese arbeiteten Seite an Seite mit Fachexperten der Bank – nicht in einem abgeschirmten Lab, sondern direkt an den Prozessen, die automatisiert werden sollten. Sie beobachteten, wie Mitarbeiter ihre Rechner navigieren, wo Prozesse ins Stocken geraten und wie die tatsächliche Arbeit in der Praxis aussieht.

Die Schönheit neuronaler Netze liegt darin, dass sie in Mikro-Anwendungsfällen wie Menschen denken und so regelbasierte Systeme ergänzen – in Richtung einer vollständigen Automatisierung. Marco Argenti, CIO Goldman Sachs, gegenüber American Banker

Jonathan Pelosi, Head of Financial Services bei Anthropic, formulierte den Ansatz aus der Perspektive des Technologiepartners: Claude sei für datenintensive Reasoning-Probleme konzipiert, die Urteilsvermögen erfordern – dort, wo Regeln allein nicht mehr ausreichen. Diese Positionierung ist kein Marketing-Claim: Trade Accounting und Compliance sind genau die Domänen, in denen regelbasierte Automatisierung seit Jahrzehnten an ihre Grenzen stößt, weil Ausnahmen, Sonderfälle und kontextabhängige Entscheidungen den Großteil der Arbeitslast ausmachen.

Die konkreten Use Cases: Was Goldman automatisiert

Trade Accounting und Reconciliation

Der erste und am weitesten fortgeschrittene Einsatzbereich ist das Trade Accounting. Die AI-Agenten verarbeiten Transaktionsdaten, gleichen sie gegen regulatorische Rahmenwerke ab und identifizieren Diskrepanzen in der Buchführung. Goldman erwartet, die Exception Queues – jene Warteschlangen ungelöster Abweichungen, die bislang manuell bearbeitet werden – um 80 Prozent zu reduzieren. Das ist keine inkrementelle Verbesserung; es ist ein Paradigmenwechsel für eine Funktion, die in den meisten Banken noch immer auf Spreadsheets und manuellen Workflows basiert.

Der entscheidende Unterschied zu bisherigen Automatisierungsversuchen: Die Agenten verarbeiten nicht nur strukturierte Daten nach festen Regeln. Sie wenden kontextabhängige Logik auf mehrstufige Workflows an, die bislang menschliches Urteilsvermögen erforderten. In Argentis Worten könnten Teams damit die fünf- bis zehnfache Fallzahl bewältigen – oder dieselbe Zahl in einem Bruchteil der Zeit.

Client Onboarding und KYC/AML

Der zweite zentrale Use Case betrifft das Client Onboarding, einschließlich der KYC- und AML-Prüfungen. Die AI-Agenten überprüfen Dokumente, extrahieren relevante Entitäten, analysieren Eigentümerstrukturen und identifizieren wirtschaftliche Berechtigte. Interne Tests zeigten eine Reduktion der Onboarding-Zeiten um 30 Prozent.

Besonders bemerkenswert ist die Fähigkeit der Agenten, bei der Verifizierung von Ausweisdokumenten Diskrepanzen zu erkennen – eine Aufgabe, die bislang hochqualifizierte Compliance-Mitarbeiter erforderte. Der Agent prüft nicht nur, ob ein Dokument formal korrekt ist, sondern kann Inkonsistenzen zwischen verschiedenen Datenquellen flaggen und so potenzielle Geldwäsche-Risiken frühzeitig identifizieren.

Trading Surveillance: Das gemeinsame Projekt mit der Deutschen Bank

Parallel zur Accounting-Initiative arbeitet Goldman Sachs an einem weiteren, besonders sensiblen Einsatzbereich: der handelsbezogenen Überwachung. Zusammen mit der Deutschen Bank testet Goldman AI-Agenten für Trading Surveillance. Beide Institute haben unabhängig voneinander begonnen, die nächste Generation der Marktmissbrauchserkennung zu entwickeln.

Der fundamentale Unterschied zu herkömmlichen Surveillance-Systemen: Statt statische Regeln mit festen Schwellenwerten anzuwenden, analysieren die AI-Agenten Handelsverhalten über multiple Signale in Echtzeit. Sie vergleichen aktuelle Aktivitäten mit historischen Mustern und flaggen Konstellationen, die keiner klaren Regel widersprechen, aber dennoch als ungewöhnlich auffallen. Goldman kooperiert dabei mit Anthropic, die Deutsche Bank mit Google Cloud.

Goldman Sachs – AI-Agenten im Überblick

Trade Accounting: Transaktionsabgleich, Exception-Handling, regelbasierte Buchführung – Ziel: –80 % Exception Queues

Client Onboarding: KYC, AML-Screening, Dokumentenprüfung, Eigentümeranalyse – Ergebnis: –30 % Onboarding-Zeit

Trading Surveillance: Echtzeit-Verhaltensanalyse über multiple Signale (mit Deutscher Bank) – Pilotphase

Developer Productivity: Autonomer Coding-Agent Devin für 12.000 Entwickler – Ergebnis: 3–4x Produktivitätssteigerung

Governance: Human-in-the-Loop ist nicht genug

Goldmans Kontrollarchitektur

Goldman Sachs hat für seine AI-Agenten ein mehrschichtiges Kontrollsystem aufgebaut, das über das übliche „Human-in-the-Loop"-Versprechen hinausgeht. Die Architektur besteht aus vier Ebenen: programmatische Validierungsschichten für deterministische Überprüfungen, Retrieval Augmented Generation (RAG) zur Quellenverankerung, Chain-of-Verification-Prompting für mehrstufige Plausibilitätsprüfungen und vollständige Source Attribution mit lückenlosem Audit Trail.

Entscheidend ist dabei das Zusammenspiel: Die AI-Agenten operieren nicht in einem Vakuum, sondern sind in ein Geflecht aus regelbasierten Systemen eingebettet, die den Output des neuronalen Netzes gegen deterministische Geschäftslogik prüfen. Jede Agent-Aktion wird protokolliert, jede Entscheidungslogik kann von Risiko-Beauftragten und Regulierern nachvollzogen werden.

Wer haftet, wenn ein Agent entscheidet?

Die zentrale Frage, die Goldman bislang nur implizit beantwortet, lautet: Wer trägt die Verantwortung, wenn ein AI-Agent einen Fehler im Compliance-Prozess macht? Die Bank betont, dass menschliches Personal an mehreren Stellen eingreift und das letzte Wort behält. Doch mit steigendem Automatisierungsgrad wird diese Grenze diffuser.

Der EU AI Act gibt hier eine klare Antwort: Die Verantwortung liegt beim Deployer – also bei der Bank, nicht beim Technologieanbieter. Artikel 26 der Verordnung verpflichtet die einsetzende Organisation, sicherzustellen, dass das AI-System sicher und rechtskonform betrieben wird. IT-Führungskräfte sind letztverantwortlich. Kann ein Institut die Aktionen eines Agenten nicht nachvollziehen oder dessen Befugnisse nicht kontrollieren, lässt sich die sichere und rechtskonforme Nutzung gegenüber Regulierern nicht nachweisen.

Anforderung EU AI Act (ab August 2026) Goldman-Sachs-Ansatz
Audit Trail Zentralisiertes, verschlüsseltes Aktivitätsprotokoll für alle AI-Aktionen Vollständige Source Attribution und lückenloser Audit Trail
Human Oversight Mensch muss jede vorgeschlagene Aktion ablehnen können; ausreichend Kontext für informierte Entscheidung Human-in-the-Loop an mehreren Stellen; Agenten als „digitale Kollegen"
Agent Registry Jeder Agent eindeutig identifiziert mit dokumentierten Befugnissen und Fähigkeiten Model Risk Management (MRM) Framework mit Bias-Erkennung
Erklärbarkeit AI-Systeme von Drittanbietern müssen für Nutzer interpretierbar sein Chain-of-Verification-Prompting; RAG-Quellenverankerung
Verantwortlichkeit Deployer (Bank) ist verantwortlich, nicht der AI-Anbieter Interne Verantwortung betont; rechtliche Abgrenzung zu Anthropic nicht öffentlich

Die Branche bewegt sich: Von Piloten zur Skalierung

BNY Mellon: Digitale Mitarbeiter mit eigenen Logins

Goldman Sachs ist nicht allein. Die Bank of New York (BNY) Mellon hat einen Ansatz gewählt, der die Logik der „digitalen Kollegen" noch weiter treibt: Ihre AI-Agenten bekommen eigene Logins, werden konkreten Teams zugewiesen und sollen bald Zugang zu E-Mail und Microsoft Teams erhalten. BNYs AI Hub hat zwei digitale Mitarbeiter-Personas entwickelt – eine für die Identifikation und Behebung von Code-Schwachstellen, eine für die Validierung von Zahlungsanweisungen. Die Entwicklung beider dauerte drei Monate.

Der Unterschied zu Goldman liegt im Framing: Während Goldman seine Agenten als prozessunterstützende Werkzeuge positioniert, behandelt BNY sie als organisatorische Einheiten mit definierten Rollen und Kommunikationskanälen. Beide Ansätze haben Implikationen für die Governance – doch BNYs Modell wirft zusätzliche Fragen auf: Was passiert, wenn ein AI-Agent eigenständig eine E-Mail an einen Compliance-Beauftragten sendet, die eine falsche Risikoeinschätzung enthält?

Die Zahlen der Branche

Der NVIDIA State of AI in Financial Services Report 2026 beziffert die Adoptionsrate: 82 Prozent der befragten Finanzunternehmen setzen AI ein, 21 Prozent haben bereits AI-Agenten im Einsatz, 42 Prozent nutzen oder evaluieren Agentic AI. Gleichzeitig zeigt die Umfrage die Realität jenseits der Schlagzeilen: Nur zehn Prozent der Unternehmen haben die Technologie skaliert. Der Rest steckt in der Pilotphase.

KPMG schätzt die globalen Ausgaben für Agentic AI auf 50 Milliarden US-Dollar im Jahr 2025, der Anteil der Finance-Teams mit Agentic-AI-Einsatz soll 2026 bei 44 Prozent liegen – ein Anstieg von über 600 Prozent. Und laut einer Befragung von Banking-Führungskräften erwarten 57 Prozent, dass AI-Agenten innerhalb von drei Jahren vollständig in Risk-, Compliance- und Audit-Funktionen integriert sein werden.

Claude ist für datenintensive Reasoning-Probleme konzipiert, die Urteilsvermögen erfordern – dort, wo Regeln allein nicht mehr ausreichen. Jonathan Pelosi, Head of Financial Services, Anthropic

Der EU AI Act: Die Deadline, die Goldman nicht betrifft – europäische Banken aber sehr wohl

Was ab August 2026 gilt

Am 2. August 2026 treten die Anforderungen des EU AI Act für Hochrisiko-AI-Systeme in Kraft. AI-Agenten, die in Finanzfunktionen wie Compliance, Risikobewertung oder regulatorischem Reporting eingesetzt werden, fallen unter diese Kategorie. Die Anforderungen sind substanziell: technische Dokumentation der Entscheidungslogik, offene Architektur die isolierten Betrieb verhindert, strukturierte menschliche Aufsicht mit klaren Interventionspunkten und Kontrollmechanismen, die ein Stoppen oder Korrigieren des Systems ermöglichen.

Für europäische Banken, die Goldman Sachs' Ansatz adaptieren wollen, bedeutet das: Der Use Case ist vielversprechend, aber die regulatorischen Anforderungen sind höher als in den USA. Ein AI-Agent, der KYC-Entscheidungen trifft oder Trading Surveillance betreibt, muss nicht nur technisch funktionieren – er muss nachweisbar compliant sein. Die Strafandrohungen des EU AI Act lassen keinen Spielraum: Bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes für verbotene Praktiken, bis zu 15 Millionen Euro oder drei Prozent für sonstige Verstöße.

Die Governance-Lücke

Das fundamentale Problem für europäische Banken ist nicht die Technologie – es ist die Governance. Der EU AI Act verlangt, dass Behörden jederzeit Zugang zu Protokollen und technischer Dokumentation verlangen können. Agentic AI schafft hier eine besondere Herausforderung, weil diese Systeme handeln können, ohne dass ein klares Protokoll darüber existiert, was, wann und warum sie eine Entscheidung getroffen haben. Die Bereitstellung eines Prompts oder eines Konfidenzwerts allein reicht nicht aus – Entscheidungsträger benötigen Informationen über Kontext, Befugnisse des Agenten und verfügbare Interventionszeit.

Goldman Sachs' Ansatz – die Kombination aus RAG, Chain-of-Verification und programmatischer Validierung – geht in die richtige Richtung. Doch ob er den Anforderungen europäischer Regulierer standhält, muss sich erst zeigen. Die projizierten jährlichen Kosten der Nicht-Compliance für den europäischen Finanzsektor liegen bei über 2,5 Milliarden Euro.

Was europäische Banken von Goldman lernen können – und was nicht

Goldmans Vorstoß offenbart drei Muster, die über den konkreten Use Case hinausweisen. Erstens: Die erfolgreichsten AI-Agent-Implementierungen beginnen nicht mit der Technologie, sondern mit der Beobachtung realer Arbeitsprozesse. Die sechsmonatige Einbettung von Anthropic-Ingenieuren ist aufwändig, aber sie verhindert den häufigsten Fehler – AI auf Prozesse anzuwenden, die man nicht tief genug versteht.

Zweitens: Der Übergang vom Coding-Assistenten zum Compliance-Agenten war kein geplanter Strategiewechsel, sondern eine emergente Erkenntnis. Das spricht für einen explorativen Ansatz bei der AI-Agent-Adoption – aber es warnt auch: Wer AI-Agenten in kritische Compliance-Funktionen migriert, braucht eine Governance, die mit der Leistungsfähigkeit der Technologie Schritt hält.

Drittens zeigt Goldmans Ansatz die Grenzen der Übertragbarkeit. Eine Bank mit 46.000 Mitarbeitern, 12.000 Entwicklern und der Fähigkeit, sechs Monate lang externe Ingenieure einzubetten, operiert in einer anderen Realität als eine mittelgroße europäische Bank mit begrenztem IT-Budget und regulatorischem Druck auf mehreren Ebenen.

Handlungsempfehlungen für europäische Finanzinstitute

Der Goldman-Sachs-Case zeigt, dass AI-Agenten in Accounting und Compliance operativ einsatzfähig sind. Europäische Banken stehen damit vor einer doppelten Herausforderung: den technologischen Anschluss nicht zu verlieren und gleichzeitig die regulatorischen Anforderungen des EU AI Act ab August 2026 zu erfüllen.

1. High-Risk-Klassifizierung jetzt durchführen

Sofort: Jedes Institut sollte eine Bestandsaufnahme seiner AI-Systeme vornehmen und prüfen, welche unter die High-Risk-Kategorie des EU AI Act fallen. AI-Agenten in Compliance, KYC/AML, Risikobewertung und regulatorischem Reporting sind mit hoher Wahrscheinlichkeit betroffen. Bis August 2026 müssen technische Dokumentation, Human-Oversight-Mechanismen und Audit Trails implementiert sein.

2. Agent Registry und Audit Trail aufbauen

Q2 2026: Der EU AI Act verlangt, dass jeder Agent eindeutig identifiziert und seine Befugnisse dokumentiert sind. Institute sollten ein zentrales Agent Registry etablieren, das Fähigkeiten, Berechtigungen und Entscheidungsprotokolle für jeden eingesetzten AI-Agenten erfasst. Ein lückenloser Audit Trail ist keine optionale Best Practice – er ist regulatorische Pflicht.

3. Governance vor Skalierung

Q2–Q3 2026: Goldmans Kontrollarchitektur – programmatische Validierung, RAG-Quellenverankerung, Chain-of-Verification – bietet eine Blaupause, die europäische Banken adaptieren können. Entscheidend: Die Governance-Infrastruktur muss vor der Skalierung der Agenten stehen, nicht danach. Das bedeutet konkret: Model Risk Management Frameworks um AI-Agenten erweitern, Verantwortlichkeiten klar zuweisen und Eskalationspfade definieren.

4. Use Cases mit hohem Automatisierungspotenzial identifizieren

Q3 2026: Trade Reconciliation, KYC-Onboarding und Transaction Monitoring bieten – wie der Goldman-Case zeigt – das größte Potenzial für AI-Agent-Automatisierung. Europäische Banken sollten diese Prozesse im Detail analysieren: Wo liegen die Exception Queues? Welche Schritte erfordern Urteilsvermögen, welche sind regelbasiert? Goldmans Methode der Prozessbeobachtung durch eingebettete Ingenieure ist aufwändig, aber effektiv.

5. Kompetenzaufbau: Von AI-Nutzern zu AI-Aufsehern

Laufend: 92 Prozent der Banken melden eine Kompetenzlücke bei AI-Agent-Deployment. Die Rolle des Compliance-Officers verschiebt sich vom manuellen Fallbearbeiter zum AI-Aufseher. Institute müssen in die Ausbildung investieren – nicht nur für IT-Teams, sondern für Compliance-, Risk- und Audit-Funktionen, die künftig AI-Agent-Outputs bewerten und freigeben.

Goldman Sachs hat mit seinen AI-Agenten für Accounting und Compliance einen Referenzpunkt gesetzt, an dem sich die gesamte Branche messen wird. Die Frage für europäische Banken ist nicht, ob sie AI-Agenten in diesen Funktionen einsetzen werden – sondern ob sie bereit sind, es unter den strengeren regulatorischen Bedingungen des EU AI Act zu tun, bevor der Wettbewerbsvorsprung der Early Adopter uneinholbar wird.

Timeline: AI-Agenten im Banking – Von Goldman bis zum EU AI Act
Schlüsselmomente der Adoption und Regulierung
Juli 2025
Goldman Sachs pilotiert Devin als autonomen Coding-Agenten
Erste Tier-1-Bank mit autonomem Software-Ingenieur; 3–4x Produktivitätssteigerung gegenüber bisherigen AI-Tools.
H2 2025
Goldman beginnt Embedded-Partnerschaft mit Anthropic
Sechs Monate Co-Development von AI-Agenten für Trade Accounting und Client Onboarding.
Juli 2025
BNY Mellon führt digitale Mitarbeiter ein
AI-Agenten mit eigenen Logins für Code-Prüfung und Payment-Validierung.
Februar 2026
Goldman-Anthropic-Partnerschaft wird öffentlich
Ankündigung der Claude-basierten Agenten für Accounting und Compliance; Ergebnisse: –30 % Onboarding-Zeit.
Februar/März 2026
Goldman und Deutsche Bank testen AI-Surveillance
Agentic AI für Trading Surveillance – Goldman mit Anthropic, Deutsche Bank mit Google Cloud.
2. August 2026
EU AI Act: High-Risk-Anforderungen treten in Kraft
AI-Agenten in Finanzfunktionen müssen Audit Trail, Human Oversight und technische Dokumentation nachweisen.
H2 2026
Erwarteter Produktions-Rollout bei Goldman
Übergang von Pilotprojekten zu produktiven AI-Agenten in Back-Office-Funktionen.
Christian Schablitzki

Christian Schablitzki

Strategy & Management Consultant · Agentic-AI-Experte für Finanzinstitute

Über 20 Jahre in Investmentbanking und Derivatehandel, anschließend mehr als 10 Jahre als Berater für Finanzinstitute. Aktuell Partner bei Infosys Consulting in Deutschland. Zertifiziert in Google AI, Generative AI Leader (Google Cloud) und IBM RAG and Agentic AI.

LinkedIn-Profil →
newsletter
the agentic banker

Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.

Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.

DSGVO-konform. Jederzeit abbestellbar.

← Zurück zur Übersicht