Im Februar 2026 machte Goldman Sachs eine Ankündigung, die weit über Wall Street hinaus Wellen schlug: Die Investmentbank hat sechs Monate lang Ingenieure von Anthropic in ihre Technologieteams eingebettet, um autonome AI-Agenten für Trade Accounting und Client Onboarding zu entwickeln. Es ist der bislang ambitionierteste Vorstoß einer Tier-1-Bank, regelbasierte Back-Office-Prozesse durch AI-Agenten zu automatisieren – nicht als Pilotprojekt in einer Innovation-Sandbox, sondern als operatives Werkzeug für Prozesse, die Billionen an Assets bewegen.
Für europäische Finanzinstitute ist dieser Schritt aus zwei Gründen relevant. Erstens: Goldman zeigt, was technisch bereits möglich ist, wenn eine Bank AI-Agenten nicht als Chatbot-Erweiterung begreift, sondern als autonome Prozessakteure in Kernfunktionen wie Reconciliation, Know Your Customer (KYC) und Anti-Money Laundering (AML). Zweitens: Am 2. August 2026 treten die High-Risk-Anforderungen des EU AI Act in Kraft – und AI-Agenten, die Compliance-Entscheidungen treffen, fallen genau in diese Kategorie.
Was: Goldman Sachs entwickelt mit Anthropic autonome AI-Agenten für Accounting, Compliance und Onboarding
Technologie: Anthropic Claude, co-entwickelt in sechsmonatiger Embedded-Partnerschaft
Use Cases: Trade Accounting, Reconciliation, KYC/AML-Screening, Trading Surveillance
Ergebnisse: Onboarding-Zeiten –30 %, Developer-Produktivität +20 %, Exception Queues –80 % (Zielwert)
EU-Kontext: Ab 2. August 2026 gelten High-Risk-Anforderungen des EU AI Act für AI in Finanzfunktionen
Die Anthropic-Partnerschaft: Vom Coding-Assistenten zum Compliance-Agenten
Sechs Monate Embedded Engineering
Der Weg zu autonomen AI-Agenten bei Goldman Sachs begann nicht mit einem strategischen Masterplan, sondern mit einer Beobachtung. Als Goldman-Entwickler Anthropics Claude zunächst als Coding-Assistenten testeten, fiel auf, dass die Reasoning-Fähigkeiten des Modells über einfache Code-Generierung hinausgingen. Marco Argenti, Chief Information Officer (CIO) von Goldman Sachs, beschrieb den Moment so: Die Ingenieure erkannten, dass Claudes Schlussfolgerungsfähigkeiten stark genug waren, um komplexere Finanzaufgaben zu bewältigen.
Was folgte, war eine für die Finanzbranche ungewöhnliche Form der Zusammenarbeit. Goldman bettete Anthropic-Ingenieure für sechs Monate direkt in die eigenen Technologieteams ein. Diese arbeiteten Seite an Seite mit Fachexperten der Bank – nicht in einem abgeschirmten Lab, sondern direkt an den Prozessen, die automatisiert werden sollten. Sie beobachteten, wie Mitarbeiter ihre Rechner navigieren, wo Prozesse ins Stocken geraten und wie die tatsächliche Arbeit in der Praxis aussieht.
Jonathan Pelosi, Head of Financial Services bei Anthropic, formulierte den Ansatz aus der Perspektive des Technologiepartners: Claude sei für datenintensive Reasoning-Probleme konzipiert, die Urteilsvermögen erfordern – dort, wo Regeln allein nicht mehr ausreichen. Diese Positionierung ist kein Marketing-Claim: Trade Accounting und Compliance sind genau die Domänen, in denen regelbasierte Automatisierung seit Jahrzehnten an ihre Grenzen stößt, weil Ausnahmen, Sonderfälle und kontextabhängige Entscheidungen den Großteil der Arbeitslast ausmachen.
Die konkreten Use Cases: Was Goldman automatisiert
Trade Accounting und Reconciliation
Der erste und am weitesten fortgeschrittene Einsatzbereich ist das Trade Accounting. Die AI-Agenten verarbeiten Transaktionsdaten, gleichen sie gegen regulatorische Rahmenwerke ab und identifizieren Diskrepanzen in der Buchführung. Goldman erwartet, die Exception Queues – jene Warteschlangen ungelöster Abweichungen, die bislang manuell bearbeitet werden – um 80 Prozent zu reduzieren. Das ist keine inkrementelle Verbesserung; es ist ein Paradigmenwechsel für eine Funktion, die in den meisten Banken noch immer auf Spreadsheets und manuellen Workflows basiert.
Der entscheidende Unterschied zu bisherigen Automatisierungsversuchen: Die Agenten verarbeiten nicht nur strukturierte Daten nach festen Regeln. Sie wenden kontextabhängige Logik auf mehrstufige Workflows an, die bislang menschliches Urteilsvermögen erforderten. In Argentis Worten könnten Teams damit die fünf- bis zehnfache Fallzahl bewältigen – oder dieselbe Zahl in einem Bruchteil der Zeit.
Client Onboarding und KYC/AML
Der zweite zentrale Use Case betrifft das Client Onboarding, einschließlich der KYC- und AML-Prüfungen. Die AI-Agenten überprüfen Dokumente, extrahieren relevante Entitäten, analysieren Eigentümerstrukturen und identifizieren wirtschaftliche Berechtigte. Interne Tests zeigten eine Reduktion der Onboarding-Zeiten um 30 Prozent.
Besonders bemerkenswert ist die Fähigkeit der Agenten, bei der Verifizierung von Ausweisdokumenten Diskrepanzen zu erkennen – eine Aufgabe, die bislang hochqualifizierte Compliance-Mitarbeiter erforderte. Der Agent prüft nicht nur, ob ein Dokument formal korrekt ist, sondern kann Inkonsistenzen zwischen verschiedenen Datenquellen flaggen und so potenzielle Geldwäsche-Risiken frühzeitig identifizieren.
Trading Surveillance: Das gemeinsame Projekt mit der Deutschen Bank
Parallel zur Accounting-Initiative arbeitet Goldman Sachs an einem weiteren, besonders sensiblen Einsatzbereich: der handelsbezogenen Überwachung. Zusammen mit der Deutschen Bank testet Goldman AI-Agenten für Trading Surveillance. Beide Institute haben unabhängig voneinander begonnen, die nächste Generation der Marktmissbrauchserkennung zu entwickeln.
Der fundamentale Unterschied zu herkömmlichen Surveillance-Systemen: Statt statische Regeln mit festen Schwellenwerten anzuwenden, analysieren die AI-Agenten Handelsverhalten über multiple Signale in Echtzeit. Sie vergleichen aktuelle Aktivitäten mit historischen Mustern und flaggen Konstellationen, die keiner klaren Regel widersprechen, aber dennoch als ungewöhnlich auffallen. Goldman kooperiert dabei mit Anthropic, die Deutsche Bank mit Google Cloud.
Trade Accounting: Transaktionsabgleich, Exception-Handling, regelbasierte Buchführung – Ziel: –80 % Exception Queues
Client Onboarding: KYC, AML-Screening, Dokumentenprüfung, Eigentümeranalyse – Ergebnis: –30 % Onboarding-Zeit
Trading Surveillance: Echtzeit-Verhaltensanalyse über multiple Signale (mit Deutscher Bank) – Pilotphase
Developer Productivity: Autonomer Coding-Agent Devin für 12.000 Entwickler – Ergebnis: 3–4x Produktivitätssteigerung
Governance: Human-in-the-Loop ist nicht genug
Goldmans Kontrollarchitektur
Goldman Sachs hat für seine AI-Agenten ein mehrschichtiges Kontrollsystem aufgebaut, das über das übliche „Human-in-the-Loop"-Versprechen hinausgeht. Die Architektur besteht aus vier Ebenen: programmatische Validierungsschichten für deterministische Überprüfungen, Retrieval Augmented Generation (RAG) zur Quellenverankerung, Chain-of-Verification-Prompting für mehrstufige Plausibilitätsprüfungen und vollständige Source Attribution mit lückenlosem Audit Trail.
Entscheidend ist dabei das Zusammenspiel: Die AI-Agenten operieren nicht in einem Vakuum, sondern sind in ein Geflecht aus regelbasierten Systemen eingebettet, die den Output des neuronalen Netzes gegen deterministische Geschäftslogik prüfen. Jede Agent-Aktion wird protokolliert, jede Entscheidungslogik kann von Risiko-Beauftragten und Regulierern nachvollzogen werden.
Wer haftet, wenn ein Agent entscheidet?
Die zentrale Frage, die Goldman bislang nur implizit beantwortet, lautet: Wer trägt die Verantwortung, wenn ein AI-Agent einen Fehler im Compliance-Prozess macht? Die Bank betont, dass menschliches Personal an mehreren Stellen eingreift und das letzte Wort behält. Doch mit steigendem Automatisierungsgrad wird diese Grenze diffuser.
Der EU AI Act gibt hier eine klare Antwort: Die Verantwortung liegt beim Deployer – also bei der Bank, nicht beim Technologieanbieter. Artikel 26 der Verordnung verpflichtet die einsetzende Organisation, sicherzustellen, dass das AI-System sicher und rechtskonform betrieben wird. IT-Führungskräfte sind letztverantwortlich. Kann ein Institut die Aktionen eines Agenten nicht nachvollziehen oder dessen Befugnisse nicht kontrollieren, lässt sich die sichere und rechtskonforme Nutzung gegenüber Regulierern nicht nachweisen.
| Anforderung | EU AI Act (ab August 2026) | Goldman-Sachs-Ansatz |
|---|---|---|
| Audit Trail | Zentralisiertes, verschlüsseltes Aktivitätsprotokoll für alle AI-Aktionen | Vollständige Source Attribution und lückenloser Audit Trail |
| Human Oversight | Mensch muss jede vorgeschlagene Aktion ablehnen können; ausreichend Kontext für informierte Entscheidung | Human-in-the-Loop an mehreren Stellen; Agenten als „digitale Kollegen" |
| Agent Registry | Jeder Agent eindeutig identifiziert mit dokumentierten Befugnissen und Fähigkeiten | Model Risk Management (MRM) Framework mit Bias-Erkennung |
| Erklärbarkeit | AI-Systeme von Drittanbietern müssen für Nutzer interpretierbar sein | Chain-of-Verification-Prompting; RAG-Quellenverankerung |
| Verantwortlichkeit | Deployer (Bank) ist verantwortlich, nicht der AI-Anbieter | Interne Verantwortung betont; rechtliche Abgrenzung zu Anthropic nicht öffentlich |
Die Branche bewegt sich: Von Piloten zur Skalierung
BNY Mellon: Digitale Mitarbeiter mit eigenen Logins
Goldman Sachs ist nicht allein. Die Bank of New York (BNY) Mellon hat einen Ansatz gewählt, der die Logik der „digitalen Kollegen" noch weiter treibt: Ihre AI-Agenten bekommen eigene Logins, werden konkreten Teams zugewiesen und sollen bald Zugang zu E-Mail und Microsoft Teams erhalten. BNYs AI Hub hat zwei digitale Mitarbeiter-Personas entwickelt – eine für die Identifikation und Behebung von Code-Schwachstellen, eine für die Validierung von Zahlungsanweisungen. Die Entwicklung beider dauerte drei Monate.
Der Unterschied zu Goldman liegt im Framing: Während Goldman seine Agenten als prozessunterstützende Werkzeuge positioniert, behandelt BNY sie als organisatorische Einheiten mit definierten Rollen und Kommunikationskanälen. Beide Ansätze haben Implikationen für die Governance – doch BNYs Modell wirft zusätzliche Fragen auf: Was passiert, wenn ein AI-Agent eigenständig eine E-Mail an einen Compliance-Beauftragten sendet, die eine falsche Risikoeinschätzung enthält?
Die Zahlen der Branche
Der NVIDIA State of AI in Financial Services Report 2026 beziffert die Adoptionsrate: 82 Prozent der befragten Finanzunternehmen setzen AI ein, 21 Prozent haben bereits AI-Agenten im Einsatz, 42 Prozent nutzen oder evaluieren Agentic AI. Gleichzeitig zeigt die Umfrage die Realität jenseits der Schlagzeilen: Nur zehn Prozent der Unternehmen haben die Technologie skaliert. Der Rest steckt in der Pilotphase.
KPMG schätzt die globalen Ausgaben für Agentic AI auf 50 Milliarden US-Dollar im Jahr 2025, der Anteil der Finance-Teams mit Agentic-AI-Einsatz soll 2026 bei 44 Prozent liegen – ein Anstieg von über 600 Prozent. Und laut einer Befragung von Banking-Führungskräften erwarten 57 Prozent, dass AI-Agenten innerhalb von drei Jahren vollständig in Risk-, Compliance- und Audit-Funktionen integriert sein werden.
Der EU AI Act: Die Deadline, die Goldman nicht betrifft – europäische Banken aber sehr wohl
Was ab August 2026 gilt
Am 2. August 2026 treten die Anforderungen des EU AI Act für Hochrisiko-AI-Systeme in Kraft. AI-Agenten, die in Finanzfunktionen wie Compliance, Risikobewertung oder regulatorischem Reporting eingesetzt werden, fallen unter diese Kategorie. Die Anforderungen sind substanziell: technische Dokumentation der Entscheidungslogik, offene Architektur die isolierten Betrieb verhindert, strukturierte menschliche Aufsicht mit klaren Interventionspunkten und Kontrollmechanismen, die ein Stoppen oder Korrigieren des Systems ermöglichen.
Für europäische Banken, die Goldman Sachs' Ansatz adaptieren wollen, bedeutet das: Der Use Case ist vielversprechend, aber die regulatorischen Anforderungen sind höher als in den USA. Ein AI-Agent, der KYC-Entscheidungen trifft oder Trading Surveillance betreibt, muss nicht nur technisch funktionieren – er muss nachweisbar compliant sein. Die Strafandrohungen des EU AI Act lassen keinen Spielraum: Bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes für verbotene Praktiken, bis zu 15 Millionen Euro oder drei Prozent für sonstige Verstöße.
Die Governance-Lücke
Das fundamentale Problem für europäische Banken ist nicht die Technologie – es ist die Governance. Der EU AI Act verlangt, dass Behörden jederzeit Zugang zu Protokollen und technischer Dokumentation verlangen können. Agentic AI schafft hier eine besondere Herausforderung, weil diese Systeme handeln können, ohne dass ein klares Protokoll darüber existiert, was, wann und warum sie eine Entscheidung getroffen haben. Die Bereitstellung eines Prompts oder eines Konfidenzwerts allein reicht nicht aus – Entscheidungsträger benötigen Informationen über Kontext, Befugnisse des Agenten und verfügbare Interventionszeit.
Goldman Sachs' Ansatz – die Kombination aus RAG, Chain-of-Verification und programmatischer Validierung – geht in die richtige Richtung. Doch ob er den Anforderungen europäischer Regulierer standhält, muss sich erst zeigen. Die projizierten jährlichen Kosten der Nicht-Compliance für den europäischen Finanzsektor liegen bei über 2,5 Milliarden Euro.
Was europäische Banken von Goldman lernen können – und was nicht
Goldmans Vorstoß offenbart drei Muster, die über den konkreten Use Case hinausweisen. Erstens: Die erfolgreichsten AI-Agent-Implementierungen beginnen nicht mit der Technologie, sondern mit der Beobachtung realer Arbeitsprozesse. Die sechsmonatige Einbettung von Anthropic-Ingenieuren ist aufwändig, aber sie verhindert den häufigsten Fehler – AI auf Prozesse anzuwenden, die man nicht tief genug versteht.
Zweitens: Der Übergang vom Coding-Assistenten zum Compliance-Agenten war kein geplanter Strategiewechsel, sondern eine emergente Erkenntnis. Das spricht für einen explorativen Ansatz bei der AI-Agent-Adoption – aber es warnt auch: Wer AI-Agenten in kritische Compliance-Funktionen migriert, braucht eine Governance, die mit der Leistungsfähigkeit der Technologie Schritt hält.
Drittens zeigt Goldmans Ansatz die Grenzen der Übertragbarkeit. Eine Bank mit 46.000 Mitarbeitern, 12.000 Entwicklern und der Fähigkeit, sechs Monate lang externe Ingenieure einzubetten, operiert in einer anderen Realität als eine mittelgroße europäische Bank mit begrenztem IT-Budget und regulatorischem Druck auf mehreren Ebenen.
Handlungsempfehlungen für europäische Finanzinstitute
Der Goldman-Sachs-Case zeigt, dass AI-Agenten in Accounting und Compliance operativ einsatzfähig sind. Europäische Banken stehen damit vor einer doppelten Herausforderung: den technologischen Anschluss nicht zu verlieren und gleichzeitig die regulatorischen Anforderungen des EU AI Act ab August 2026 zu erfüllen.
Sofort: Jedes Institut sollte eine Bestandsaufnahme seiner AI-Systeme vornehmen und prüfen, welche unter die High-Risk-Kategorie des EU AI Act fallen. AI-Agenten in Compliance, KYC/AML, Risikobewertung und regulatorischem Reporting sind mit hoher Wahrscheinlichkeit betroffen. Bis August 2026 müssen technische Dokumentation, Human-Oversight-Mechanismen und Audit Trails implementiert sein.
Q2 2026: Der EU AI Act verlangt, dass jeder Agent eindeutig identifiziert und seine Befugnisse dokumentiert sind. Institute sollten ein zentrales Agent Registry etablieren, das Fähigkeiten, Berechtigungen und Entscheidungsprotokolle für jeden eingesetzten AI-Agenten erfasst. Ein lückenloser Audit Trail ist keine optionale Best Practice – er ist regulatorische Pflicht.
Q2–Q3 2026: Goldmans Kontrollarchitektur – programmatische Validierung, RAG-Quellenverankerung, Chain-of-Verification – bietet eine Blaupause, die europäische Banken adaptieren können. Entscheidend: Die Governance-Infrastruktur muss vor der Skalierung der Agenten stehen, nicht danach. Das bedeutet konkret: Model Risk Management Frameworks um AI-Agenten erweitern, Verantwortlichkeiten klar zuweisen und Eskalationspfade definieren.
Q3 2026: Trade Reconciliation, KYC-Onboarding und Transaction Monitoring bieten – wie der Goldman-Case zeigt – das größte Potenzial für AI-Agent-Automatisierung. Europäische Banken sollten diese Prozesse im Detail analysieren: Wo liegen die Exception Queues? Welche Schritte erfordern Urteilsvermögen, welche sind regelbasiert? Goldmans Methode der Prozessbeobachtung durch eingebettete Ingenieure ist aufwändig, aber effektiv.
Laufend: 92 Prozent der Banken melden eine Kompetenzlücke bei AI-Agent-Deployment. Die Rolle des Compliance-Officers verschiebt sich vom manuellen Fallbearbeiter zum AI-Aufseher. Institute müssen in die Ausbildung investieren – nicht nur für IT-Teams, sondern für Compliance-, Risk- und Audit-Funktionen, die künftig AI-Agent-Outputs bewerten und freigeben.
Goldman Sachs hat mit seinen AI-Agenten für Accounting und Compliance einen Referenzpunkt gesetzt, an dem sich die gesamte Branche messen wird. Die Frage für europäische Banken ist nicht, ob sie AI-Agenten in diesen Funktionen einsetzen werden – sondern ob sie bereit sind, es unter den strengeren regulatorischen Bedingungen des EU AI Act zu tun, bevor der Wettbewerbsvorsprung der Early Adopter uneinholbar wird.
Lesen Sie weiter – alle 14 Tage in Ihrem Postfach.
Kapitalmarkt-Insights, Regulierungs-Updates und AI-Trends. Kompakt, fundiert, kostenlos.
DSGVO-konform. Jederzeit abbestellbar.