Goldman Sachs entwickelt mit Anthropics Claude autonome KI-Agenten für Handelsbuchhaltung, Kunden-Onboarding und Compliance-Aufgaben über 2,5 Billionen Dollar Assets under Supervision. Die Bank hat sechs Monate lang Anthropic-Ingenieure direkt in ihre Technologieteams eingebettet. Erste Ergebnisse: 30% schnelleres Client-Onboarding und über 20% höhere Entwicklerproduktivität. Mehr als 12.000 Goldman-Entwickler arbeiten täglich mit Claude.
Das ist kein Chatbot auf einer internen Wissensdatenbank. Goldman setzt Agenten ein, die mehrstufige Compliance-Prozesse durchdenken, Millionen von Transaktionen analysieren und regulatorische Beurteilungen in einem Umfang treffen, der sonst Hunderte zusätzliche Backoffice-Stellen erfordern würde.
Was Goldman konkret mit Claude baut
Goldmans Chief Information Officer Marco Argenti erklärte gegenüber CNBC, die Bank sei “überrascht” gewesen, wie leistungsfähig Claude bei Aufgaben jenseits des Codings sei. Die Agenten werden in zwei Bereichen eingesetzt.
Handelsbuchhaltung und Trade-Reconciliation
Der erste Bereich betrifft Trade-Reconciliation und Transaktionsbuchhaltung. Goldman verarbeitet jährlich Millionen von Transaktionen. Jede einzelne muss abgeglichen, verifiziert und zwischen Gegenparteien, Depotbanken und Clearinghäusern abgestimmt werden. Wenn Datensätze nicht übereinstimmen, muss jemand nachforschen, und diese Nachforschung erfordert gleichzeitiges Verständnis von Verträgen, Kapitalmaßnahmen und Settlement-Regeln.
Die Claude-basierten Agenten prüfen diese Transaktionen, markieren Abweichungen und lösen eindeutige Diskrepanzen ohne menschliches Eingreifen. Komplexe Fälle werden mit einer vorgefertigten Analyse eskaliert: Was ist schiefgelaufen, was ist die wahrscheinliche Lösung? Settlement-Verzögerungen sinken, weil die Agenten rund um die Uhr arbeiten und nicht auf die Morgen-Queue warten.
KYC, AML und Client-Onboarding
Der zweite Bereich umfasst Know-Your-Customer (KYC) und Anti-Geldwäsche (AML) Compliance beim Kunden-Onboarding. Dieser Prozess beinhaltet das Sammeln von Identitätsdokumenten, die Prüfung von wirtschaftlich Berechtigten, den Abgleich mit Sanktionslisten und die Anwendung von Risikobewertungen, die sich mit jeder regulatorischen Aktualisierung ändern.
Das sind Aufgaben, die Dokumentenanalyse, Regelanwendung und Urteilsvermögen kombinieren. Ein einziges institutionelles Kunden-Onboarding kann Hunderte von Seiten Dokumentation über mehrere Jurisdiktionen umfassen. Die Agenten interpretieren regulatorische Texte, führen mehrstufige Verifikationsprozesse durch und markieren Auffälligkeiten. Die mediane Onboarding-Zeit sinkt um 30%.
Für europäische Finanzinstitute ist das besonders relevant: KYC/AML-Anforderungen unter der 5. und 6. EU-Geldwäscherichtlinie sind mindestens so komplex wie die US-Regularien. Die Deutsche Bank und die BaFin haben wiederholt auf die wachsende Prüflast hingewiesen.
Der technische Stack
Das Deployment läuft auf Claude Opus 4.6 mit einem 1-Million-Token-Kontextfenster in der Beta-Phase. Das Kontextfenster ist hier keine Marketing-Zahl: Ein vollständiges KYC-Paket für einen multinationalen Unternehmenskunden mit Tochtergesellschaften in 15 Jurisdiktionen kann leicht 500.000 Token an Dokumentation überschreiten. Die Agenten arbeiten innerhalb von Anthropics Cowork-Umgebung, die als Sandbox-Layer für mehrstufige autonome Workflows dient.
Warum Goldman Anthropic statt OpenAI wählte
Goldmans Entscheidung für Anthropic ist kein Zufall. Mehrere Quellen berichten, dass die Bank verschiedene Foundation-Model-Anbieter evaluierte und sich aus drei Gründen für Anthropic entschied.
Sicherheit und Interpretierbarkeit
Finanzregulatoren verlangen Nachvollziehbarkeit. Wenn ein KI-Agent eine Transaktion als verdächtig markiert oder einen Kunden durch die KYC-Prüfung führt, muss die Bank Prüfern und Aufsichtsbehörden zeigen können, wie diese Entscheidung zustande kam. Anthropics Fokus auf Constitutional AI und Interpretierbarkeitsforschung passt zu den Dokumentationspflichten, denen Banken unter SEC-, OCC- und Fed-Regularien unterliegen.
Für DACH-Banken gilt Vergleichbares: Die BaFin erwartet unter dem MaRisk-Rahmenwerk volle Transparenz bei algorithmischen Entscheidungen. Der EU AI Act, der ab August 2026 für Hochrisiko-KI-Systeme gilt, wird diese Anforderungen noch verschärfen.
Das Embedded-Engineering-Modell
Statt nur eine API zu kaufen und intern zu bauen, hat Goldman Anthropic-Ingenieure sechs Monate lang direkt in seine Technologieteams eingebettet. Dieses Co-Development-Modell bedeutet, dass die Agenten mit Domänenwissen beider Seiten gebaut wurden: Goldmans Leute verstehen Settlement-Workflows und Compliance-Prozesse, Anthropics Leute verstehen, wie man zuverlässige Agent-Systeme architekturiert.
Der Ansatz ist teuer, reduziert aber den häufigsten Fehler bei Enterprise-KI-Projekten: Etwas zu bauen, das in der Demo funktioniert, aber an realen Sonderfällen scheitert. Goldmans Compliance-Workflows haben Tausende von Sonderfällen, die erst beim Verarbeiten echter Transaktionen sichtbar werden.
Zuverlässigkeit für regulierte Branchen
Bankwesen ist kein Bereich, in dem man 5% Fehlerrate tolerieren und iterieren kann. Ein False Negative beim AML-Screening kann Bußgelder in dreistelliger Millionenhöhe nach sich ziehen. Ein False Positive beim KYC kann umsatzgenerierende Kundenbeziehungen verzögern. Goldman braucht Agenten, die zuverlässig genug sind, um bei Routinefällen mit begrenzter menschlicher Aufsicht zu operieren und bei ungewöhnlichen Fällen korrekt zu eskalieren.
Was das für die Belegschaft der Wall Street bedeutet
CEO David Solomon hat die Strategie deutlich gemacht: Goldman wird kurzfristig keine Stellen abbauen, aber das Personalwachstum begrenzen. Die Bank beschreibt die Agenten als “digitale Kollegen” statt als Ersatz.
Die Rechnung hinter “Personalwachstum begrenzen”
Goldman hat rund 46.000 Mitarbeiter. Backoffice-Operationen, einschließlich Buchhaltung, Compliance und Kundenservice, machen einen erheblichen Teil davon aus. Bei wachsenden Assets under Supervision (von 2,0 auf 2,5 Billionen Dollar in den letzten Jahren) würde der traditionelle Ansatz proportionale Neueinstellungen erfordern.
Wenn KI-Agenten die zusätzliche Arbeitslast durch Wachstum ohne Personalaufbau bewältigen können, hält Goldman seine Cost-Income-Ratio stabil und expandiert gleichzeitig. Das ist ein stärkeres finanzielles Argument als 2.000 Stellen zu streichen, was schlechte Presse erzeugt und das Skalierungsproblem nicht löst.
Für deutsche Großbanken wie die Deutsche Bank oder Commerzbank, die unter erheblichem Kostendruck stehen und gleichzeitig regulatorische Anforderungen erfüllen müssen, bietet dieses Modell einen Referenzpunkt. Die Deutsche Bank hat unter CEO Christian Sewing bereits eine ähnliche Strategie skizziert: KI-gestützte Effizienzsteigerung statt Kahlschlag.
Wer ist tatsächlich betroffen?
Die Agenten zielen auf Arbeit ab, die repetitiv, regelintensiv und dokumentenlastig ist. Junior-Compliance-Analysten, die ihren Tag mit dem Abgleich von Transaktionen gegen Settlement-Records verbringen, sind am direktesten betroffen. Senior-Compliance-Beauftragte, die Ermessensentscheidungen bei neuartigen Situationen treffen, sind weniger betroffen, weil die Agenten solche Fälle eskalieren statt eigenständig zu lösen.
Die interessantere Verschiebung liegt bei der Entwicklerproduktivität. Mit 12.000+ Entwicklern, die Claude für Coding-Aufgaben nutzen und 20%+ Produktivitätsgewinne sehen, kann Goldman mehr interne Tools mit demselben Team ausliefern. Das verstärkt sich über die Zeit: mehr Automatisierung, schneller gebaut, was die Verschiebung weiter beschleunigt.
Wie andere Banken im Vergleich stehen
Goldmans Deployment steht nicht isoliert da. Der breitere KI-Wettlauf an der Wall Street gibt Kontext.
JPMorgan Chase gibt jährlich rund 18 Milliarden Dollar für Technologie aus und ist mit seiner “OmniAI”-Plattform von Pilotprojekten zu über 400 produktiven KI-Anwendungsfällen übergegangen. JPMorgan hat kürzlich externe Proxy-Beratungsfirmen durch ein internes KI-Tool namens “Proxy IQ” für Abstimmungsentscheidungen bei US-Aktien ersetzt.
Morgan Stanley hat ein OpenAI-basiertes internes Tool für Finanzberater eingesetzt, das die über 70.000 Research-Berichte der Firma durchsuchbar macht. Bis Ende 2023 nutzten 98% der Beraterteams es regelmäßig.
Citi hat “Stylus Workspaces” gestartet, eine agentische Plattform für Workflow-Automatisierung im Bankgeschäft.
Der Unterschied bei Goldmans Ansatz ist die Spezifität. Während JPMorgan und Morgan Stanley mit Wissensretrieval (Suche über Dokumente) begannen, ging Goldman direkt zu autonomen Agenten, die mehrstufige Prozesse ausführen. Das ist eine riskantere Wette mit höherem potenziellem Ertrag.
Was Unternehmen von Goldmans Ansatz lernen können
Goldmans Deployment bietet ein Playbook, das über das Bankwesen hinaus anwendbar ist.
Mit regelintensiven, dokumentenlastigen Prozessen starten. Goldman hat nicht bei Anlagestrategien oder Kundenberatung begonnen. Sie starteten dort, wo die Regeln klar sind, die Dokumente strukturiert und die Kosten von Fehlern messbar. Trade-Reconciliation und KYC-Compliance sind ideale Agent-Zielfelder, weil Erfolg objektiv ist: Entweder stimmt die Transaktion überein oder nicht. Entweder besteht der Kunde das Screening oder nicht.
Vendor-Ingenieure einbetten. Die sechsmonatige eingebettete Partnerschaft ist das wichtigste Detail dieser Geschichte. Die meisten Enterprise-KI-Projekte scheitern an der Lücke zwischen dem, was das Modell im Labor kann, und dem, was das Unternehmen tatsächlich braucht. Die Einbettung von Anthropic-Ingenieuren in Goldmans Teams schloss diese Lücke, indem beide Seiten frühzeitig mit realen Sonderfällen konfrontiert wurden.
Kapazitätsgewinne messen, nicht nur Kostensenkungen. Goldmans Formulierung “Personalwachstum begrenzen” statt “Personal abbauen” ist strategisch klug. Sie vermeidet die politischen Kosten von Entlassungen und sichert gleichzeitig den finanziellen Nutzen. Für CFOs, die KI-Agent-Projekte evaluieren, ist diese Rahmung leichter zu genehmigen, weil sie Wachstum unterstützt statt in die bestehende Organisation einzugreifen.
Observability von Tag eins an einbauen. Agenten, die über 2,5 Billionen Dollar Assets operieren, brauchen umfassende Audit-Trails. Jede Entscheidung, jede Eskalation, jede gelöste Diskrepanz muss in einem Format protokolliert werden, das Regulatoren prüfen können. Laut PYMNTS haben bisher nur 7% der CFOs agentische KI in Live-Workflows eingesetzt, aber 70% sind “sehr oder äußerst interessiert.” Erfolgreich werden diejenigen sein, die den Compliance- und Observability-Layer zuerst aufbauen, nicht nachträglich.
Häufig gestellte Fragen
Welche KI-Agenten baut Goldman Sachs mit Anthropic?
Goldman Sachs entwickelt autonome KI-Agenten auf Basis von Anthropics Claude Opus 4.6 für Handelsbuchhaltung, Transaktions-Reconciliation, KYC-Verifizierung (Know Your Customer), AML-Compliance (Anti-Geldwäsche) und Kunden-Onboarding. Die Agenten verwalten Operationen über 2,5 Billionen Dollar Assets under Supervision.
Warum hat Goldman Sachs Anthropic statt OpenAI gewählt?
Goldman wählte Anthropic aus drei Gründen: Sicherheits- und Interpretierbarkeitsfeatures für regulatorische Compliance, das Embedded-Engineering-Modell mit sechs Monaten gemeinsamer Entwicklung, und die Zuverlässigkeit für regulierte Branchen, in denen Fehlerraten extrem niedrig sein müssen.
Werden die KI-Agenten von Goldman Sachs Arbeitsplätze ersetzen?
Goldman-CEO David Solomon hat erklärt, dass die Bank keine Stellen abbauen, aber das Personalwachstum begrenzen wird. Die Agenten übernehmen die zusätzliche Arbeitslast durch Geschäftswachstum ohne proportionale Neueinstellungen, mit Fokus auf regelintensive Aufgaben wie Transaktionsabgleich und Compliance-Screening.
Welche Ergebnisse hat Goldman Sachs mit seinen KI-Agenten erzielt?
Erste Ergebnisse zeigen 30% schnelleres Client-Onboarding bei KYC- und Compliance-Workflows sowie über 20% Produktivitätsgewinne bei den mehr als 12.000 Goldman-Entwicklern, die Claude für Coding-Aufgaben nutzen.
Ist Goldman Sachs’ KI-Deployment relevant für europäische Banken?
Ja, besonders weil europäische KYC/AML-Anforderungen unter der EU-Geldwäscherichtlinie mindestens so komplex sind wie US-Regularien. Der EU AI Act, der ab August 2026 für Hochrisiko-KI-Systeme gilt, verschärft die Anforderungen an Transparenz und Nachvollziehbarkeit weiter. Das Embedded-Engineering-Modell und der Fokus auf Interpretierbarkeit sind direkt übertragbar.
