DEV Community

Cover image for Generative KI in Banken: Chancen und Compliance-Pflichten
Dirk Röthig
Dirk Röthig

Posted on

Generative KI in Banken: Chancen und Compliance-Pflichten

Generative KI in der Finanzbranche: Risikobewertung, Compliance und Chancen

Von Dirk Röthig | CEO, VERDANTIS Impact Capital | 09. März 2026

Die Finanzbranche durchlebt eine stille Revolution: Generative KI transformiert Risikobewertung, Kreditentscheidungen und Compliance-Prozesse — und erzeugt dabei ein regulatorisches Spannungsfeld zwischen BaFin, DORA und dem EU AI Act, das kein Institut ignorieren kann.

Tags: Finanzbranche, Künstliche Intelligenz, Compliance, Risikomanagement, BaFin


200 bis 340 Milliarden Dollar — Die Dimension des Wandels

Wer die Debatte über Künstliche Intelligenz im Wirtschaftsleben beobachtet, könnte leicht den Eindruck gewinnen, es handle sich um einen weiteren technologischen Hype, der sich in drei bis fünf Jahren von selbst erledigt. Im Finanzsektor ist das Gegenteil der Fall: Hier transformiert generative KI Kernprozesse mit einer Geschwindigkeit, die selbst erfahrene Bankmanager überrascht.

Das McKinsey Global Institute beziffert das jährliche Wertschöpfungspotenzial generativer KI für das globale Bankwesen auf 200 bis 340 Milliarden US-Dollar — entsprechend 9 bis 15 Prozent des operativen Gewinns (McKinsey, 2024). Dieser Wert entsteht nicht durch futuristische Szenarien, sondern durch bereits heute realisierbare Produktivitätsgewinne in konkreten Anwendungsfeldern: Kreditrisikoanalyse, Compliance-Automatisierung, Betrugserkennung und Kundenkommunikation.

Was diese Zahlen für den Alltag in Kreditinstituten bedeuten, beschreibt Dirk Röthig, CEO von VERDANTIS Impact Capital, so: "Wir sehen in der Finanzbranche denselben Musterbruch wie in anderen kapitalintensiven Sektoren: Die Technologie ist verfügbar, die regulatorischen Anforderungen sind klar — und dennoch zögern viele Institute, weil sie Governance und Compliance als Bremse statt als Enabler begreifen. Das ist ein strategischer Fehler."

Marktdurchdringung: Versicherer führen, Banken folgen

Die KPMG-Studie „Generative KI in der deutschen Wirtschaft 2025" zeigt ein differenziertes Bild der Adaption im Finanzsektor: 73 Prozent aller befragten Finanzunternehmen haben bereits mindestens einen KI-Use-Case im Einsatz (KPMG, 2025). Besonders weit vorn liegen Versicherungsgesellschaften mit einer Nutzungsquote von 91 Prozent — ein Wert, der auf den intensiven Einsatz von KI in der Schadensbewertung, Underwriting-Prozessen und Betrugserkennung zurückzuführen ist.

Die Wachstumsdynamik ist bemerkenswert: 91 Prozent aller befragten Finanzentscheider planen, den KI-Einsatz in den kommenden fünf Jahren auszuweiten — 48 Prozent davon innerhalb der nächsten zwölf Monate. Zum Vergleich: Im Vorjahr lag dieser kurzfristige Ausbauwille noch bei 17 Prozent (KPMG, 2025). Die Planungsphase ist vorbei; die Umsetzungsphase hat begonnen.

Forrester Research prognostiziert, dass 2026 bereits 40 Prozent der führenden Banken spezialisierte KI-Agenten im Backoffice einsetzen werden, wodurch über 35 Prozent der manuellen Prozesse — Dateneingabe, Abstimmung, Berichterstellung — automatisiert werden (Forrester, 2025, zitiert in: Der Bank Blog).

Die zentralen Anwendungsfelder

Kreditrisiko und Kreditentscheidungen

Kreditrisikoanalyse gehört zu den ältesten und zugleich innovationsresistentesten Bereichen der Bankenwelt. Generative KI verändert das. Institute können heute auf Basis großer Mengen strukturierter und unstrukturierter Daten — Jahresabschlüsse, Marktdaten, Management-Kommentare, Nachrichtenlage — dynamische Kreditrisikoberichte generieren lassen, die menschliche Analysten in der gleichen Zeit nicht erstellen könnten.

McKinsey beschreibt den Workflow präzise: GenAI fasst Kundendaten für Kreditentscheidungen zusammen, erstellt automatisiert den Kreditbericht und den Vertrag, und generiert Kreditrisikoberichte auf Basis von Kreditakten — alles unter menschlicher Aufsicht, aber mit erheblich beschleunigtem Durchsatz (McKinsey, 2024).

Dabei ist zu betonen: Die KI trifft keine autonomen Kreditentscheidungen. Sie bereitet Entscheidungsgrundlagen auf, die dann von qualifizierten Analysten überprüft und verantwortet werden. Dieser Mensch-Maschine-Dialog ist nicht nur regulatorisch geboten, sondern auch fachlich richtig.

Compliance-Automatisierung

Der Compliance-Aufwand in deutschen Kreditinstituten ist in den vergangenen Jahren dramatisch gestiegen — DSGVO, MaRisk, DORA, EU AI Act, AML-Direktiven. Generative KI bietet hier einen echten Hebel: Die Technologie kann regulatorische Änderungen verfolgen, sie automatisch auf betroffene internen Richtlinien mappen und Entwürfe für Kontrollaktualisierungen erstellen, die anschließend von Compliance-Experten freigegeben werden (McKinsey, 2024).

Eine Studie der UK Finance aus dem Jahr 2025 zeigt, dass KI-gestützte Compliance-Tools in ersten Praxistests die Bearbeitungszeit für regulatorische Änderungsanalysen um bis zu 60 Prozent reduzieren konnten (UK Finance, 2025). Das entspricht nicht nur Kosteneinsparungen, sondern auch einer erheblich schnelleren Reaktion auf neue aufsichtsrechtliche Anforderungen.

Betrugserkennung und Geldwäscheprävention

Finanzkriminalität ist ein wachsendes Problem: Die digitale Transformation des Bankgeschäfts hat neue Angriffsflächen geschaffen, während klassische Betrugserkennungssysteme auf regelbasierten Ansätzen beruhen, die Kriminellen oft einen Schritt hinterher sind.

Generative KI kann Muster in Transaktionsdaten identifizieren, die für regelbasierte Systeme unsichtbar bleiben, automatisiert Verdachtsanzeigen (Suspicious Activity Reports) auf Basis von Kunden- und Transaktionsdaten erstellen und Kundendossiers für Know-Your-Customer-Prozesse dynamisieren (McKinsey, 2024). Gleichzeitig entstehen neue Risiken: Deep-Fake-Videos vermeintlicher CEOs oder KI-generierte gefälschte Rechnungsbilder sind Bedrohungen, die die BaFin in ihrer aktuellen Orientierungshilfe explizit adressiert (BaFin, 2025).

Das regulatorische Dreieck: DORA, BaFin und EU AI Act

Kein Thema beschäftigt Finanzinstitute derzeit mehr als die Frage, wie generative KI regelkonform eingesetzt werden kann. Das regulatorische Umfeld hat sich in den vergangenen zwölf Monaten grundlegend verändert.

DORA und die BaFin-Orientierungshilfe

Im Dezember 2025 veröffentlichte die BaFin ihre Orientierungshilfe zu IKT-Risiken beim Einsatz von KI — ein Dokument, das zwar unverbindlich ist, aber de facto als Prüfungsmaßstab gelten wird (BaFin, 2025). Die Orientierungshilfe betrachtet KI-Risiken entlang des gesamten Lebenszyklus: von der Datenbeschaffung über die Modellentwicklung bis zum laufenden Betrieb und zur Stilllegung. Sicherheit und Resilienz müssen in jeder Phase gewährleistet sein.

Der Digital Operational Resilience Act (DORA) — seit Januar 2025 vollständig anwendbar — adressiert die operative Widerstandsfähigkeit und verlangt, dass KI-gestützte Systeme, die kritische Funktionen unterstützen, besonders ausfallsicher ausgestaltet sind.

EU AI Act: Kredit-Scoring als Hochrisiko-KI

Der EU AI Act folgt einem risikobasierten Ansatz. Für die Finanzbranche hat er besondere Relevanz: Kredit-Scoring, Bonitätsbewertung und Underwriting-Systeme werden als Hochrisiko-KI-Anwendungen eingestuft (EU AI Act, Anhang III). Für diese Systeme gelten seit August 2025 verschärfte Anforderungen hinsichtlich Transparenz, Datenschutz und Nichtdiskriminierung; die vollständige Anwendung für Hochrisiko-KI folgt ab dem 2. August 2026.

Die BaFin hat darüber hinaus klargestellt: KI-Systeme mit Kundenbezug müssen zur Gruppe der erklärbaren KI (Explainable AI, XAI) gehören. Sie müssen verständliche Erläuterungen ihrer Entscheidungen liefern und so ausgestaltet sein, dass mögliche Diskriminierungen identifiziert und umgehend beseitigt werden können (BaFin, 2025).

DSGVO und EU AI Act greifen dabei ineinander: Eine Nutzung von Kundendaten für das Training allgemeiner KI-Modelle, ohne explizite Rechtsgrundlage, ist weder datenschutzrechtlich noch nach dem AI Act gedeckt. Sauber getrennte Datenpipelines und dokumentierte Einwilligungsstrukturen sind keine Kür — sie sind Pflicht.

Systemische Risiken: Was der Financial Stability Board warnt

Über die institutsindividuelle Compliance hinaus hat der Financial Stability Board (FSB) vier systemische Risiken identifiziert, die durch den flächendeckenden Einsatz von KI im Finanzsektor entstehen können (FSB, 2024):

  1. Konzentrationsrisiko: Die Abhängigkeit vieler Institute von denselben wenigen KI-Anbietern schafft eine gefährliche Monokultur. Fällt ein systemrelevanter Anbieter aus oder wird kompromittiert, wirkt sich das auf hunderte Finanzinstitute gleichzeitig aus.

  2. Homogenisierung von Handelsstrategien: Wenn viele algorithmische Handelssysteme auf ähnlichen Modellen und Daten basieren, verstärken sie bei Marktturbulenzen die Volatilität anstatt sie zu dämpfen.

  3. Cybersicherheitsrisiken: LLM-basierte Systeme, die Zugang zu sensitiven Finanzdaten haben, eröffnen neuartige Angriffsvektoren — von "Prompt Injection" bis zu Modell-Poisoning.

  4. Finanzbetrug und Marktmanipulation: Generative KI kann für die Erstellung täuschend echter gefälschter Dokumente, Deepfakes und manipulativer Kommunikation missbraucht werden.

Diese systemischen Risiken lassen sich nicht durch einzelne Institute allein managen; sie erfordern koordinierte aufsichtsrechtliche Antworten — wofür die aktuelle Regulierungswelle den Rahmen setzt.

Governance als strategischer Wettbewerbsfaktor

Wer in der Finanzbranche glaubt, Governance und Compliance seien Kostenpositionen, hat die Marktdynamik nicht verstanden. Die Deloitte-Studie „State of Generative AI in the Enterprise" — basierend auf 540 Befragten aus dem Finanzsektor — zeigt, dass sogenannte "Pioneers", also Institute mit ausgereifter Governance-Struktur, nicht nur weniger regulatorische Probleme haben, sondern auch schneller skalieren (Deloitte, 2025).

Die Logik ist einfach: Wer frühzeitig klare Prozesse für Daten-Governance, Modell-Dokumentation und menschliche Aufsicht etabliert, kann neue KI-Anwendungen schneller durch interne Genehmigungsprozesse und Aufsichtsprüfungen führen. Governance ist Geschwindigkeit — wer das begreift, hat einen strukturellen Vorteil.

Das KPMG-Governance-Survey 2025 unterstreicht dies: 70 Prozent der befragten Vorstandsmitglieder führender Finanzinstitute haben bereits verantwortungsvolle KI-Nutzungsrichtlinien für ihre Mitarbeiter entwickelt (KPMG, 2025). Der Standard für professionellen KI-Einsatz wird gesetzt — von denen, die zuerst handeln.

Was Finanzinstitute jetzt tun müssen

Die experimentelle Phase ist vorbei. Finanzinstitute, die 2026 konkurrenzfähig bleiben wollen, brauchen einen kohärenten Plan in vier Dimensionen:

1. Risikoinventur der KI-Landschaft: Welche KI-Systeme sind im Einsatz? Welche fallen unter den EU AI Act als Hochrisiko? Diese Bestandsaufnahme ist Pflicht — und bei vielen Instituten noch nicht abgeschlossen.

2. Datenpipelines strukturieren: Trainings- und Inference-Daten müssen klar getrennt, dokumentiert und DSGVO-konform verarbeitet werden. Unstrukturierte Kundendaten dürfen nicht unreflektiert in Modelltraining-Pipelines einfließen.

3. XAI und Audit-Trails: Für alle kundenbezogenen KI-Systeme gilt: Entscheidungen müssen erklärbar sein. Implementierungen ohne XAI-Komponente sind regulatorisch gefährdet.

4. Mensch-Maschine-Governance: Keine autonomen KI-Entscheidungen in kreditrelevanten oder kundenwirksamen Prozessen ohne definierten menschlichen Überprüfungsschritt.

Diese Anforderungen sind komplex — aber sie sind auch eine Chance. Institute, die sie als Leitplanken statt als Hindernisse verstehen, werden den größten Anteil an dem 200 bis 340 Milliarden Dollar Potenzial sichern, das McKinsey für das globale Bankwesen prognostiziert.


Weitere Artikel von Dirk Röthig


Quellenverzeichnis

  1. BaFin (2025): Orientierungshilfe zu IKT-Risiken beim Einsatz von KI in Finanzunternehmen. Bundesanstalt für Finanzdienstleistungsaufsicht. Verfügbar unter: https://www.bafin.de/SharedDocs/Downloads/DE/Anlage/neu/dl_Anlage_orientierungshilfe_IKT_Risiken_bei_KI.pdf

  2. Deloitte (2025): State of Generative AI in the Enterprise — Financial Services. Deloitte Insights. Verfügbar unter: https://www.deloitte.com/us/en/insights/industry/financial-services/generative-ai-financial-services-pioneers.html

  3. Financial Stability Board (FSB) (2024): The Financial Stability Implications of Artificial Intelligence. FSB. Verfügbar unter: https://www.fsb.org/

  4. Forrester Research (2025): AI Agents in Banking 2026 Outlook. Zitiert in: Der Bank Blog (2025): KI in der Finanzbranche: Die Welle rollt weiter. Verfügbar unter: https://www.der-bank-blog.de/ki-finanzbranche-die-welle/technologie/37727128/

  5. KPMG (2025): Generative KI in der deutschen Wirtschaft 2025. KPMG AG. Verfügbar unter: https://kpmg.com/de/de/home/themen/2025/04/studie-generative-ki-in-der-deutschen-wirtschaft-2025.html

  6. McKinsey & Company (2024): How generative AI can help banks manage risk and compliance. McKinsey Global Institute. Verfügbar unter: https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/how-generative-ai-can-help-banks-manage-risk-and-compliance

  7. McKinsey Global Institute (2024): Capturing the full value of generative AI in banking. McKinsey & Company. Verfügbar unter: https://www.mckinsey.com/industries/financial-services/our-insights/capturing-the-full-value-of-generative-ai-in-banking

  8. UK Finance (2025): Generative AI in Action: Opportunities & Risk Management in Financial Services. UK Finance. Verfügbar unter: https://www.ukfinance.org.uk/system/files/2025-01/Generative%20AI%20in%20action-opportunities%20&%20risk%20management%20in%20%20financial%20services.pdf


Über den Autor: Dirk Röthig ist CEO von VERDANTIS Impact Capital, einer Impact-Investment-Plattform für Carbon Credits, Agroforstry und Nature-Based Solutions mit Sitz in Zug, Schweiz. Er beschäftigt sich intensiv mit dem Einsatz Künstlicher Intelligenz im Wirtschaftsleben, nachhaltiger Finanzwirtschaft und der Schnittstelle von Technologie und Regulierung.

Kontakt und weitere Artikel: verdantiscapital.com | LinkedIn

Top comments (0)