Zum Inhalt gehen

Künstliche Intelligenz im Bankensektor – Chancen und Herausforderungen

Sören Gahn
09.10.2024
capgemini-invent

Künstliche Intelligenz (AI) spielt im Bankensektor eine zunehmend wichtige Rolle. Durch den Einsatz von AI lassen sich viele Prozesse effizienter gestalten, sei es bei der Analyse großer Datenmengen oder bei der Automatisierung von Abläufen. Zudem ermöglicht AI eine noch stärkere Ausrichtung auf die Bedürfnisse der Kunden, etwa durch personalisierte Dienstleistungen oder automatisierte Kundeninteraktionen. Doch die zunehmende Nutzung von AI bringt auch Herausforderungen mit sich. So können AI-Systeme Entscheidungen treffen, die ethische Standards verletzen oder Datenschutzrisiken bergen. Um diesen Risiken vorzubeugen, hat die Europäische Union den AI Act ins Leben gerufen. Dieses neue Regelwerk, das am 1. August 2024 in Kraft trat, soll den verantwortungsvollen Einsatz von AI regulieren und sicherstellen.

In diesem Artikel beleuchten wir, was der AI Act speziell für den Bankensektor bedeutet, der bereits zahlreichen IT- und Finanzregulierungen unterliegt.

Der AI Act und bestehende Regulierungen für Banken

Der AI Act richtet sich grundsätzlich an alle Branchen und ist daher auch im Bankensektor von großer Bedeutung. Banken arbeiten mit enormen Datenmengen, die in Bereichen wie Risikomanagement, Kreditvergabe und Betrugserkennung eingesetzt werden. Die Einsatzmöglichkeiten von AI sind vielfältig: von der Optimierung der Kreditvergabe über die Unterstützung im Portfolio-Management bis hin zur Nutzung von AI-basierten Chatbots im Kundenservice. Bereits heute oder in naher Zukunft anzuwendende regulatorische Vorgaben wie BAIT, DORA, GDPR und MaRisk müssen auch für AI-Systeme umgesetzt werden. Diese Regulierungen gewährleisten bereits jetzt, dass Anforderungen an Cybersicherheit, Governance und Dokumentation erfüllt werden – viele der Vorgaben des AI Acts bauen daher auf diesen bestehenden Regelungen auf.

Umsetzung des AI Acts: Die drei zentralen Anforderungsebenen

Für eine erfolgreiche Umsetzung des AI Acts im Bankensektor müssen drei zentrale Anforderungsebenen berücksichtigt werden:

1. IT-Regulatorische Anforderungen: Hier steht die Einhaltung bestehender IT-Vorgaben im Fokus, die auch für AI-Systeme gelten. Dazu gehören IT-Governance, Risikomanagement und Datensicherheitsstandards, die sicherstellen, dass AI-Systeme unter den gleichen strengen Vorgaben wie traditionelle IT-Systeme betrieben werden.

2. AI-spezifische Regulatorik: Auf dieser Ebene müssen Banken die speziellen Vorgaben des AI Acts umsetzen, die nicht durch bestehende Regelungen abgedeckt sind. Dazu zählen unter anderem Transparenzpflichten, Risikobewertungen und die technische Dokumentation von AI-Systemen. Zudem ist sicherzustellen, dass AI-Anwendungen fair, sicher und nicht diskriminierend arbeiten.

3. Fachliche Anforderungen im Bankenbereich: Diese Ebene betrifft die Anforderungen, die für AI-gestützte Use Cases in den bankfachlichen Prozessen gelten. Banken müssen sicherstellen, dass AI-gestützte Prozesse wie Kreditentscheidungen oder Risikomanagement den gleichen regulatorischen Vorgaben entsprechen wie durch natürliche Personen. Dazu zählen Regelungen wie Basel III, MiFID II und die AML-Richtlinien zur Bekämpfung von Geldwäsche.

Abbildung 1: Compliance-Anforderungen an KI-Systeme

Fazit

Der Bankensektor ist eine der am stärksten regulierten Branchen und bietet gleichzeitig großes Potenzial für den Einsatz von AI-Anwendungen. Mit dem AI Act, bei dem einzelne Regelungen bereits ab dem 2. Februar 2025 gelten, darunter Art. 4. zur AI-Kompetenz und Art. 5 zu verbotenen AI-Praktiken, wird eine neue regulatorische Schicht eingeführt, die Banken dazu verpflichtet, AI verantwortungsvoll zu nutzen. Viele Anforderungen des AI Acts lassen sich auf Grundlage von Ansätzen und Prozessen umsetzen, die zur Sicherstellung bestehender IT- und Finanzregulierungen bereits heute implementiert sein sollten. Dennoch bleiben spezifische Herausforderungen, wie ethische Fragen und Transparenz, die gezielt adressiert werden müssen

Wir unterstützen Sie dabei, die Anforderungen des AI Acts in Ihrem Unternehmen umzusetzen – mit maßgeschneiderten Lösungen wie: 

Status Quo-Bewertungen: Gap-Analysen, AI-Maturity Assessments und Stakeholder-Mappings 

Target Operating Model: Definition von Verantwortlichkeiten, Prozessen und Standards für AI im Bankensektor 

AI-Lösungsauswahl: Entwicklung einer Auswahlmethodik und Durchführung des Selektionsprozesses für AI-Lösungen 

AI-Verzeichnis: Identifikation und Kategorisierung bestehender AI-Systeme in Ihrem Unternehmen 

Unsere Experten aus den Bereichen IT-Regulatorik, Risiko- und Compliance-Management sowie AI-Entwicklung stehen Ihnen zur Seite, um den AI Act erfolgreich in Ihrem Unternehmen zu implementieren. 

Vielen Dank an unsere Co-Autorin Sarah Engel.

Unsere Experten

Sören Gahn

Head AI@Banking Germany | Market Unit Banking, Capgemini Invent Germany
Mit mehr als 15 Jahren Bankenerfahrung im Frontoffice, CFO Finance und dem Aufbau sowie der Umsetzung von Innovations- und digitalen Transformationsprojekten unterstützt Sören Gahn unsere Kunden im Bereich Financial Services vor allem mit seinem breiten Bankenfachwissen. Seine Schwerpunkte liegen neben der Führung des GenAI@Banking Teams in Deutschland in den Bereichen Sales Coverage, Innovation Management, Finance und Corporate Banking. Sören Gahn ist darüber hinaus Experte, wenn es um die Beurteilung von Geschäftsmodellen und der Entwicklung von Startups und Wachstumsfirmen geht.

Nina Schuster

Manager | Data Driven Banking, Capgemini Invent Germany
Als Managerin im Team Data Driven Banking bei Capgemini bringt Nina Schuster über sieben Jahre Erfahrung in der Financial Services Industrie in den USA, UK und Deutschland mit. Seit mehr als zwei Jahren konzentriert sie sich auf Projekte im Banking- und Public-Sektor, mit einem besonderen Fokus auf Datenaustausch, Datenqualität sowie Governance-Strukturen. Außerdem beschäftigt sie sich intensiv mit dem Einsatz von generativer KI (GenAI) in stark regulierten Umgebungen. Ihre Expertise vereint tiefes Branchenwissen mit Beratungserfahrung und deckt sowohl strategische als auch operative Projektumsetzungen ab.

Lars Bennek

Senior Manager | Legal Engineering Lead, Capgemini Invent
Als Ingenieur, Jurist und Wirtschaftsinformatiker bringe ich an den Schnittstellen von Recht, Organisation und Technologie interdisziplinäre Expertise in Projekte zur datengetriebenen Bewältigung komplexer strategischer Herausforderungen. Zu meinen Schwerpunktthemen gehören AI & Data Governance, Datenschutz, Datenstrategie und Explainable AI. 

Franz-Ferdinand Müller

Director | Insurance, Capgemini Invent Germany
Seit mehr als dreizehn Jahren bin ich in der Beratungs- und Wirtschaftsprüfungsbranche tätig und unterstütze meine Kunden dabei, regulatorische IT-Anforderungen zu identifizieren und umzusetzen. Dabei habe ich Erfahrung in der Implementierung nationaler (wie GoBD und VAIT) sowie internationaler regulatorischer Anforderungen im Finanzsektor. Ich leite Projekte im Bereich IT-Risikomanagement und Interne Kontrollsysteme in IT-Prozessen, basierend auf COBIT5 und ISO27001. Zudem habe ich Compliance-Funktionen im IT-Ausgliederungsmanagement und bei Cloud-Services aufgebaut, was meinen Kunden erhebliche Vorteile bringt. Durch meinen beruflichen Werdegang bin ich sowohl mit den Vorgehensweisen von prüferischen Organen als auch mit der Umsetzung großer Programme und Projekte vertraut.

    Blog-Updates per Mail?

    Abonnieren Sie unseren Newsletter und erhalten Sie alle zwei Monate eine Auswahl der besten Blogartikel.