Mit der fortschreitenden Integration von Künstlicher Intelligenz in Geschäftsmodelle, Prozesse und Entscheidungsstrukturen von Finanzunternehmen rücken nicht nur Fragen der Effizienz und Innovationsfähigkeit, sondern zunehmend auch solche der digitalen operationellen Resilienz in den Fokus der Aufsicht. Vor diesem Hintergrund hat die BaFin am 18. Dezember 2025 eine umfangreiche Orientierungshilfe zu IKT-Risiken beim Einsatz von Künstlicher Intelligenz (KI) in Finanzunternehmen veröffentlicht. Das Papier richtet sich insbesondere an Finanzunternehmen, die zur Einhaltung der Verordnung (EU) 2022/2554 – Digital Operational Resilience Act (DORA) verpflichtet sind, und versteht sich ausdrücklich als nicht verpflichtende Hilfestellung, um die Anforderungen von DORA beim Einsatz von KI-Systemen sachgerecht auf KI-Systeme anzuwenden.
Inhaltsverzeichnis
Bemerkenswert ist dabei die konsequente Einordnung von KI-Systemen in den bestehenden DORA-Rahmen. Die BaFin macht deutlich, dass der Einsatz von KI aus aufsichtsrechtlicher Sicht keine Sonderrolle beansprucht, sondern als spezifische Ausprägung von Netzwerk- und Informationssystemen zu behandeln ist – mit allen daraus folgenden Anforderungen an Governance, IKT-Risikomanagement, Drittparteiensteuerung sowie Cyber- und Datensicherheit.
Die neue Orientierungshilfe beruht auf Gesprächen der BaFin mit Finanzunternehmen und stellt ausdrücklich keine verbindliche DORA-Auslegung der BaFin dar. Entsprechend werden auch keine aufsichtlichen Erwartungen definiert, sondern die BaFin betont, dass stets der risikobasierte Ansatz und der Grundsatz der Verhältnismäßigkeit zu beachten sei.
Das Papier gewinnt dennoch praktische Relevanz insbesondere vor dem Hintergrund der zunehmenden Nutzung generativer KI und großer Sprachmodelle in Kern- und Unterstützungsprozessen von Banken, Versicherungen und anderen Finanzunternehmen. Es adressiert eine zentrale Frage der aktuellen Regulierungspraxis: Wie lassen sich innovative KI-Anwendungen mit den strengen Vorgaben zur digitalen Resilienz in Einklang bringen, ohne Innovation zu ersticken oder Risiken zu verharmlosen?
Der folgende Beitrag stellt die wesentlichen Inhalte der Orientierungshilfe vor, ordnet sie systematisch in den bestehenden aufsichtsrechtlichen Rahmen ein und zeigt auf, welche praktischen Implikationen sich für den rechts- und DORA-konformen Einsatz von KI in Finanzunternehmen ergeben.
Einordnung: KI unter dem Regime der digitalen operationalen Resilienz
Bemerkenswert ist zunächst die klare Abgrenzung zur Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI-VO). Die Orientierungshilfe beschränkt sich bewusst auf IKT-Risiken im Zusammenhang mit der Nutzung von KI und deren Behandlung unter DORA. Fragen der Modelllogik, Autonomie, Datenethik oder materiell-rechtlicher KI-Pflichten bleiben ausgeklammert. Damit ergänzt das Dokument das (künftige) europäische KI-Aufsichtsregime funktional, ohne regulatorische Überschneidungen zu erzeugen.
Die BaFin verortet die Orientierungshilfe stringent im DORA-Regelungsrahmen sowie in den einschlägigen Regulatory Technical Standards zum IKT-Risikomanagement (RTS RMF, Delegierte Verordnung (EU) 2024/1774) und zur Untervergabe von IKT-Dienstleistungen (RTS SUB, Delegierte Verordnung (EU) 2025/532).
KI wird dabei nicht als eigenständige „neue Technologie“ behandelt, sondern als Unterfall von Netzwerk- und Informationssystemen im Sinne des Art. 3 Nr. 2 DORA. KI-Systeme sind damit – unabhängig von ihrem konkreten Anwendungsfall – vollständig in das IKT-Risikomanagement einzubetten und nach denselben Maßstäben zu bewerten wie sonstige IKT-Systeme, insbesondere im Hinblick auf Risikoprofil, Komplexität, Datenverarbeitung sowie die Unterstützung kritischer oder wichtiger Funktionen.
Besondere Bedeutung misst die BaFin den IKT-Drittparteienrisiken bei, da viele KI-Systeme faktisch nur cloudbasiert betrieben werden können. Hinzu treten spezifische Risiken im Bereich der Datenqualität und -integrität, etwa durch manipulierte Trainingsdaten, sowie Gefahren aus einer unsicheren Weiterverwendung oder Stilllegung von KI-Anwendungen. Auch die Cybersicherheit gewinnt an Gewicht: Backdoors im Training, Schwachstellen in Open-Source-Komponenten, adversarielle Angriffe oder unautorisierte Zugriffe können unmittelbar zu Fehlentscheidungen und erheblichen operationellen Risiken führen. Die systematische Beherrschung dieser Risiken ist – konsequent – Aufgabe des IKT-Risikomanagements.
KI als IKT-Asset: Begriffsverständnis der BaFin
Die BaFin übernimmt die Legaldefinition des KI-Systems aus Art. 3 Nr. 1 KI-VO, reduziert den Fokus jedoch auf die technisch-organisatorische Ebene. Für Zwecke der Orientierungshilfe wird ein KI-System nicht als abstraktes Entscheidungs- oder Autonomiesystem verstanden, sondern als konkrete Ausprägung eines IKT-Systems im Sinne von DORA.
Aus aufsichtsrechtlicher Sicht besteht ein KI-System aus einer Kombination von IKT-Assets (Hardware und Software) und der zugehörigen IKT-Infrastruktur, in die ein komplexes mathematisches Modell integriert ist. Das KI-Modell selbst wird dabei ausdrücklich als IKT-Asset in Form von Software qualifiziert. Maßgeblich ist die Einbindung des Systems in die bestehende IKT-Landschaft des Unternehmens.
KI-Systeme unterfallen daher vollständig dem DORA-Regelwerk. Sämtliche klassischen Pflichten des IKT-Risikomanagements – von der Identifikation über Schutz und Prävention, Erkennung, Reaktion und Wiederherstellung bis hin zu Lernprozessen und Kommunikation – sind ohne Einschränkung auf KI anzuwenden. Dies gilt unabhängig davon, in welcher technischen oder organisatorischen Ausprägung KI eingesetzt wird, also gleichermaßen für selbstentwickelte KI-Modelle, Open-Source-Lösungen, cloudbasierte Large Language Models ebenso wie für KI-Funktionen, die Bestandteil von Standardsoftware sind.
Lebenszyklusorientierter Ansatz statt Use-Case-Denken
KI-Systeme sind – wie alle anderen IKT-Assets – vollständig in den IKT-Risikomanagementrahmen nach DORA zu integrieren. Dies umfasst insbesondere die systematische Identifikation von Schwachstellen, etwa im Modelltraining, in Datenpipelines oder bei der Inferenz, sowie die Bewertung quantitativer und qualitativer Risiken (Art. 8 DORA). Für identifizierte Risiken sind geeignete Risikominderungsmaßnahmen festzulegen, zu dokumentieren und regelmäßig zu überprüfen, etwa durch adversariale Trainingsansätze oder die Überwachung von Modelldrift (Art. 9 DORA).
Die BaFin strukturiert die Anforderungen entlang des KI-Lebenszyklus:
- Entwicklung und Test,
- Betrieb,
- Stilllegung.
Entlang dieses Zyklus von der Datenbeschaffung über die Modellentwicklung und Bereitstel-lung bis hin zum laufenden Betrieb und der Stilllegung soll die Sicherheit und Resilienz eines KI-Systems gewährleistet werden.
Dieser Ansatz ist praxisrelevant, weil sich IKT-Risiken nicht aus der Position der KI in der Wertschöpfungskette, sondern aus ihrer Einbindung in die bestehende IKT-Landschaft ergeben.
Der risikobasierte Ansatz und der Grundsatz der Verhältnismäßigkeit (Art. 4 DORA) bleiben dabei leitend: KI-Systeme, die kritische oder wichtige Funktionen unterstützen, unterliegen deutlich strengeren Anforderungen als etwa rein assistive Tools (wie z.B. KI-basierte Self-Service-Assistenten) unter vollständiger menschlicher Überwachung, die nicht in Entscheidungsprozesse eingebunden sind.
Analog zu anderen IKT-Assets, sind auch KI-Systeme in den IKT-Risikomanagementrahmen zu integrieren. Dadurch werden die Ermittlung von Schwachstellen (etwa im Modelltraining, in Datenpipelines oder bei der Inferenz) sowie die Bewertung quantitativer und qualitativer Risi-kokriterien umfasst (Art. 8 DORA). Weiterhin müssen Maßnahmen zur Behandlung identifi-zierter Risiken wie etwa der Einsatz adversarialer Trainingsmethoden oder die Überwachung von Modelldrift dokumentiert und regelmäßig überprüft werden (Art. 9 DORA).
Der IKT-Risikomanagementrahmen muss mindestens jährlich überprüft werden (Art. 6 Abs. 5 Satz 1 und 2 DORA). Weiterhin müssen Finanzunternehmen auf Anfrage der zuständigen Be-hörde einen Bericht über die Überprüfung ihres IKT-Risikomanagementrahmens in einem durchsuchbaren elektronischen Format vorlegen können. Der Bericht muss auch den aktuellen Risikostatus, die ergriffenen Maßnahmen und identifizierte Schwächen dokumentieren (Art. 27 RTS RMF). Dieser Bericht kann bei Bedarf auch um spezifische Informationen zu KI-Syste-men angereichert werden.
Governance, Strategie und Kompetenzaufbau
Besonders deutlich positioniert sich die BaFin bei den Governance-Anforderungen:
- Finanzunternehmen sollen eine KI-Strategie festlegen, die eigenständig oder integriert in die IT- bzw. DORA-Strategie ausgestaltet ist. Besondere Bedeutung kommt ihr zu, wenn KI-Systeme kritische oder wichtige Funktionen unterstützen.
- Empfohlen wird ein durchgängiger, dokumentierter End-to-End-Prozess, der den gesamten KI-Lebenszyklus von der strategischen Entscheidung über Entwicklung und Betrieb bis zur Stilllegung abdeckt. Vor der Implementierung von KI ist zu prüfen, ob bestehende Prozesse, Kontrollen und der Umgang mit Informationswerten für den KI-Einsatz geeignet sind.
- Zentral ist zudem der systematische Aufbau von KI-Kompetenz. Schulungen und Weiterbildungen müssen sicherstellen, dass Mitarbeitende über aufgabenangemessene Kenntnisse im Umgang mit KI-Systemen verfügen (Art. 13 Abs. 6 DORA). Dies gilt gleichermaßen für Fachbereiche, IT und Management.
- Die Letztverantwortung für das Management der IKT-Risiken liegt beim Leitungsorgan (Art. 5 Abs. 2 lit. a DORA), das seinerseits über ausreichende KI- und IKT-Sachkunde verfügen muss (Art. 5 Abs. 4 DORA). Rollen und Verantwortlichkeiten – insbesondere bei der Nutzung KI-generierter Ergebnisse in Entscheidungsprozessen – sind klar festzulegen.
- KI-Governance-Rahmenwerke sollen regelmäßig die Einbindung von IKT-Risikomanagement, Kontrollfunktionen und Interner Revision vorsehen – abgestuft nach Kritikalität des jeweiligen KI-Systems.
- Schließlich betont die BaFin die Bedeutung einer risikobasierten Steuerung von IKT-Drittdienstleistern. Vertragsgestaltung, Risikobewertung und Kontrollmaßnahmen sind an den konkreten KI-Anwendungsfall anzupassen und ggf. um KI-spezifische Vorkehrungen zu ergänzen.
- Der IKT-Risikomanagementrahmen ist mindestens jährlich zu überprüfen (Art. 6 Abs. 5 DORA). Der Bericht über den Stand des IKT-Risikomanagementrahmens dokumentiert den aktuellen Risikostatus, umgesetzte Maßnahmen und festgestellte Schwächen dokumentiert (Art. 27 RTS RMF). Dieser Bericht kann – und sollte –um KI-spezifische Risikoinformationen ergänzt werden.
Entwicklung, Test und Änderungsmanagement: „KI ist Software“
Die Orientierungshilfe folgt einem klaren und für die Praxis äußerst relevanten Grundsatz: KI ist Software. Für Entwicklung, Betrieb und Weiterentwicklung von KI-Systemen gelten damit die etablierten Maßstäbe des Software- und IKT-Risikomanagements unter DORA.
Entwickeln Finanzunternehmen KI-Systeme selbst, unterliegen diese den regulären Softwareentwicklungs- und IKT-Prozessen. Zentrale Voraussetzung ist der Nachweis ausreichender fachlicher Kompetenz. Beschäftigte, die KI-Systeme entwickeln, betreiben oder warten, müssen über angemessene Kenntnisse der Funktionsweise der eingesetzten KI, der damit verbundenen Risiken sowie der Besonderheiten von Cloud- und On-Premise-Betrieb verfügen (Art. 13 Abs. 6 DORA). Dies gilt ausdrücklich auch dann, wenn Fachbereiche außerhalb der IKT-Funktion mithilfe von KI-Assistenten Software. Auch das Leitungsorgan muss über ein hinreichendes Verständnis verfügen, um Risiken aus der KI-Softwareentwicklung sachgerecht steuern zu können (Art. 5 Abs. 4 DORA).
Auf prozessualer Ebene verlangt die BaFin einen strukturierten Entwicklungsprozess, der Planung, Entwicklung, Test, Rollout und Betrieb abdeckt. Bewährte Methoden des Software-Engineerings – etwa Unit- und Integrationstests, Code-Reviews sowie der Betrieb getrennter Entwicklungs- und Testumgebungen – sind auch für KI-Systeme anzuwenden. Eine umfassende technische Dokumentation, einschließlich der eingesetzten Algorithmen, Daten und Parameter, ist unerlässlich, um Nachvollziehbarkeit und Prüfbarkeit sicherzustellen.
Änderungen an KI-Systemen unterliegen einem strengen Änderungs- und Versionsmanagement. Jede Anpassung – auch am Modell oder an Trainingsdaten – ist unabhängig zu prüfen, zu testen und zu dokumentieren; Notfalländerungen bedürfen besonderer Schutzvorkehrungen (Art. 17 RTS RMF). Versionskontrollsysteme und die Archivierung von Modellständen sind erforderlich, um Fehler nachverfolgen und Ergebnisse reproduzieren zu können.
Besondere Aufmerksamkeit ist schließlich beim Einsatz von Open-Source-Komponenten und bei der Code-Erzeugung durch KI-Assistenten geboten. Open-Source-Bibliotheken können zusätzliche Risiken durch Schadcode oder fehlende Wartung bergen und sind daher sorgfältig zu prüfen. KI-generierter Code ist wie manuell erstellter Code zu behandeln und insbesondere mittels statischer Codeanalysen auf unerwünschte Funktionen und Sicherheitslücken zu untersuchen (Art. 16 Abs. 3 RTS RMF).
Konsequenterweise sind KI-Systeme in strukturierte Software-Development-Life-Cycles einzubetten. Dies umfasst auch umfassende, risikoorientierte Testverfahren. Neben funktionalen Tests verlangt die BaFin insbesondere Sicherheits-, Integrations- und Stresstests, deren Umfang sich an der Kritikalität des jeweiligen KI-Systems orientiert. Erhöhte Aufmerksamkeit ist zudem beim Einsatz von Open-Source-Komponenten und bei KI-gestützter Code-Erzeugung geboten, da hier zusätzliche Angriffs- und Fehlerquellen entstehen können.
Gerade für den Einsatz von generativer KI und großen Sprachmodellen (LLMs) betont die BaFin die erhöhten Anforderungen an das Testen. Aufgrund komplexer und häufig intransparenter Modellarchitekturen, möglicher unangekündigter Modelländerungen durch Drittanbieter sowie neuartiger KI-spezifischer Angriffsvektoren – etwa Data Poisoning, Model Poisoning oder Prompt Injection – reichen klassische Testansätze regelmäßig nicht aus. Finanzunternehmen sind vielmehr gehalten, ihre Testkonzepte gezielt um KI-spezifische Sicherheits- und Robustheitsprüfungen zu erweitern und diese fortlaufend an den technischen Entwicklungsstand anzupassen.
Betrieb und Stilllegung von KI-Systemen
Risiken im Zusammenhang mit der Nutzung von KI entstehen nach Auffassung der Aufsicht nicht nur in der Entwicklungsphase, sondern insbesondere im laufenden Betrieb und bei der Beendigung der Nutzung.
Für den Betrieb fordert die BaFin klar definierte und dokumentierte Prozesse, die KI-Systeme vollständig in das Asset- und Konfigurationsmanagement einbinden. Erfasst werden müssen insbesondere Modellversionen, Trainingsdaten, Softwarebibliotheken und Schnittstellen. Zentrale Elemente sind ein kontinuierliches Monitoring, eine risikoorientierte Protokollierung von Zugriffen und Modellentscheidungen sowie die Einbindung von KI-Systemen in das IKT-Geschäftsfortführungs- und Wiederherstellungsmanagement, einschließlich regelmäßiger Tests.
KI-Systeme müssen während des Betriebs gegen gängige Cyberbedrohungen wie Adversarial Attacks, Model Poisoning oder Inference Attacks geschützt werden. Um diesen Bedrohungen zu begegnen, bedarf es geeigneter technische Sicherheitsmaßnahmen (Art. 9 Abs. 3 DORA). Zudem sind rollenbasierte Zugriffsrechte für KI-Modelle und Trainingsdaten ein wirksames Werkzeug. Diese sind regelmäßig zu prüfen und zu dokumentieren (Art. 21 RTS RMF).
Besonderes Augenmerk legt die BaFin auf die kontrollierte Stilllegung von KI-Systemen. Finanzunternehmen sollen verbindliche Regelungen zur Deinstallation vorhalten, um Datenabfluss, Missbrauch oder die unkontrollierte Weiterverwendung veralteter Modelle zu verhindern. Dazu gehören die vollständige Entfernung von Modellen, die sichere Löschung oder Archivierung von Daten, die Deaktivierung von Zugriffsrechten sowie eine nachvollziehbare Dokumentation.
Besonderheiten beim Betrieb von KI in der Cloud
Da KI-Systeme – insbesondere generative KI und LLMs – regelmäßig cloudbasiert betrieben werden, widmet die BaFin den Cloud-Spezifika besondere Aufmerksamkeit. Sie überträgt die Maßstäbe ihrer Aufsichtsmitteilung zu Auslagerungen an Cloud-Anbieter konsequent auf KI-Anwendungen und ergänzt sie um KI-spezifische Risikoperspektiven.
Zentral ist eine umfassende Risikobewertung vor Vertragsschluss, die neben klassischen Cloud-Risiken auch modellbezogene Aspekte wie Datenflüsse, Modelländerungen durch den Anbieter oder Abhängigkeiten von Rechenkapazitäten erfasst. Besondere Bedeutung kommt der Transparenz über Unterauftragsketten zu, da beim KI-Betrieb häufig spezialisierte Drittanbieter eingebunden sind.
Vertraglich fordert die BaFin belastbare SLAs, die Verfügbarkeit, Performance, Sicherheitsanforderungen und Vorfallmeldungen ausdrücklich auch für KI-Systeme regeln. Ergänzt werden diese durch umfassende Audit- und Kontrollrechte, die sich auf Unterauftragnehmer erstrecken müssen.
Schließlich verlangt die Aufsicht tragfähige Exit-Strategien, um Anbieterwechsel oder Rückführungen zu ermöglichen. Die Vermeidung des Vendor-Lock-in – Effekts ist dabei nicht nur wirtschaftlich, sondern aufsichtsrechtlich relevant.
Cyber- und Datensicherheit bei KI besonders exponiert
Die BaFin misst der Cyber- und Datensicherheit beim Einsatz von KI-Systemen eine zentrale, lebenszyklusübergreifende Bedeutung bei. KI-Systeme sind nach ihrer Auffassung besonders exponierte Angriffspunkte, da sie sensible Daten verarbeiten und häufig in Entscheidungsprozesse eingebunden sind. Finanzunternehmen müssen KI daher ausdrücklich in ihre IKT-Sicherheitsrichtlinien nach DORA einbeziehen und angemessene technische und organisatorische Maßnahmen zum Schutz von Systemen, Modellen und Daten implementieren, damit ein sicherer und resilienter Betrieb von KI im Rahmen des IKT-Risikomanagementrahmens nach DORA gewährleistet werden kann. Hierzu zählen insbesondere strikte Zugriffs- und Berechtigungskonzepte, Verschlüsselung, kontinuierliches Monitoring, Protokollierung sowie Schutzmechanismen gegen KI-spezifische Angriffe wie Data Poisoning, adversarielle Eingaben oder unautorisierte Modellabfragen. Auch Anforderungen an Datenklassifikation, -integrität und sichere Löschung werden betont. Insgesamt macht die BaFin deutlich, dass Cyber- und Datensicherheit beim KI-Einsatz keine Zusatzanforderung, sondern ein Kernbestandteil des DORA-konformen IKT-Risikomanagements ist.
Meldung schwerwiegender IKT-bezogener Vorfälle bei KI-Systemen
Schwerwiegende IKT-bezogene Vorfälle im Zusammenhang mit KI-Systemen unterfallen selbstverständlich vollumfänglich den Meldepflichten nach DORA. Sicherheitsvorfälle, Störungen oder Manipulationen von KI-Systemen sind daher nicht isoliert zu betrachten, sondern als IKT-Vorfälle im Sinne der Art. 17 ff. DORA einzuordnen, sofern sie die Verfügbarkeit, Integrität, Vertraulichkeit oder Authentizität von Daten oder Dienstleistungen beeinträchtigen.
Finanzunternehmen müssen geeignete Prozesse zur Erkennung, Klassifizierung, Behandlung und Meldung solcher Vorfälle vorhalten. Diese Prozesse sollen ausdrücklich auch KI-spezifische Szenarien abdecken, etwa Manipulationen von Trainingsdaten, Modellfehler, unerwartetes Modellverhalten oder Sicherheitsvorfälle bei cloudbasierten KI-Diensten. Die BaFin erwartet zudem, dass Vorfälle mit KI-Bezug intern als solche kenntlich gemacht werden, um eine gezielte Auswertung und Nachverfolgung zu ermöglichen.
Bei Nutzung von KI-Systemen über IKT-Drittdienstleister – insbesondere Cloud-Anbieter – sind vertragliche Regelungen sicherzustellen, die eine zeitnahe Information über relevante Vorfälle gewährleisten. Ergänzend verlangt die Aufsicht, dass Finanzunternehmen über ausreichende interne Ressourcen verfügen, um KI-bezogene Vorfälle fachlich bewerten, ihre Auswirkungen einschätzen und geeignete Abhilfemaßnahmen einleiten zu können.
Anhang besonders hilfreich: Fallstudie
Besonders hilfreich ist der umfangreiche Anhang der Orientierungshilfe mit einer Fallstudie zum Betrieb eines LLM-basierten KI-Assistenten. Die ansonsten eher abstrakten DORA-Vorgaben werden hier in eine realistische, technisch konkrete Anwendungssituation übersetzt. Die Fallstudie übersetzt die ansonsten eher abstrakten DORA-Anforderungen in einen konkreten regulatorischen Blueprint für den KI-Einsatz. Die BaFin zeigt hier exemplarisch, wie sich IKT-Risiken entlang des gesamten KI-Lebenszyklus identifizieren, bewerten und steuern lassen, ohne neue verbindliche Maßstäbe zu setzen.
Praxisrelevant ist insbesondere, dass die Fallstudie drei verbreitete Infrastrukturvarianten (On-Premise, Cloud im eigenen Tenant, Cloud außerhalb des Tenants) gegenüberstellt. Dadurch wird deutlich, dass sich das Risikoprofil nicht aus dem KI-Use-Case, sondern maßgeblich aus der technischen Betriebsform und den Datenflüssen ergibt. Finanzunternehmen können ihre eigenen Implementierungen daran unmittelbar einordnen und bestehende Risikoannahmen überprüfen.
Hinzu kommt, dass in der Fallstudie konkrete Angriffsszenarien und Fehlentwicklungen – etwa Data Poisoning, Prompt Injection, unkontrollierte Datenabflüsse oder fehlende Zugriffsbeschränkungen – adressiert und diesen dann exemplarische Gegenmaßnahmen zuordnet werden. Gerade für Compliance-, IT- und Risikofunktionen bietet dies eine strukturierte Argumentations- und Dokumentationshilfe, ohne dass die BaFin faktisch neue Mindeststandards setzt.
Schließlich ist die Fallstudie deshalb besonders wertvoll, weil sie ausdrücklich als Best-Practice-Illustration fungiert. Sie ermöglicht es Unternehmen, eigene KI-Konzepte gegenüber Aufsicht, Interner Revision oder Abschlussprüfern sachgerecht zu begründen, indem sie zeigt, welche Überlegungen die BaFin bei der Bewertung von KI-Risiken zugrunde legt.
Fazit: Kein neues Recht – aber neue Tiefe
Die Orientierungshilfe der BaFin verleiht den bestehenden DORA-Vorgaben erstmals eine spürbar größere Tiefe und praktische Kontur für den Einsatz von KI in Finanzunternehmen. Sie macht deutlich, dass KI erhebliche Effizienz- und Steuerungspotenziale bietet, diese jedoch untrennbar mit erhöhten IKT-, Cyber- und Drittparteienrisiken verbunden sind. Gerade mit der zunehmenden Nutzung komplexer und häufig cloudbasierter KI-Systeme steigen die Anforderungen an Governance, Organisation und technische Kontrolle.
Zentraler Befund der BaFin ist, dass DORA einen ausreichenden und tragfähigen Rahmen für den sicheren Einsatz von KI bereitstellt – vorausgesetzt, die Vorgaben werden konsequent, risikobasiert und lebenszyklusorientiert umgesetzt. Entwicklung, Test, Betrieb und Stilllegung von KI-Systemen sind nicht isoliert zu betrachten, sondern als zusammenhängende Elemente eines wirksamen IKT-Risikomanagements. Selbst- und fremdentwickelte KI-Systeme unterliegen dabei denselben Maßstäben; Unterschiede ergeben sich allein aus ihrer Kritikalität und Einbindung in Geschäftsprozesse.
Mit ihrem bewusst nicht verbindlichen Charakter positioniert sich die Orientierungshilfe als praxisnahes Arbeitsinstrument. Sie formuliert keine starren Erwartungshaltungen, sondern verdeutlicht, welche Überlegungen die BaFin bei der Bewertung von KI-Risiken zugrunde legt. Gerade die Fallstudie fungiert dabei als regulatorischer Blueprint, an dem Finanzunternehmen ihre eigenen KI-Konzepte ausrichten und gegenüber Aufsicht, Revision oder Prüfern sachgerecht begründen können.
Im Ergebnis macht die BaFin deutlich, dass der Einsatz von KI im Finanzsektor aufsichtsrechtlich weder privilegiert noch pauschal kritisch bewertet wird. Entscheidend ist allein, ob Finanzunternehmen in der Lage sind, KI-Systeme beherrschbar, transparent und resilient in ihre IKT-Landschaft zu integrieren. Innovation ist damit zulässig – und faktisch erwartet –, aber nur dort tragfähig, wo sie von einer belastbaren Governance, einem wirksamen IKT-Risikomanagement und einer hohen operativen Reife flankiert wird. Für die Praxis heißt das: KI ist kein Experimentierraum außerhalb der Regulierung, sondern muss sich als reguläres IKT-System im bestehenden DORA-Framework bewähren.