18. August 2025
Von Lea Ruckstuhl
Schweizer Banken können künstliche Intelligenz erfolgreich im Transaktionsmonitoring einsetzen, um Auffälligkeiten präziser zu erkennen. Compliance-Mitarbeitende können dadurch die begrenzten Ressourcen für die komplexen Fälle einsetzen. Die FINMA wendet einen technologieneutralen Ansatz an und lässt den Einsatz von künstlicher Intelligenz zu. Wie könnte nun ein Transaktionsmonitoring mittels künstlicher Intelligenz funktionieren?
Das Transaktionsmonitoring ist für Banken ein zentraler Bestandteil der Geldwäschereiprävention. Die gesetzlichen Vorgaben – insbesondere Artikel 6 des Geldwäschereigesetzes (GwG) und die Bestimmungen in Art. 14 ff. GwV-FINMA – verpflichten die Finanzintermediäre, Auffälligkeiten zu erkennen, vertiefte Abklärungen vorzunehmen und letztlich zu entscheiden, ob eine Transaktion mit erhöhtem Risiko vorliegt, die nicht plausibilisiert werden kann. Traditionelle regelbasierte Transaktionsüberwachungssysteme stossen dabei zunehmend an ihre Grenzen: Sie generieren grosse Mengen an sogenannten False Positives – also Verdachtsmeldungen, die keinen tatsächlichen Abklärungsbedarf haben. Compliance-Mitarbeitende verbringen unnötig viel Zeit mit der Überprüfung dieser Meldungen (vgl. z.B. auch das Beispiel im Prinzipienpapier der BaFin vom 15. Juni 2021, Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen, S. 12 f.).
Hier setzt der Mehrwert von KI-Applikationen an: Systeme des maschinellen Lernens können Muster in grossen Datenmengen autonom erkennen und anhand eines Risiko-Scores priorisierte Ergebnisse liefern (vgl. Bericht IDAG künstliche Intelligenz, S. 7 und 20). Dies erlaubt es Banken, ihre Ressourcen gezielt auf besonders kritische Fälle zu konzentrieren. Ein Beispiel: Anstatt jede Auffälligkeit manuell zu prüfen, kann die KI Transaktionen kontextualisieren – etwa, indem sie einen ungewöhnlichen Zahlungseingang im Zusammenhang mit den bekannten Vermögensverhältnissen des Kunden plausibilisiert.
Technologie trifft Verantwortung
Die Schweiz verfolgt einen technologieneutralen Ansatz: Weder das Geldwäschereigesetz noch die Geldwäschereiverordnung (GwV-FINMA) schreiben im Detail vor, welche Technologien zum Einsatz kommen müssen, solange die gesetzlichen Vorgaben erfüllt werden. Die Schweiz kennt bislang keine KI-spezifische Gesetzgebung. Allerdings hat der Bundesrat in diesem Jahr dem EJPD den Auftrag erteilt, bis Ende 2026 eine Vernehmlassungsvorlage für neue Regeln für die Nutzung von KI zu erarbeiten. Das Gesetzesprojekt soll namentlich die Bereiche Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht umfassen (vgl. den Bericht an den Bundesrat, Auslegeordnung zur Regulierung von künstlicher Intelligenz, 12. Februar 2025).
In der FINMA-Aufsichtsmitteilung 08/2024 «Governance und Risikomanagement beim Einsatz Künstlicher Intelligenz» führt die Aufsichtsbehörde aus, dass die Risiken aus dem Einsatz von KI durch die technologieneutralen, prinzipienbasierten aufsichtsrechtlichen Anforderungen an eine wirksame Governance und ein wirksames Risikomanagement erfasst werden. Von den Beaufsichtigten, welche KI einsetzen, erwartet die FINMA, dass sie sich «aktiv mit den Auswirkungen dieser Nutzung auf ihr Risikoprofil auseinandersetzen und ihre Governance, ihr Risikomanagement und ihre Kontrollsysteme entsprechend ausrichten.» (FINMA-Aufsichtsmitteilung 08/2024, S. 3).
Auch wenn KI-Applikationen Entscheidungsprozesse unterstützen können, bleibt die Verantwortung in allen Fällen beim Finanzintermediär. Insbesondere bei der Abklärung verdächtiger Fälle, wie sie in Artikel 15 GwV-FINMA definiert sind, liegt der Fokus auf der menschlichen Prüfung. Bei komplexen Abklärungen, bei denen eine Interaktion mit Menschen erforderlich ist, kann die KI vorbereitend wirken – etwa durch die Bereitstellung von Hintergrundinformationen oder Wahrscheinlichkeitsberechnungen.
Herausforderungen beim Einsatz von KI
Die Qualität des Systems steht und fällt mit den Trainingsdaten. Verzerrte oder unausgewogene Datenbestände könnten dazu führen, dass bestimmte Kundengruppen systematisch benachteiligt oder fehlerhaft eingestuft werden. Dies kann das Transaktionsmonitoring verfälschen.
Black-Box-Problematik: Viele KI-Modelle arbeiten in einer Art „Black Box“ – die Entscheidungslogik bleibt für Aussenstehende schwer nachvollziehbar (vgl. Bericht IDAG künstliche Intelligenz, S. 24, 31). Dies ist problematisch, wenn die Banken gegenüber den Prüfgesellschaften und Aufsichtsbehörden Rechenschaft über die Funktionsweise und Zuverlässigkeit des Transaktionsmonitoring-Systems ablegen müssen.
Zur Lösung dieser Probleme setzen moderne Systeme auf Transparenz-Tools, die aufzeigen, welche Aspekte und Kriterien bei der KI-Applikation zur Generierung eines Treffers geführt haben und welche als risikoarm bewertet worden sind. Tools, mit welchen die statistische Verteilung der Inputdaten sowie die von der KI-Applikation berechneten Scores laufend verglichen werden können, sind nützliche Werkzeuge, welche helfen, Entscheidungsprozesse nachvollziehbarer zu machen und die Qualität des Monitorings zu sichern.
Automatisierte Entscheidungen im Transaktionsmonitoring
KI kann unterschiedlich weitgehend eingesetzt werden. Die Banken sind gestützt auf Art. 20 Abs. 2 GwV-FINMA verpflichtet, für die Transaktionsüberwachung ein informatikgestütztes System zu betreiben, das hilft, Transaktionen mit erhöhten Risiken nach Artikel 14 GwV-FINMA zu ermitteln.
Viele Banken überlegen sich, wie KI die Regel-Engine zur Treffergenerierung unterstützen kann. Es sind unterschiedliche Varianten denkbar.
Variante 1: KI unterstützt die Regel-Engine zur Treffergenerierung
In dieser Variante interagieren die KI-Anwendungen mit klassischen Regel-Engines, um deren Entscheidungen präziser zu gestalten. Auffällige Transaktionen, die von der Regel-Engine erkannt wurden, werden durch die KI anhand weiterer Daten bewertet. Ein Beispiel ist der Einsatz von statistischen Wahrscheinlichkeiten (Scores), um False Positives zu reduzieren, ohne verdächtige Fälle zu übersehen (*vgl. OFK GwG-Wyss, Art. 6 GwG N 47). Die KI kann hier als zweite Bewertungsebene fungieren, um die Regel-Engine im Zusammenhang mit der Identifizierung von verdächtigen Transaktionen zu ergänzen. Ein zentraler Vorteil ist die Dokumentation: Sowohl auffällige als auch als risikoarm bewertete Fälle werden gespeichert und stichprobenweise überprüft. Die KI dient hier als unterstützendes Instrument zur Erkennung von Transaktionen mit erhöhten Risiken. Es handelt sich bei diesem Validierungsprozess nicht um Abklärungen im Sinne Art. 15 f. GwV-FINMA. Die Bank behält die Kontrolle und kann ihrer aufsichtsrechtlichen Verantwortung vollumfänglich nachkommen. Diese Variante kann rechtlich als unproblematisch angesehen werden.
Variante 2: KI ersetzt Abklärungen (Auto-Closing)
In dieser Variante übernimmt die KI selbstständig Teile des Abklärungsprozesses, beispielsweise die Plausibilisierung von Auffälligkeiten gemäss Art. 15 GwV-FINMA. Sie bewertet, ob Transaktionen rechtmässig sind, und schliesst Fälle selbstständig ab („Auto-Closing“). Dabei können einfache Kriterien, wie die Prüfung bereits bekannter Muster oder die Beobachtung von Summen, durch die KI abgedeckt werden (z. B. Art. 15 Abs. 2 lit. a und c GwV-FINMA: wirtschaftliche Berechtigung und Verwendungszweck einer Transaktion). Jedoch ist der Einsatz bei komplexeren Abklärungen – etwa zur Herkunft der Vermögenswerte oder bei Verbrechen im Hintergrund – kritisch. In solchen Fällen sind Rückfragen bei der Vertragspartei oder bei Dritten in direkter Interaktion erforderlich, die KI-Systeme – zumindest im jetzigen Zeitpunkt – noch nicht einwandfrei leisten können. Hier birgt Variante 2 ein Risiko: Werden bestimmte Sorgfaltspflichten nicht erfüllt, droht dies als Verstoss gegen die Abklärungs- und Meldepflichten nach Art. 6 Abs. 2 und Art. 9 GwG gewertet zu werden.
Verantwortungsbewusster Einsatz ist möglich
Der Einsatz von KI im Transaktionsmonitoring ist rechtlich zulässig und kann Banken helfen, Ressourcen effizienter einzusetzen. Gleichzeitig müssen sich die Institute bewusst sein, dass KI kein Ersatz für die finale menschliche Verantwortung ist. Die Banken müssen die Grenzen der Automatisierung kennen und sicherstellen, dass alle relevanten Prozesse dokumentiert, nachvollziehbar und stichprobenweise überprüfbar bleiben.
Letztlich eröffnet KI den Instituten die Möglichkeit, sich stärker auf tatsächlich risikorelevante Fälle zu konzentrieren, die Compliance-Mitarbeitenden bei den komplexen und vermutlich relevanteren Fällen einzusetzen und damit letztlich auch den gesetzlichen Vorgaben besser nachzukommen.
Dieser Beitrag enthält Schlussfolgerungen, welche die Autorin zusammen mit Prof. Dr. Cornelia Stengel im Rahmen eines Gutachtens entwickelt hat.
Quellenangaben:
*Daniel Thelesklaf / Ralph Wyss / Mark van Thiel / Stiliano Ordolli (Hrsg.), GwG Kommentar / AMLA Commentary, Schweizerisches Geldwäschereigesetz mit weiteren Erlassen / Swiss Anti-Money Laundering Act with other Laws, 3. Aufl., Zürich 2018.
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.