Machine Learning und BCBS 239
In Zeiten von Banking 4.0, Machine Learning, RDARR bzw. BCBS 239 (Risikodatenaggregation und Reporting) erfordern umfangreichere Analysen, schnellere Reports und erhöhte regulatorische Anforderungen den Einsatz von innovativen Tools in Abteilungen wie Modellentwicklungs- und Validierungseinheiten quer über verschiedene Risikoarten. Zur Bewältigung der Aufgaben sollte der gesamte Modellentwicklungs- und Validierungsprozess flexibel gegenüber Veränderungen im Dateninput und Modellauswahl sein.
Ein solches Tool verbindet in der Regel Data Mining und Machine Learning unter Einbindung folgender Aspekte:
- ETL (Extrahierung, Transformation, Laden),
- Datendifferentialdiagnostik,
- Predictive Analytics und statistische Modellierung,
- Bewertung und Entwicklung.
Zudem erleichtert das „drag-and-drop“ von multiplen Operatoren zur Erstellung von Prozessen den analytischen Workflow erheblich. Dabei repräsentiert jeder Operator eine bestimmte Aufgabe innerhalb des auszuführenden Prozesses, verarbeitet Inputdaten und bereitet Outputdaten für den nächsten Operator vor. Auf diese Weise kann der gesamte Prozess von Dateninput bis zum Report erstellt, flexibel umgebaut und schnell mit diversen Modellen (z.B. Regressionsmodelle, Support Vector Machine, Random Forests, neuronale Netze) getestet werden.
Use Cases – einige Beispiele
Der Einsatz eines solchen Tools hat zum Beispiel folgende Vorteile:
Die Leistung eines Risikoparametermodells wie etwa bei PD, LGD und EAD hängt von der Qualität und Quantität der Inputdaten ab. Durch den Einsatz eines flexiblen GUI-basierten Tools mit der Möglichkeit, z.B. mit R oder Python spezifisch implementierten Datenverarbeitungsvorgaben zu kombinieren, können Vorstudien erheblich schneller abgeschlossen werden. Bei der Kreditvergabe könnte auf diesem Weg ad-hoc Ratings erstellt werden.
Die Vorstudie für eine potenzielle Entwicklung eines Scoringmodells ist ohne den Einsatz von GUI-basierten Tools häufig langwierig und eine Projektdauer von bis zu einem Jahr nicht selten. Prozessbausteine wie Datendifferentialdiagnostik, univariate Analyse, multivariate Analyse, bis hin zur Kalibrierung müssen bei jeder Veränderung in den Daten und Anforderung bilateral abgestimmt werden. Viele Zwischenauswertungen sind notwendig, die selbst für eine Vorstudie erst einmal programmiert werden müssen. Der Einsatz eines GUI-basierten Tools vermindert die Projektdauer erheblich.
Bisherige Modelle basieren häufig auf den Einsatz einfacher Regressionsmodelle. Dabei wird in keiner Weise die volle Stärke der Daten berücksichtigt und mögliche Leistungsverbesserung der Vorhersage werden nicht entdeckt. Erst der Einsatz von weiteren Methoden aus dem Supervised Learning eröffnet den richtigen Blick auf die Daten. Natürlich musst bei einer Modellweiterentwicklung auch der Kostenaspekt berücksichtigt werden. Damit ein solches Vorhaben rentabel bleibt, müssen Vorstudien schnell und effektiv verlaufen. In kürzester Zeit sollte in einer Vorstudie identifiziert werden, welche Modelle welche Leistung erzielen kann, um zum einen die Modellauswahl schnell zu unterstützen, aber auch Validierungstätigkeiten zeitnah abzuschließen. GUI-basierte Tools, bei denen quantitative Aufgaben schnell zu einem auswertbaren Prozess geformt werden, ist hier die passende Lösung.
Schon bei einfachen Methoden wie bei Regressionsmodellen kann der Prozess der Modellauswahl durchaus komplex sein, wenn es zum Beispiel darum geht, die adäquaten Parametern aus den Inputdaten zu identifizieren. Effektivität und Effizienz können nur mit einer wohl überlegten Data Mining Strategie erreicht werden. GUI-basierte Tools mit der Möglichkeit, die Datendifferentialdiagnostik flexibel zu gestalten, ist an dieser Stelle unabdingbar. Bei diesem Teilprozess ist die erfolgreiche Modellendauswahl sowohl auf automatisierte Datenreduktionsmethoden wie auch auf viele und schnelle Datenvisualisierungsmöglichkeiten angewiesen.
Fazit
Der Einsatz von modernen GUI-basierten Tools kann die Arbeit in diversen Abteilungen der Banken erheblich beschleunigen und entlasten. Der Einsatz eines solchen Tools ist nicht nur auf die Modellentwicklungs- und Validierungseinheit beschränkt, sondern bei allen Einheiten mit Datenauswertungsaufgaben vorgesehen.
Im Frontoffice können notwendige ad-hoc Analysen analytisch und visuell erstellt und weiterverarbeitet werden. Im Risikomanagement und Risikocontrolling werden Einheiten wie bei der Modellentwicklung und Validierung erheblich unterstützt und entlastet. In der Internen Revision können auf fundierter Weise schnell quantitative Ergebnisse eigenständig und unabhängig überprüft werden.
Letztes Update: 12.07.2018