Big Data für Risikomanagement im Investment Banking

Teil 1: Begriffsdefinition und Übersicht

17. Juli 2015Dionysis Eliakopoulos

Warum ist Risikomanagement ein Thema?

Seit vielen Jahren, aber insbesondere nach der letzten großen Finanzkrise, ist das Risikomanagement enorm wichtig für die Finanzinstitute geworden, um finanzielle Verluste zu verhindern bzw. ausreichend Eigenkapital zu behalten, sodass sie nicht in die Insolvenz geraten können. Mehrere Institutionen haben neue regulatorische Rahmenbedingungen wie Basel III und Solvency II aufgestellt, die immer strengere Anforderungen an die Banken stellen und die Berechnung sowie das Reporting weiterer Kennzahlen fordern. Dies ist die Voraussetzung für den Einsatz spezialisierter Risikomodelle, wie sie jede größere Bank nutzt. Alternativ wurden relativ hohe pauschale Prozente/Beträge zur Berechnung des eigenen Kapitalbedarfs festgesetzt, die jedoch einen zu hohen Eigenkapitalanteil festlegen.

Wieso ist Big Data ein Thema?

Die Systeme, die solche Risikokennzahlen berechnen und berichten, müssen mit sehr großen Datenmengen (Volume) umgehen; sie nutzen die aktuellen Markt- und Tradedaten, die sich laufend verändern (Velocity) und sie analysieren und gruppieren die Daten auf unterschiedliche Aspekte hin (Variety ), um die richtigen Reports zu produzieren. Es ist also naheliegend zu überlegen, ob neue Ansätze basierend auf Big-Data-Technologien hier helfen können und welche Szenarien man so besser als bei herkömmlichen Systemen abbilden kann. Darüber hinaus gilt es zu überlegen, ob man zusätzliche Datenquellen (z.B. Sozial Media) kombinieren und sich damit neue Ansätze zur Risikoberechnung erschließen kann.

Was bedeute Risikomanagement für Nicht-Finanzexperten?

Die Risikoabschätzung, z.B. die Value at Risk (VaR) Schätzung, betrifft unterschiedliche Kennzahlen, abhängig vom Risikobereich (Marktrisiko, Gegenparteirisiko, operationelles Risiko oder Systemrisiko). Ich möchte mich zunächst auf das Gegenparteirisiko-Management konzentrieren; das allgemeine Prinzip bei der Risikobewertung gilt für alle Bereiche.

An dieser Stelle wird nur eine von vielen möglichen Kalkulationen betrachtet, um das Prinzip zu demonstrieren:

Beispiel Kennzahl: Potential Future Exposure (PFE) wird als das maximal erwartete Kreditrisiko über einen bestimmten Zeitraum zu einem bestimmten Konfidenzniveau definiert. Es ist eine Schätzung des Risikos über die Zeit mit einer bestimmten Sicherheit, basierend auf Markdaten und Korrelationen.

Die wichtigsten Anwendungen von PFE sind:

Hier ist eine sehr grobe, vereinfachte Übersicht über die Schritte, die passieren müssen, um PFE berechnen und berichten zu können:

  • Importieren/Aufbereiten der notwendigen Daten: Marktdaten, Trade-/Geschäftsdaten, Vereinbarungen/Verträge, Legale Entitäten, Risiko-Limits, Sicherheiten (Collaterals).
  • Generierung von möglichst vielen Szenarien unter Nutzung von mathematischen Algorithmen (Monte Carlo Simulation).
  • Bewerten der Trades/Geschäfte, z.B. mit dem Black and Scholes Model zu Preisen von Geschäften (Trades).
  • Aggregation der Risikoexposition der einzelnen Trades auf die verschiedenen Hierarchieebenen (Portfolio, Netting Set).
  • Reporting der Ergebnisse für unterschiedliche Stakeholder nach sehr unterschiedlichen Kriterien.

Warum Performance und Speicherplatz?

Für das bessere Verständnis der Restriktionen und nicht funktionalen Anforderungen, nun exemplarisch ein paar Daten dazu:

Big Data für Risikomanagement im Investment Banking

 

 

 

 

 

 

 

 

  • Das bedeutet, dass Distributed Computing für diese Art der Berechnung eine zwingende Notwendigkeit ist, um die Service Level Agreements (SLA) einzuhalten.
  • Das bedeutet, dass schnelle und sichere Speichermöglichkeiten für diese Art der Berechnung eine zwingende Notwendigkeit sind, um die Service Level Agreements (SLA) einzuhalten.
  • Die o.g. Daten berücksichtigen keine weiteren Aspekte wie Notwendigkeit zur längerfristigen Speicherung der Daten oder Support von anderen Use Cases, wie Backtesting und Forwardtesting zur Optimierung der genutzten Modelle.

Welche Visionen und Prinzipien haben wir im Big-Data-Enterprise-Projekt?

Der Einsatz von Big-Data-Technologien im Risikomanagement kann in der letzten Ausbaustufe zu einem eventbasierten System führen, welches die Big-Data-Pyramide optimal umsetzt und dadurch entscheidende Vorteile für den Kunden liefert.

Die folgende Abbildung zeigt drei unterschiedliche Richtungen, die wir mit einem Big-Data-Projekt angehen können:

Big Data für Risikomanagement im Investment Banking 2

  • Real-Time-Daten / Entscheidungen und Kunden-Feedback
  • Predictive Model zur Vorhersage inklusive Validierung (Backtesting, Forwardtesting)
  • Dashboards und Reporting zur Ergebnisaufbereitung

 

 

 

Ein Big-Data-Enterprise-Projekt hat drei Ebenen, die zusammenspielen:

  • Enterprise Technology (Hortonworks, Cloudera, …)
  • Enterprise Data Scientist / Integrator (adesso)
  • Fachbereich (Bank)

Wie sieht die Big-Data-Architektur für Risikomanagement aus?

So komplex der Bereich Risikomanagement auch sein mag, wenn wir alles, was wir bisher diskutiert haben, zusammenbringen, zeigt die folgende Abbildung schematisch einen generischen Ansatz für eine Risikomanagement-Applikation:

Big Data für Risikomanagement im Investment Banking 3In einem Big-Data-Enterprise-Projekt-Kontext muss man natürlich noch berücksichtigen, dass dies nur ein Ausschnitt des gesamten Risikomanagements ist, wobei z.B. der Markt Risikomanagement teilweise auf genau die gleichen Daten, z.B. die Trade-Daten, zugreifen muss.

Im Sinne einer strategischen Target-Architektur, basierend auf Big-Data-Technologien, drängt sich hier also das Konzept des Data Lakes auf wie z.B. im Artikel von Thomas Franz beschrieben. Die Daten werden im Data Lake ohne Bearbeitung in ihrer Ursprungsform direkt gespeichert und sofort analysiert. Explorative Datenanalyse ist damit unmittelbar möglich. Data Lakes eignen sich auch sehr gut für Hadoop, weil man kein Datenschema festlegen muss und die Daten einfach geladen werden können.

Im zweiten Teil der Reihe berichte ich über meine Erfahrungen mit Big Data für das Risikomanagement im Investment Banking. Haben Sie Big Data schon für sich berücksichtigt und die Vorteile erkannt?

Dionysis Eliakopoulos Dionysis Eliakopoulos gehört als Competence Center Leiter Entwicklung zum Führungsteam des LoB Banking und ist ein erfahrener Enterprise Architekt und Senior Projekt Manager mit über 20-jähriger Tätigkeit in internationalen Projekten im Bereich Banking, Logistik, Öffentliche Verwaltung und Energiewirtschaft. Ein wichtiger Schwerpunkt seine Arbeit sind Agile Methoden (Certified Scrum Developer) bei der Softwareentwicklung.
Artikel bewerten:
1 Star2 Stars3 Stars4 Stars5 Stars
Loading...

Kommentar hinzufügen:

Ihr Kommentar: