Bringen Sie Licht in die Black Box des maschinellen Lernens
HeimHeim > Blog > Bringen Sie Licht in die Black Box des maschinellen Lernens

Bringen Sie Licht in die Black Box des maschinellen Lernens

Jun 14, 2024

Senior Portfolio Manager, Man Numeric

Bisher wurden nur geringe Fortschritte bei der Nutzung maschineller Lernmodelle für die Faktorportfolio-Attribution erzielt. Wir erklären, wo und wie systematische Anleger granulare, lokale Erklärungen zur Performance finden können.

August 2023

Während maschinelle Lernmodelle möglicherweise höhere Renditen erzielen, sind Anleger derzeit etwas blind dafür, woher diese Renditen kommen.

Das moderne Portfoliomanagement setzt zunehmend auf Modelle des maschinellen Lernens (ML), um Renditen vorherzusagen, da diese in der Lage sind, komplexe Wechselwirkungen zwischen Faktoren zu erfassen. Der Nachteil besteht darin, dass das Endergebnis oft einem Black-Box-Modell mit hochoptimierten Ausgaben ähnelt. Dies bedeutet, dass es oft schwierig ist, die Vorhersagen und Entscheidungsfindung eines Modells zu verstehen. Um dem entgegenzuwirken, werden Modellinterpretations- oder Attributionstechniken eingesetzt, um zu versuchen, die Gründe für Modellvorhersagen zu erklären und die Merkmale aufzudecken, die am meisten zum Ergebnis beitragen. Bisher wurden jedoch nur geringe Fortschritte bei der Nutzung von ML-Modellen für die Faktorportfoliozuordnung erzielt, die eine entscheidende Komponente systematischer Portfolioinvestitionen darstellt. Ohne diese Entwicklung ist es schwierig, genau zu verstehen, welche Faktoren die Portfoliorenditen beeinflussen. Während ML-Modelle möglicherweise höhere Renditen erzielen, sind Anleger derzeit etwas blind dafür, woher diese Renditen kommen.

Bestehende lineare Faktorattributionsmethoden weisen Einschränkungen auf, wie z. B. die mangelnde Fähigkeit, lokale Interaktionseffekte zu erfassen, und die implizite Annahme eines singulären globalen Betas. Stattdessen würden wir argumentieren, dass systematische Anleger über die bestehenden linearen Attributionsmodelle hinausblicken müssen, um granulare, lokale Erklärungen für die Leistung zu finden.

Eine Lösung besteht darin, den Shapley-Wert zu verwenden. In diesem Artikel untersuchen wir, was der Shapley-Wert ist, wie er zur Erklärung von Modellausgaben angewendet werden kann und wie wir Shapley-Werte mithilfe von SHapley Additive ExPlanations (SHAP) berechnen – einer spezifischen Implementierung des Shapley-Werts. Wir erklären außerdem, wie ein SHAP-basiertes Performance-Attribution-Framework für die lokale und globale Portfolio-Attribution verwendet werden kann, und stellen ein innovatives Portfolio-Attributionssystem vor, das Shapley-Wert und SHAP nutzt, um sowohl den Entscheidungsprozess als auch die querschnittliche Renditeschwankung auf lokaler und lokaler Ebene zu erklären Globale Ebene. Wir demonstrieren auch die verbesserte Erklärungskraft der SHAP-Attribution durch die Einbeziehung nichtlinearer ML-Modelle wie XGBoost.

Wenn ML-Modelle weiterhin angemessene Renditen liefern, warum sollte man sich dann Gedanken über die Verfeinerung der Attributionsmethoden machen? Kurz gesagt, weil sie unzureichend sind. Bestehende Faktorattributionsmethoden wie Zeitreihenregression, Querschnittsrenditeattribution und bestandsbasierte Attribution basieren auf linearen Modellen und sind daher nicht in der Lage, lokale Interaktionseffekte unter der Annahme eines globalen linearen Betas zu erfassen.

Beispielsweise ist die Zeitreihenregression durch das Dimensionalitätsproblem und die Annahme eines konstanten Betas über die Zeit begrenzt, was sie für das dynamische Portfoliomanagement weniger nützlich macht. Umgekehrt geht die querschnittliche Renditeattribution mit einer Reihe von Risikofaktoren, wie sie üblicherweise von Risikomodellanbietern verwendet wird, davon aus, dass die Renditegenerierung einem linearen globalen Faktormodell zugeschrieben werden kann. Sein enger Verwandter, die bestandsbasierte Attribution, schätzt das Risiko der Portfoliobestände gegenüber einer Reihe benutzerdefinierter Faktorportfolios. Obwohl alle drei Methoden auf derselben linearen Faktorrenditestruktur basieren, unterscheiden sie sich hinsichtlich der Komplexität und Anpassungsflexibilität. Aufgrund der nichtlinearen Beziehung zwischen diesen unabhängigen Variablen sind diese Methoden jedoch nicht in der Lage, Interaktionseffekte zu erfassen.

Der Shapley-Wert ist ein Konzept aus der kooperativen Spieltheorie, das den Beitrag jedes Spielers zur Auszahlung eines Koalitionsspiels misst.

Der Shapley-Wert ist ein Konzept aus der kooperativen Spieltheorie, das den Beitrag jedes Spielers zur Auszahlung eines Koalitionsspiels misst. Die vier Axiome des Shapley-Werts1 stellen sicher, dass die Auszahlungsverteilung fair ist, wenn Spieler Koalitionen bilden können und die Auszahlung von der Leistung der Koalition abhängt. Der Shapley-Wert ist die einzige Auszahlungsmethode, die diese vier Axiome erfüllt. Die Auszahlungsverteilung wird auf der Grundlage des Grenzbeitrags eines Spielers berechnet, indem alle Kombinationen der Spieler permutiert werden.

Die Grundidee hinter der SHAP-Attribution besteht darin, den Output jedes Wertpapiers (Gewicht und Rendite) als Summe des Beitrags jedes Faktors (in der ML-Sprache auch Feature genannt) zu erklären. Der Satz der verwendeten Faktoren wird von den Benutzern definiert. Beispiele hierfür sind grundlegende Faktoren wie Barra-Faktoren, Modellbewertungen oder alle Metriken, die als Eingaben für ein Modell verwendet werden können, um die Ausgabe vorherzusagen. Der SHAP-Wert für ein Feature ist die Änderung des erwarteten Werts, die durch die Einbeziehung dieses Features entsteht. Dieser Ansatz ermöglicht es uns, die Attribution von den zugrunde liegenden Modellen zu entkoppeln, die zur Erklärung von Portfoliobeständen oder Aktienrenditen verwendet werden, und bietet uns die Flexibilität, jedes Modell zu verwenden, das wir für geeignet halten, um Portfoliogewicht und Querschnittsrenditen zu erklären.

Die SHAP-Attribution kann lokale Interaktionseffekte und andere nichtlineare Beziehungen erfassen, die außerhalb der Reichweite linearer Modelle liegen, die in bestehenden Attributionsmethoden verwendet werden.

Mit einem solchen Ansatz sollten wir in der Lage sein, den Entscheidungsprozess und die Querschnittsrenditeschwankung für jedes Wertpapier in einem Portfolio zu erklären, also eine lokale Erklärung. Die SHAP-Attribution kann daher lokale Interaktionseffekte und andere nichtlineare Beziehungen erfassen, die außerhalb der Reichweite linearer Modelle liegen, die in bestehenden Attributionsmethoden verwendet werden.

Die Berechnung eines exakten Shapley-Werts ist rechenintensiv und schwierig, wenn die Anzahl der Features groß ist. Daher ist eine Näherungslösung erforderlich. Eine Möglichkeit zur Berechnung eines ungefähren Shapley-Werts ist die statistische Stichprobenziehung. SHAP ist eine beliebte Implementierung des Shapley-Werts und bietet mehrere Näherungsalgorithmen. Es umfasst Kernel SHAP, eine modellunabhängige Implementierung des Shapley-Werts und einige schnelle, effiziente modellspezifische Algorithmen wie TreeSHAP zur Berechnung von Shapley-Werten. Für alle unsere Studien verwenden wir das SHAP-Paket mit der Python-API, um den ungefähren Shapley-Wert zu berechnen. Insbesondere verwenden wir TreeSHAP, wenn zugrunde liegende Modelle auf Entscheidungsbäumen basieren.

Wir schlagen ein Portfolio-Attributions-Framework vor, das auf der SHAP-Implementierung des Shapley-Werts basiert. Attribution ist der Prozess der Erklärung der Performance eines Portfolios. Die Performance ist die Summe aus dem Produkt aus Gewicht und Rendite jedes im Portfolio gehaltenen Wertpapiers. Anleger haben die Kontrolle über die Portfoliogewichte, aber keine Kontrolle über die Rendite. Daher muss die Portfoliozuordnung sowohl erklären, wie Anlageentscheidungen getroffen werden, als auch, was die Rendite bestimmt. Im Allgemeinen verwenden Anleger ihre proprietären Modelle und eine Reihe von Faktoren (Stil-, Branchen- oder Länderfaktoren), um die Gewichtung des Anlageportfolios und die Renditevariation im Querschnitt zu erklären.

Die modellunabhängige Eigenschaft des Shapley-Werts ermöglicht es uns, die zur Vorhersage der Ausgabe verwendeten Modelle und die Zuordnung der zur Erklärung des vorhergesagten Werts verwendeten Faktoren zu trennen. Nichtlineare ML-Modelle können zur Erklärung sowohl der Entscheidungsfindung als auch der Querschnittsrenditequellen verwendet werden. Lineare Modelle legen eine strikte globale Struktur fest und beinhalten eine Kausalitätsannahme, während nichtlineare ML-Modelle nur Korrelation und Assoziation erfordern.

Für eine globale Interpretation auf Portfolio- oder Gruppenebene können wir SHAP-Werte von unten nach oben aus den Shapley-Werten des Wertpapiers aggregieren. Neben der Konsistenz zwischen lokaler und globaler Erklärung bietet dieser Ansatz Flexibilität und individuelle Aggregation.

Das folgende Diagramm zeigt den Rahmen für die SHAP-Attribution. Wir passen zwei Modelle an, die auf vom Benutzer bereitgestellten Faktoren basieren, eines zur Erläuterung des Entscheidungsprozesses (dh des Gewichts eines Wertpapiers im Portfolio) und eines zur Erläuterung querschnittlicher Renditequellen. Empirisch baumbasierte Modelle bieten eine viel bessere Erklärung und stehen im Einklang mit unseren Beobachtungen, dass nichtlineare Wechselwirkungen zwischen Faktoren sowohl bei der Investitionsentscheidung als auch bei der Renditeprognose eine wichtige Rolle spielen (da das Portfolio verschiedenen Investitions- und Liquiditätsbeschränkungen unterliegt, selbst wenn die Renditeprognose auf einem linearen Faktor basiert). Modelle) und Querschnittsrückgabequellen.

Quelle: Man Numeric. Zur Veranschaulichung.

Die Portfoliorendite ist einfach die Summe der Gewichtung jedes Wertpapiers multipliziert mit seiner Rendite. Abbildung 1 zeigt, dass die modellangepasste Gewichtung als Summe der SHAP-Werte der Faktoren geschrieben werden kann, die zur Anpassung des Gewichtsmodells verwendet werden. In ähnlicher Weise kann die vom Modell vorhergesagte Rendite als Summe der SHAP-Werte von Faktoren geschrieben werden, die zur Anpassung der Rendite verwendet werden. Daher ist die Renditezuordnung für jedes Wertpapier einfach der Gewichtungs-SHAP des Wertpapiers multipliziert mit seinem Rendite-SHAP – in Matrixform handelt es sich hierbei um ein Face-Splitting-Produkt. Die globale Leistungszuordnung erfolgt durch die Aggregation von SHAP-Werten aus der Sicherheitsstufe. Es ist erwähnenswert, dass der Shapley-Wert den Grenzbeitrag misst, was bedeutet, dass der SHAP-Wert für die Rendite eine Zuschreibung der Überrendite ist, wenn das Modell an ein breites Universum angepasst wird; und für das Gewicht wird das aktive Gewicht bevorzugt, da es besser mit dem Randkonzept übereinstimmt.

Im vorherigen Abschnitt demonstrieren wir ein allgemeines Performance-Attribution-Framework, das SHAP-Werte verwendet, um Portfoliogewicht und Wertpapierrendite zuzuordnen. Dies führt auf Portfolioebene zu folgender Gleichung:

Wenn wir verwendenMFunktionen zur Erklärung von Gewicht undkFunktionen zur Erläuterung der Rückgabe wird es gebenm*k SHAP-Werte zur Erklärung der Wertentwicklung jeder Aktie als Ergebnis der vollständigen Expansion. Wenn auch das Residuum, also die Differenz zwischen dem modellerklärten Wert und dem wahren Wert, in die Berechnung einbezogen wird, dann gibt es sie(m+1)*(k+1) Leistungszuordnungselemente für jedes Wertpapier. Dies kann selbst bei einer geringen Anzahl von Funktionen unhandlich und uninterpretierbar werden, weshalb eine gewisse Aggregation erforderlich ist. Dieses Framework bietet Benutzern die volle Kontrolle darüber, wie Daten aggregiert und interpretiert werden sollen. Wir schlagen zwei intuitive Ansätze vor und betonen deren Zusammenhang mit der bestehenden Portfoliozuordnung linearer Faktoren:

Ein Vorteil der vollständigen Ausweitung der Gewichtungs- und Rendite-SHAP-Werte besteht darin, Fragen zu beantworten, wie zum Beispiel für Aktie A: Wie viel Beitrag kommt von der durch den Momentum-Faktor gesteuerten Gewichtung und der Rendite der Aktie aufgrund des Value-Faktors? Dies ist der Gewichtungs-SHAP für Momentum der Aktie A multipliziert mit ihrem Rendite-SHAP für Wert. Wir können diesen Begriff über alle Wertpapiere hinweg zusammenfassen, um eine Antwort auf Portfolioebene zu erhalten.

Abbildung 2 veranschaulicht die beiden Methoden. In diesem stilisierten Beispiel wird „Wert“ verwendet, um sowohl Gewicht als auch Rendite zu erklären, und die Aggregation erfolgt entweder auf der Seite der Gewichtung (graue Linien) oder der Rendite (gelbe Linien). Am Ende erhalten wir sehr unterschiedliche Erklärungen dafür, wie viel Leistung wir Value zuschreiben können. Wir möchten darauf hinweisen, dass die Attribution von der Gewichtungsseite der bestandsbasierten Attribution (HBA) entspricht, wenn das zugrunde liegende Gewichtungsmodell linear ist (einschließlich der Restrendite in Wertpapieren). Die Attribution von der Renditeseite entspricht der querschnittlichen renditebasierten Attribution, wenn das zugrunde liegende Renditemodell linear ist (einschließlich Restgewichtung). Konzeptionell handelt es sich bei der hier vorgeschlagenen SHAP-Attribution um einen allgemeineren Rahmen, der die aktuellen Faktorattributionsmethoden berücksichtigen kann.

In diesem allgemeinen Rahmen haben wir die oft rätselhafte empirische Beobachtung in Einklang gebracht, dass derselbe Faktor bei Verwendung von HBA eine sehr unterschiedliche Attribution haben kann als bei renditebasierter Attribution. Entgegen manchen Behauptungen gibt es keinen inhärenten Vorteil von HBA gegenüber renditebasierter Attribution. Bei beiden handelt es sich um globale, lineare, modellbasierte Erklärungen mit unterschiedlichen Perspektiven; Einer verwendet Faktoren, um die Gewichtsentscheidung zu erklären und ignoriert die Renditequellen und der andere Ansatz von der Renditeseite und ignoriert die Treiber für Investitionsentscheidungen. Abhängig vom Anwendungsfall kann eine der beiden Aggregationsmethoden der anderen vorgezogen werden, oder manchmal können auch Interaktionsterme von Interesse sein – wie unser vorheriges Beispiel zeigt, bei dem Momentum als Gewichtsquelle und Value als Rückgabequelle verwendet wurden. Im Diagramm sehen wir, dass die gesamte „erklärte“ Leistung unverändert bleibt, egal von welcher Seite wir aggregieren. Wir lassen den Rest weg, der den „unerklärten“ Teil darstellt und somit eine der Erkenntnisse ist, die das SHAP-Attributionsrahmen bietet.

Quelle: Man Numeric. Zur Veranschaulichung.

Die Kombination leistungsstarker nichtlinearer ML-Modelle wie XGBoost mit SHAP-basierter Attribution verbessert die Attribution der Portfolioleistung.

Wie bereits erwähnt, sind bestehende Methoden zur Faktorzuordnung nicht in der Lage, Interaktionseffekte zwischen verschiedenen unabhängigen Variablen und die nichtlinearen Beziehungen zwischen ihnen zu erfassen. Unsere Fallstudie zeigt, dass die Kombination leistungsstarker nichtlinearer ML-Modelle wie XGBoost mit SHAP-basierter Attribution die Portfolio-Performance-Attribution verbessert, indem Interaktionseffekte zwischen Variablen erfasst werden und es uns ermöglicht wird, die nichtlineare „Black Box“-Beziehung zwischen Faktoren zu quantifizieren. Bei unseren Tests zur Zuordnung der Leistung eines diversifizierten globalen Portfolios mit einigen hundert Wertpapieren zu einer Reihe von Merkmalen, einschließlich unserer Modellbewertungen und einigen gängigen Marktvariablen, können wir mit baumbasierten Modellen wie XGBoost einen R-Quadrat von über 95 % erreichen im Vergleich zu etwa 60 %, die lineare Modelle zur Erklärung der Portfoliogewichtung verwenden. In ähnlicher Weise haben baumbasierte Modelle bei der Erklärung von Querschnittsrenditen mit einer begrenzten Anzahl von Merkmalen im Vergleich zur linearen Regression durchweg ein viel höheres R-Quadrat erreicht. Die Verbesserung ergibt sich hauptsächlich aus der Möglichkeit, lokale Interaktionseffekte und andere nichtlineare Muster auf Sicherheitsebene zu erfassen.

Es ist zu beachten, dass baumbasierte Modelle im Vergleich zur linearen Regression dazu neigen, die Daten zu „überanzupassen“. Daher ist die Regularisierung wichtig, um die zusätzliche Erklärungskraft gegen überangepasste, unsinnige Ergebnisse auszugleichen. Insgesamt ermöglichen uns die verbesserte Erklärungskraft und Flexibilität der SHAP-Attribution, unser Verständnis des Portfoliomanagements und der Investitionsentscheidung auf der granularsten Ebene zu verbessern.

Die Zuordnung der Portfolioleistung ist entscheidend für das Verständnis und das Vertrauen in den Anlageprozess.

Die Zuordnung der Portfolioleistung ist entscheidend für das Verständnis und das Vertrauen in den Anlageprozess. Für systematisch verwaltete Portfolios ist dies eine anspruchsvolle Aufgabe, da der „Black-Box“-Charakter der Modelle und die stark optimierte Portfoliokonstruktion die Ergebnisse weniger interpretierbar machen. Shapley-Werte in Kombination mit nichtlinearen ML-Modellen sind leistungsstarke Werkzeuge zur Interpretation von Black-Box-Modellen und zum Verständnis von Modell- oder Faktorbeiträgen, die Einblicke in die Entscheidungsprozesse und realisierte Renditequellen bieten. Schließlich könnte die hier verwendete Technik potenzielle Forschungsbereiche bieten, die über die Leistungsattribution hinausgehen, beispielsweise die mögliche Konstruktion von Risikomodellen mit eingebetteter Nichtlinearität unter Verwendung von SHAP-Werten für Querschnittsrenditen.

1. Die vier Axiome umfassen: Effizienz, Nichtigkeit, Symmetrie und Additivität.

Mkm*k(m+1)*(k+1)kMMk