Zum Inhalt

Hierarchical Risk Parity (HRP)

López de Prado's ML-basierte Alternative zu Markowitz-Optimierung: Graph-Clustering und rekursive Bisection statt Kovarianzmatrix-Inversion — produziert niedrigere Out-of-Sample-Varianz als klassische Minimum-Varianz-Optimierung.

Das Problem: Markowitz's Curse

Markowitz-Optimierung (CLA) invertiert eine Kovarianzmatrix. Je korrelierter die Assets, desto größer die Konditionszahl der Matrix und desto instabiler ihre Inverse. Kleine Schätzfehler in der Kovarianzmatrix → riesige Sprünge in den Allokationen.

Die Ironie: Diversifikation wird am dringlichsten gebraucht, wenn Assets stark korrelieren — aber genau dann ist die Matrixinversion am unzuverlässigsten. Das ist Markowitz's Curse: Das System bricht genau dort, wo man es am meisten braucht.

Praktisches Resultat: Markowitz-Portfolios sind oft konzentriert, instabil und performen Out-of-Sample schlechter als naive Equal-Weight-Allokation.

HRP-Algorithmus (drei Schritte)

Schritt 1 — Tree Clustering: Aus der Korrelationsmatrix wird eine Distanzmatrix berechnet (d = √(0.5 × (1 - ρ))). Hierarchisches Single-Linkage-Clustering erzeugt einen Dendrogramm-Baum, der Assets nach Ähnlichkeit gruppiert.

Schritt 2 — Quasi-Diagonalisierung: Assets werden so umsortiert, dass ähnliche Assets nebeneinander stehen. Das Ergebnis ist eine quasi-diagonale Kovarianzmatrix — ähnliches wie Block-Struktur.

Schritt 3 — Rekursive Bisection: Statt Matrixinversion: Rekursive Top-Down-Allokation. Bei jedem Split wird das Kapital zwischen zwei Cluster-Hälften im Verhältnis ihrer Invers-Varianzen verteilt. Innerhalb jeder Hälfte wird derselbe Prozess rekursiv wiederholt.

Vorteil: Keine Matrixinversion nötig. HRP funktioniert sogar bei singulärer Kovarianzmatrix (unmöglich für Markowitz).

Empirische Überlegenheit

Monte Carlo-Simulationen: HRP liefert niedrigere Out-of-Sample-Varianz als CLA (Markowitz), obwohl CLA explizit auf Minimum-Varianz optimiert. Historische Analysen: HRP hätte Standard-Ansätze (Risk Parity, Equal-Weight) übertroffen.

Erklärung: HRP-Allokation ist stabiler — kleine Änderungen in der Kovarianzmatrix führen zu kleinen Änderungen im Portfolio. CLA hingegen springt wegen Matrixinstabilität.

Operative Anwendung

Für den Fondsaufbau: HRP für Allokation über ML-Strategien. Wenn 5 Sub-Strategien (Momentum, MeanReversion, Macro, etc.) parallel laufen, ersetzt HRP die Kelly-Matrix-Allokation (F* = C⁻¹ × M) bei korrelierten oder instabilen Phasen.

Praktische Implementierung: Python, scipy/scikit-learn. López de Prado stellt Open-Source-Code bereit.

Verhältnis zu anderen Konzepten

HRP und kelly_kriterium sind komplementäre Sizing-Ansätze: Kelly optimiert den Expected Long-Term Return, HRP minimiert Out-of-Sample-Varianz. Bei stabiler Kovarianzmatrix und klaren Return-Schätzungen: Kelly. Bei instabilen Regimen oder unsicheren Inputs: HRP.

HRP ist robuster als diversifikation_heiliger_gral (Dalio) in der Umsetzung: Dalio diversifiziert durch Uncorrelated Streams, HRP stellt sicher, dass die technische Umsetzung nicht durch Matrixinstabilität kompromittiert wird.