PSO-RBF-Architektur¶
Particle Swarm Optimization + Radial Basis Function Neural Network: ein evolutionärer Hybrid-Ansatz, der gleichzeitig die Netzwerk-Parameter und die optimale Feature-Teilmenge bestimmt — leistungsstärker als klassisches Backpropagation-MLP.
Zwei-Ebenen-Design¶
PSO-Algorithmus (Optimizer)
↓ bestimmt:
├── Anzahl Hidden Neurons
├── Gaussian-Zentren (C_i) und Breiten (σ_i)
├── Output-Gewichte (w_i)
└── Input-Selektion (0/1 pro Feature)
↓
RBF Neural Network (Modell)
└── Gaussian-Aktivierung: φ(x) = exp(−|x−C|²/2σ²)
└── Linearer Output: U(x) = Σ x_i
RBF vs. MLP¶
| Eigenschaft | RBF | MLP |
|---|---|---|
| Aktivierung | Gaussian (radial) | Sigmoid (logistisch) |
| Hidden Layer | Keine Aktivierungsfunktion | Gewichtete Eingaben |
| Training | PSO (evolutionär) | Backpropagation |
| Feature-Selektion | Automatisch via PSO | Manuell / alle Inputs |
| Overfitting-Risiko | Geringer (PSO-Komplexitätsstrafe) | Höher bei vielen Inputs |
Multi-Ziel-Fitnessfunktion¶
Das PSO optimiert nicht nur statistischen Fehler, sondern direkt die Trading-Metrik:
- R^A: annualisierte Rendite (Primärziel)
- MSE: Mean Squared Error (statistische Nebenbedingung)
- n × 10^−2: Komplexitätsstrafe (weniger Neuronen bevorzugt)
Ergebnis: Das Modell lernt profitable Prognosen statt statistisch akkurate. Direkt relevant für transaktionskosten_modell — falsche Fehlermetrik vernichtet Alpha.
PSO-Mechanismus¶
PSO wurde von Kennedy & Eberhart (1995) entwickelt, inspiriert vom Schwarmverhalten (Vögel, Fische). Jeder Partikel ist ein Kandidat-Parameterset: - Kognitiver Anteil: Partikel erinnert sich an seine beste Position - Sozialer Anteil: Partikel bewegt sich zur global besten Position - Adaptive Trägheit (W) und Accelerations-Konstanten (C1, C2)
Parameter im Dunis-Setting: 30 Partikel, 100 Iterationen, 10 Neuronen (konstant), adaptive W/C1/C2.
Input-Selektion als Kernvorteil¶
Bei 59 möglichen Inputs produziert PSO für jeden Sliding-Window-Lauf eine binäre Selektionsmaske. Über alle Fenster gemittelt zeigt sich, welche Inputs konsistent relevant sind:
- GARCH-Modelle: 59–68% Selektionsrate
- ARMA-Modelle: 44–63%
- Refinerie-Aktienrenditen: 50–55%
MLP verwendet alle 59 Inputs — kein Selektionsmechanismus — daher schlechtere OOS-Performance.
Ergebnisse (Crack Spread, 380-Tage-Fenster, gefiltert)¶
- Netto-Jahresrendite: 24.28%
- Information Ratio: 1.83
- Calmar Ratio: 1.69
- Max-Drawdown: −19.70%
Verbindung zu Build Alpha¶
PSO-RBF ist eine direkt implementierbare Architektur: 1. Feature-Pool aus cross-asset Inputs aufbauen (analog zu 59 Crack-Spread-Inputs) 2. PSO bestimmt automatisch relevante Features pro Marktregime 3. Sliding Window sichert Adaptivität 4. Threshold Filter reduziert TC
Links¶
- sliding_window_methode — Adaptives Training
- threshold_confirmation_filter — Signal-Qualitätsschwelle
- robustness_obsession — OOS-Validierung
- transaktionskosten_modell — TC-Fitness
- ki_hybridmodell — Einordnung als Hybrid-Methode
- christian_dunis — Quelle
- 2026-05-09_dunis_ai_financial_markets — Quelle
- hedge_fund_architektur — Topic