Zum Inhalt

PSO-RBF-Architektur

Particle Swarm Optimization + Radial Basis Function Neural Network: ein evolutionärer Hybrid-Ansatz, der gleichzeitig die Netzwerk-Parameter und die optimale Feature-Teilmenge bestimmt — leistungsstärker als klassisches Backpropagation-MLP.

Zwei-Ebenen-Design

PSO-Algorithmus (Optimizer)
    ↓  bestimmt:
    ├── Anzahl Hidden Neurons
    ├── Gaussian-Zentren (C_i) und Breiten (σ_i)
    ├── Output-Gewichte (w_i)
    └── Input-Selektion (0/1 pro Feature)
RBF Neural Network (Modell)
    └── Gaussian-Aktivierung: φ(x) = exp(−|x−C|²/2σ²)
    └── Linearer Output: U(x) = Σ x_i

RBF vs. MLP

Eigenschaft RBF MLP
Aktivierung Gaussian (radial) Sigmoid (logistisch)
Hidden Layer Keine Aktivierungsfunktion Gewichtete Eingaben
Training PSO (evolutionär) Backpropagation
Feature-Selektion Automatisch via PSO Manuell / alle Inputs
Overfitting-Risiko Geringer (PSO-Komplexitätsstrafe) Höher bei vielen Inputs

Multi-Ziel-Fitnessfunktion

Das PSO optimiert nicht nur statistischen Fehler, sondern direkt die Trading-Metrik:

Fitness = R^A − MSE − (n × 10^−2)
  • R^A: annualisierte Rendite (Primärziel)
  • MSE: Mean Squared Error (statistische Nebenbedingung)
  • n × 10^−2: Komplexitätsstrafe (weniger Neuronen bevorzugt)

Ergebnis: Das Modell lernt profitable Prognosen statt statistisch akkurate. Direkt relevant für transaktionskosten_modell — falsche Fehlermetrik vernichtet Alpha.

PSO-Mechanismus

PSO wurde von Kennedy & Eberhart (1995) entwickelt, inspiriert vom Schwarmverhalten (Vögel, Fische). Jeder Partikel ist ein Kandidat-Parameterset: - Kognitiver Anteil: Partikel erinnert sich an seine beste Position - Sozialer Anteil: Partikel bewegt sich zur global besten Position - Adaptive Trägheit (W) und Accelerations-Konstanten (C1, C2)

Parameter im Dunis-Setting: 30 Partikel, 100 Iterationen, 10 Neuronen (konstant), adaptive W/C1/C2.

Input-Selektion als Kernvorteil

Bei 59 möglichen Inputs produziert PSO für jeden Sliding-Window-Lauf eine binäre Selektionsmaske. Über alle Fenster gemittelt zeigt sich, welche Inputs konsistent relevant sind:

  • GARCH-Modelle: 59–68% Selektionsrate
  • ARMA-Modelle: 44–63%
  • Refinerie-Aktienrenditen: 50–55%

MLP verwendet alle 59 Inputs — kein Selektionsmechanismus — daher schlechtere OOS-Performance.

Ergebnisse (Crack Spread, 380-Tage-Fenster, gefiltert)

  • Netto-Jahresrendite: 24.28%
  • Information Ratio: 1.83
  • Calmar Ratio: 1.69
  • Max-Drawdown: −19.70%

Verbindung zu Build Alpha

PSO-RBF ist eine direkt implementierbare Architektur: 1. Feature-Pool aus cross-asset Inputs aufbauen (analog zu 59 Crack-Spread-Inputs) 2. PSO bestimmt automatisch relevante Features pro Marktregime 3. Sliding Window sichert Adaptivität 4. Threshold Filter reduziert TC