Diskussion zum Artikel "Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit (letzter Teil)"

 

Neuer Artikel Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit (letzter Teil) :

Im vorangegangenen Artikel haben wir die theoretischen Grundlagen erforscht und mit der Umsetzung der Ansätze des Systems Multitask-Stockformer begonnen, das die Wavelet-Transformation und das Self-Attention-Multitask-Modell kombiniert. Wir fahren fort, die Algorithmen dieses Rahmens zu implementieren und ihre Effektivität anhand realer historischer Daten zu bewerten.

Bei den Tests wurden die Modelle auf historischen EURUSD-Daten für das gesamte Jahr 2023 mit dem H1-Zeitrahmen trainiert. Alle analysierten Indikatoren wurden mit ihren Standardparametereinstellungen verwendet.

Für die erste Ausbildungsphase haben wir eine Trainingsstichprobe verwendet, die im Rahmen früherer Studien zusammengestellt wurde. In der Folge wurde die Trainingsstichprobe regelmäßig aktualisiert, um sie an die aktuelle Politik des Akteurs anzupassen. Nach mehreren Trainingszyklen und Aktualisierungen der Stichprobe wurde eine Strategie entwickelt, die sowohl bei der Trainings- als auch bei der Teststichprobe Rentabilität zeigte.

Der Test der trainierten Strategie wurde mit historischen Daten für Januar 2024 durchgeführt, wobei alle anderen Parameter unverändert blieben. Die Ergebnisse werden im Folgenden vorgestellt.


Autor: Dmitriy Gizlyk