Diskussion zum Artikel "Neuronale Netze im Handel: Der Contrastive Muster-Transformer (letzter Teil)"

 

Neuer Artikel Neuronale Netze im Handel: Der Contrastive Muster-Transformer (letzter Teil) :

Im letzten Artikel dieser Reihe haben wir uns mit dem Atom-Motif Contrastive Transformer (AMCT) beschäftigt, der kontrastives Lernen zur Entdeckung von Schlüsselmustern auf allen Ebenen einsetzt, von grundlegenden Elementen bis hin zu komplexen Strukturen. In diesem Artikel setzen wir die Implementierung von AMCT-Ansätzen mit MQL5 fort.

Wie üblich wird das Modelltraining offline auf einem vorab gesammelten Trainingsdaten durchgeführt, der das gesamte Jahr 2023 abdeckt. Das Training wird iterativ durchgeführt. Nach mehreren Iterationen wird der Trainingsdatensatz aktualisiert. Dies ermöglicht die genaueste Bewertung der Handlungen des Agenten gemäß der aktuellen Politik.

Während des Trainings erhielten wir ein Modell, das sowohl in den Trainings- als auch in den Testdatensätzen Gewinne erzielen konnte. Es gibt jedoch einen Vorbehalt. Das daraus resultierende Modell führt nur sehr wenige Handelsgeschäfte aus. Wir haben den Testzeitraum sogar auf drei Monate verlängert. Die Testergebnisse sind wie folgt:

Wie aus den Ergebnissen ersichtlich ist, führte das Modell während des dreimonatigen Testzeitraums nur 21 Handelsgeschäfte aus, von denen etwas mehr als die Hälfte gewinnbringend abgeschlossen wurden. Betrachtet man das Schaubild des Saldos, so stellt man in den ersten anderthalb Monaten einen anfänglichen Anstieg fest, gefolgt von einer Seitwärtsbewegung. Dies ist ein durchaus erwartetes Verhalten. Unser Modell sammelt nur Statistiken von Marktzuständen, die im Trainingsdatensatz vorhanden sind. Wie bei jedem statistischen Modell müssen die Trainingsdaten repräsentativ sein. Aus der Saldenkurve können wir schließen, dass ein einjähriger Trainingsdatensatz eine Repräsentativität für etwa 1,2 bis 1,5 Monate in die Zukunft bietet.


Autor: Dmitriy Gizlyk