Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 59): Verstärkungslernen (DDPG) mit gleitendem Durchschnitt und stochastischen Oszillatormustern"

 

Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 59): Verstärkungslernen (DDPG) mit gleitendem Durchschnitt und stochastischen Oszillatormustern :

Wir setzen unseren letzten Artikel über DDPG mit MA und stochastischen Indikatoren fort, indem wir andere Schlüsselklassen des Reinforcement Learning untersuchen, die für die Implementierung von DDPG entscheidend sind. Obwohl wir hauptsächlich in Python kodieren, wird das Endprodukt, ein trainiertes Netzwerk, als ONNX nach MQL5 exportiert, wo wir es als Ressource in einen von einem Assistenten zusammengestellten Expert Advisor integrieren.

Anstatt die Frage zu stellen, die wir beim überwachten Lernen gestellt haben, nämlich „Was wird der Preis als Nächstes tun?“, stellen wir die Frage, welche Maßnahmen der Händler angesichts dieser eingehenden Preisänderungen ergreifen sollte. Wir führen also die oben beschriebenen Simulationen für das Jahr 2023 durch und machen dann einen Forward Walk für das Jahr 2024, bei dem unsere Eintrittsbedingungen leicht verändert werden.

Wir stützen unsere Kauf- oder Verkaufs-Positionen nicht nur darauf, was der Kurs als Nächstes tun wird, sondern überlegen auch, welche Maßnahmen wir angesichts der nächsten Kursentwicklung wirklich ergreifen müssen. Wir berücksichtigen auch, ob sich die Belohnungen lohnen werden. Von den sieben Mustern, die in Artikel 57 einen Vorwärtstest machten, waren nur drei erfolgreich, wenn das Verstärkungslernen eingesetzt wird. Bei unserer Indizierung der 10, die von 0 bis 9 reicht, sind dies die Muster 1, 2 und 5. Ihre Berichte werden im Folgenden vorgestellt:

Für Muster 1:

r1

c1


Autor: Stephen Njuki