Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 33): Quantilsregression im verteilten Q-Learning"
Hallo,
danke für deine harte Arbeit, ich weiß deine Zeit und Mühe zu schätzen.
hatte VAE aus Artikel # 22 zu greifen, wenn ich versucht, QRDQN zu kompilieren.
Aber ich bin auf diesen Fehler gestoßen,
'MathRandomNormal' - nicht deklarierter Bezeichner VAE.mqh 92 8
Ich vermute, die VAE-Bibliothek in #22 ist veraltet?
Hallo,
vielen Dank für Ihre harte Arbeit, ich weiß Ihre Zeit und Mühe zu schätzen.
hatte VAE aus Artikel # 22 zu greifen, wenn ich versucht, QRDQN zu kompilieren.
aber in diesen Fehler laufen,
'MathRandomNormal' - nicht deklarierter Bezeichner VAE.mqh 92 8
Ich vermute, die VAE-Bibliothek in #22 ist veraltet?
Hallo, Sie können aktualisierte Dateien aus diesem Artikel laden https://www.mql5.com/de/articles/11619
- www.mql5.com
Hallo, Sie können aktualisierte Dateien aus diesem Artikel laden https://www.mql5.com/en/articles/11619
vielen Dank für Ihre Antwort,
Ich habe das getan und der Fehler ist behoben, aber 2 weitere sind aufgetreten.
einer
Create' - Ausdruck vom Typ 'void' ist illegal QRDQN.mqh 85 30
2
''AssignArray' - keine der Überladungen kann auf den Funktionsaufruf angewendet werden QRDQN.mqh 149 19
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Neuer Artikel Neuronale Netze leicht gemacht (Teil 33): Quantilsregression im verteilten Q-Learning :
Wir setzen die Untersuchung des verteilten Q-Learnings fort. Heute wollen wir diesen Ansatz von der anderen Seite her betrachten. Wir werden die Möglichkeit prüfen, die Quantilsregression zur Lösung von Preisvorhersageaufgaben einzusetzen.
Ein Trainingsmodell wurde mit dem Hilfsmittel NetCreator erstellt. Die Architektur des Modells ist die gleiche wie die des Trainingsmodells aus dem vorherigen Artikel. Ich habe die letzte SoftMax-Normalisierungsschicht entfernt, damit der Bereich mit den Modellergebnissen alle Ergebnisse der verwendeten Belohnungspolitik wiedergeben kann.
Wie zuvor wurde das Modell mit historischen EURUSD-Daten im H1-Zeitrahmen trainiert. Als Trainingsdatensatz wurden historische Daten der letzten 2 Jahre verwendet.
Die Arbeit des trainierten Modells wurde mit dem Strategietester getestet. Zu Testzwecken wurde der separate EA QRDQN-learning-test.mq5 erstellt. Der EA wurde auch auf der Grundlage ähnlicher EAs aus früheren Artikeln erstellt. Der Code hat sich nicht wesentlich geändert. Der gesamte EA-Code ist im Anhang zu finden.
Im Strategietester zeigte das Modell die Fähigkeit, innerhalb eines kurzen Zeitraums von 2 Wochen Gewinne zu erzielen. Mehr als die Hälfte der Positionen wurde mit einem Gewinn abgeschlossen. Der durchschnittliche Gewinn pro Handel war fast doppelt so hoch wie der durchschnittliche Verlust.
Autor: Dmitriy Gizlyk