Diskussion zum Artikel "Random Decision Forest und Reinforcement-Learning" - Seite 8

 
rogivilela:
Hallo Leute ,
Zuallererst möchte ich Maxim Dmitrievsky zu seinem Artikel gratulieren.
Zweitens möchte ich sagen, dass ich das Thema im Auge behalte, weil das Thema sehr interessant ist.
Drittens möchte ich eine Frage stellen, denn ich kann nicht verstehen, wie die Ausführung der Belohnung im EA der Klassifizierung heute erfolgt, kann das jemand beschreiben?

Was ich verstanden habe, ist, dass, wenn der EA schließt die Position mit einem negativen Wert macht es eine Änderung in den 2 Indizes des Vektors (3 und 4).
Ist jemand in Frage? Wie weiß ich, dass diese Belohnung ist gut? weil ich möchte die Belohnungen zu erhöhen, wenn die Operation ist positiv und nehmen eine bestimmte Menge an Punkten.


Ich danke Ihnen.
Ps. Ich habe Google Translate verwendet, sorry, wenn es nicht verständlich ist.

Das ist genau das, woran ich fast von Anfang an gearbeitet habe, nämlich wie man die Kontoparameter in die Richtlinie integriert und wie man die Belohnung auf der Grundlage von Gewinnen und Verlusten aktualisiert. Aber bis jetzt bin ich nicht in der Lage, irgendetwas erfolgreich zu implementieren.

Ich habe festgestellt, dass wir die Funktion updateReward() komplett ändern müssen, wenn wir versuchen, Gewinne und Verluste in die Reward-Funktion zu integrieren. Möglicherweise müssen wir auch die Matrix-Implementierung komplett ändern.

Ich habe eine Lösung für die Implementierung von Gewinnen und Verlusten unter Verwendung von Q-learning nach der BellMan-Gleichung, mit der wir gleitende Gewinne und Verluste in den Agenten implementieren können, um die Belohnung zu aktualisieren. Aber wir müssen eine neue Matrix erstellen und die gesamte Matrix bei jeder Kerze aktualisieren. Aber ich bin nicht gut in der Matrix-Implementierung und warte daher auf den Autor, der seinen nächsten Artikel mit neuen Agenten veröffentlicht.

Wenn jemand in Q-Learning-Implementierung interessiert ist und kann die Matrix zu implementieren, dann kann ich hier diskutieren, wie die Belohnung mit Gewinne und Verluste mit Q-Wert zu aktualisieren.

Ich habe den EA mit einer unbegrenzten Anzahl von Kombinationen von Indikatoren und Einstellungen getestet, aber ich habe herausgefunden, dass es keine andere Möglichkeit gibt, die Ergebnisse zu verbessern, ohne die Politik zu aktualisieren. Der Agent tut genau das, was es zu tun zugewiesen wurde, und daher ist es nur schließen kleine kleine Gewinne, um den Gewinn % zu erhöhen, aber insgesamt das Konto nicht wachsen Gewinn, da die Politik nicht berücksichtigen, kleine oder große Verluste getrennt.

 

Hallo Maxim Dmitrievsky,

Gibt es irgendwelche Fortschritte oder Updates im Hinblick auf die Veröffentlichung Ihres nächsten Artikels über RDF?

Ich danke Ihnen...

 
Nach der Aktualisierung auf Build 1940 funktioniert es nicht mehr, die Rückgabe der Berechnung erhält den Wert von "-nan (ind)". Weiß jemand, was passiert ist?
 
Igor Vilela:
Nach der Aktualisierung auf Build 1940 funktioniert es nicht mehr, die Rückgabe der Berechnung erhält den Wert von "-nan (ind)". Weiß jemand, was passiert ist?

Hallo, versuchen Sie diese Bibliothek https://www.mql5.com/de/code/22915

oder versuchen Sie, neu zu kompilieren

RL GMDH
RL GMDH
  • www.mql5.com
Данная библиотека имеет расширенный функционал, позволяющий создавать неограниченное количесто "Агентов". Использование библиотеки: Пример заполнения входных значений нормированными ценами закрытия: Обучение происходит в тестере...
 
danke Maxim Dmitrievsky, aber ich habe bereits alle das Wissen über diesen Fall gemacht, möchte ich versuchen, diesen Fehler zu korrigieren, da ich bereits einen Raub mit der Idee, die in diesem Artikel vorgestellt wurde läuft. Könnte helfen zu identifizieren, was den Fehler verursacht. Es funktionierte nicht mehr, als ich auf die Version 1940 aktualisierte.
 
Igor Vilela:
danke Maxim Dmitrievsky, aber ich habe bereits alle das Wissen über diesen Fall gemacht, möchte ich versuchen, diesen Fehler zu korrigieren, da ich bereits einen Raub mit der Idee, die in diesem Artikel vorgestellt wurde läuft. Könnte helfen zu identifizieren, was den Fehler verursacht. Es hat aufgehört zu funktionieren, als ich auf Version 1940 aktualisiert habe.

Versuchen Sie, die korrekte Fuzzy-Bibliothek von hier herunterzuladen, denn vielleicht kann das MT5-Update sie zum Standard machen

https://www.mql5.com/ru/forum/63355#comment_5729505

Библиотеки: FuzzyNet - библиотека для работы с нечеткой логикой
Библиотеки: FuzzyNet - библиотека для работы с нечеткой логикой
  • 2015.08.26
  • www.mql5.com
8 новых функций принадлежности.
 
Es ist mir gelungen, das Problem zu lösen, vielen Dank an Maxim Dmitrievsky.
Ich habe erneut den gesamten MATH-Ordner in den neuen Metatrader kopiert und den Computer neu gestartet.
 
FxTrader562:

Lieber Maxim Dmitrievsky,

Können Sie bitte aktualisieren, ob Sie Ihren nächsten Artikel über die Implementierung von Random Decision Forest mit verschiedenen Agenten und ohne Fuzzy-Logik, die Sie zuvor erwähnt haben, veröffentlicht haben?

Ich danke Ihnen vielmals

Hi, FxTrader, der neue Artikel wurde übersetzt und ist nun verfügbar.

Ich bin mir über die Qualität der Übersetzung nicht sicher, das ist nicht meine Aufgabe, aber ich denke, alles ist gut.

 

Guten Tag. Ich verstehe nicht, warum wir Metatrader in Bezug auf das Training des neuronalen Netzes etwas hinzufügen müssen?

Es gibt Gewichte, die mit Hilfe des Optimierungsmechanismus in Metatrader optimiert werden müssen. Sind Sie nicht der Meinung, dass die Metatrader-Entwickler in der Frage des Trainings von Netzwerken / der Optimierung von Parametern bereits gute Fortschritte gemacht haben?

Käufe und Verkäufe werden nach den durch Indikatoren definierten Regeln durchgeführt. Das neuronale Netz aggregiert "Beobachtungsdaten" dieser Indikatoren (Anzahl der Peaks, Höhe der Peaks am Vorabend eines Handels usw.), nicht aber die Indikatorwerte selbst, denn das ist Unsinn. Sie können die Konfiguration der Gewichte direkt während des Trainings überprüfen, z. B. +1, wenn sich der Markt in den nächsten 2 Tagen in die richtige Richtung entwickelt hat, und -1, wenn er sich in die falsche Richtung entwickelt hat. Am Ende hat jede Konfiguration von Gewichten eine Summe. Auf diese Weise wird die beste Konfiguration der Gewichte nach den Kriterien des Benutzers optimiert (dies ist ein solcher Optimierungsparameter, alles muss durchdacht sein, nicht wahr?!).

Das beschriebene Beispiel benötigt 40-50 Zeilen im Code. Das ist das gesamte neuronale Netz mit Training. Und ich komme auf meine ursprüngliche Frage zurück: Warum glauben Sie, dass Sie durch die Erfindung von etwas Komplexem und Unverständlichem dem heiligen Gral näher gekommen sind? Je komplexer und unverständlicher die Blackbox ist, die ich erschaffe, desto mehr fühle ich mich geschmeichelt, wie klug ich bin!

 
Evgeniy Scherbina:

Guten Tag. Eine Sache, die ich nicht verstehe, ist, warum wir etwas zu Metatrader in Bezug auf das Training des neuronalen Netzwerks hinzufügen müssen?

Es gibt Gewichte, die mit Hilfe des Optimierungsmechanismus in Metatrader optimiert werden müssen. Sind Sie nicht der Meinung, dass die Metatrader-Entwickler bereits gute Fortschritte beim Training von Netzwerken / der Optimierung von Parametern gemacht haben?

Käufe und Verkäufe werden nach den von den Indikatoren definierten Regeln durchgeführt. Das neuronale Netz aggregiert "Beobachtungsdaten" dieser Indikatoren (Anzahl der Peaks, Höhe der Peaks am Vorabend eines Handels usw.), nicht aber die Indikatorwerte selbst, denn das ist Unsinn. Sie können die Konfiguration der Gewichte direkt während des Trainings überprüfen, z. B. +1, wenn sich der Markt in den nächsten 2 Tagen in die richtige Richtung entwickelt hat, und -1, wenn er sich in die falsche Richtung entwickelt hat. Am Ende hat jede Konfiguration von Gewichten eine Summe. Auf diese Weise wird die beste Konfiguration der Gewichte nach dem Kriterium des Benutzers optimiert (dies ist ein solcher Optimierungsparameter, alles muss durchdacht sein?!).

Das beschriebene Beispiel benötigt 40-50 Zeilen im Code. Das ist das gesamte neuronale Netz mit Training. Und ich komme auf meine ursprüngliche Frage zurück: Warum glauben Sie, dass Sie durch die Erfindung von etwas Komplexem und Unverständlichem dem heiligen Gral näher gekommen sind? Je komplizierter und unverständlicher die Blackbox ist, die ich erfunden habe, desto mehr schmeichelt es mir, wie klug ich bin!

Wenn du erwachsen bist, wirst du es verstehen.

Lies zumindest für den Anfang, welche Solver in neuronalen Netzen verwendet werden und warum niemand Genetik verwendet, um sie zu trainieren.