Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 82): Verwendung von TRIX- und WPR-Mustern mit DQN-Verstärkungslernen"

 

Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 82): Verwendung von TRIX- und WPR-Mustern mit DQN-Verstärkungslernen :

Im letzten Artikel haben wir die Paarung von Ichimoku und ADX im Rahmen des Inferenzlernens untersucht. In diesem Beitrag greifen wir das Verstärkungslernen in Verbindung mit einem Indikatorpaar auf, das wir zuletzt in „Teil 68“ betrachtet haben. Der TRIX und Williams Percent Range. Unser Algorithmus für diese Überprüfung wird die Quantilregression DQN sein. Wie üblich stellen wir dies als nutzerdefinierte Signalklasse vor, die für die Implementierung mit dem MQL5-Assistenten entwickelt wurde.

Die Strategien, die sich aus diesen Indikatoren entwickelt haben, beruhen in der Regel auf festen Regeln. Diese Regeln können z. B. lauten: „Kaufen, wenn der TRIX die Nulllinie überschreitet und der WPR unter -80 liegt“ oder „Verkaufen, wenn der TRIX seinen Höchststand erreicht und der WPR über -20 liegt“. So deterministisch sie auch sein mögen und so leicht sie auch zu überprüfen sind, haben sie doch eine gemeinsame Schwäche, nämlich die Annahme eines statischen Verhältnisses in einem hochdynamischen Markt. Aus diesem Grund kann sich ihre Wahrscheinlichkeit, richtig zu liegen, verschlechtern, wenn sich die vorherrschenden Bedingungen ändern, und diese „absoluten Schwellenwerte“ müssen angepasst werden. 

Dieser Sumpf bildet also die Grundlage für das Reinforcement Learning (RL). RL gehört zu den Techniken des maschinellen Lernens, bei denen versucht wird, aus Erfahrungen oder der Interaktion mit einer Umgebung die passenden Aktionen zu lernen. Anstatt sich ausschließlich auf voreingestellte Indikatorschwellen zu verlassen, kann ein RL-Agent verschiedene Schwellenwerte erkunden und so den Entscheidungsprozess für den Handel anpassen, um die langfristigen Gewinne zu maximieren. Für die meisten Händler würde dies ein System bedeuten, das nicht nur Regeln befolgt, sondern sich anpasst – zumindest auf dem Papier.

Eine der RL-Methoden, die für den Handel vielversprechend erscheint, ist das Deep Q Network (DQN). Im Gegensatz zu überwachten Lernmodellen, die versuchen, Eingaben direkt auf Ausgaben abzubilden, bewerten DQNs den Wert der Durchführung bestimmter Aktionen, wenn bestimmte Zustände vorliegen. Im Zusammenhang mit dem Handel können Zustände Merkmale sein, die von Indikatoren, in einer transformierten Pipeline, im Binärformat oder sogar als Rohwerte vorliegen. Für diesen Artikel sind diese Indikatoren der TRIX und der WPR. Die Handlungen hingegen können einem Kauf, einem Verkauf oder einer neutralen Haltung entsprechen. Der DQN-RL-Rahmen ermöglicht es, diese Handlungen zu bewerten und aus der Erfahrung heraus abzustimmen, im Gegensatz zu festen, willkürlichen Regeln.


Autor: Stephen Njuki