Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 82): Verwendung von TRIX- und WPR-Mustern mit DQN-Verstärkungslernen"
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 82): Verwendung von TRIX- und WPR-Mustern mit DQN-Verstärkungslernen :
Die Strategien, die sich aus diesen Indikatoren entwickelt haben, beruhen in der Regel auf festen Regeln. Diese Regeln können z. B. lauten: „Kaufen, wenn der TRIX die Nulllinie überschreitet und der WPR unter -80 liegt“ oder „Verkaufen, wenn der TRIX seinen Höchststand erreicht und der WPR über -20 liegt“. So deterministisch sie auch sein mögen und so leicht sie auch zu überprüfen sind, haben sie doch eine gemeinsame Schwäche, nämlich die Annahme eines statischen Verhältnisses in einem hochdynamischen Markt. Aus diesem Grund kann sich ihre Wahrscheinlichkeit, richtig zu liegen, verschlechtern, wenn sich die vorherrschenden Bedingungen ändern, und diese „absoluten Schwellenwerte“ müssen angepasst werden.
Dieser Sumpf bildet also die Grundlage für das Reinforcement Learning (RL). RL gehört zu den Techniken des maschinellen Lernens, bei denen versucht wird, aus Erfahrungen oder der Interaktion mit einer Umgebung die passenden Aktionen zu lernen. Anstatt sich ausschließlich auf voreingestellte Indikatorschwellen zu verlassen, kann ein RL-Agent verschiedene Schwellenwerte erkunden und so den Entscheidungsprozess für den Handel anpassen, um die langfristigen Gewinne zu maximieren. Für die meisten Händler würde dies ein System bedeuten, das nicht nur Regeln befolgt, sondern sich anpasst – zumindest auf dem Papier.
Eine der RL-Methoden, die für den Handel vielversprechend erscheint, ist das Deep Q Network (DQN). Im Gegensatz zu überwachten Lernmodellen, die versuchen, Eingaben direkt auf Ausgaben abzubilden, bewerten DQNs den Wert der Durchführung bestimmter Aktionen, wenn bestimmte Zustände vorliegen. Im Zusammenhang mit dem Handel können Zustände Merkmale sein, die von Indikatoren, in einer transformierten Pipeline, im Binärformat oder sogar als Rohwerte vorliegen. Für diesen Artikel sind diese Indikatoren der TRIX und der WPR. Die Handlungen hingegen können einem Kauf, einem Verkauf oder einer neutralen Haltung entsprechen. Der DQN-RL-Rahmen ermöglicht es, diese Handlungen zu bewerten und aus der Erfahrung heraus abzustimmen, im Gegensatz zu festen, willkürlichen Regeln.
Autor: Stephen Njuki