Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 62): Nutzung der Muster von ADX und CCI mit Reinforcement-Learning TRPO"

 

Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 62): Nutzung der Muster von ADX und CCI mit Reinforcement-Learning TRPO :

Der ADX-Oszillator und der CCI-Oszillator sind Trendfolge- und Momentum-Indikatoren, die bei der Entwicklung eines Expert Advisors miteinander kombiniert werden können. Wir machen dort weiter, wo wir im letzten Artikel aufgehört haben, indem wir untersuchen, wie das Training in der Praxis und die Aktualisierung unseres entwickelten Modells dank des Verstärkungslernens erfolgen kann. Wir verwenden einen Algorithmus, den wir in dieser Serie noch behandeln werden, die sogenannte Trusted Region Policy Optimization (Optimierung vertrauenswürdiger Regionen). Und wie immer erlaubt uns die Zusammenstellung von Expert Advisors durch den MQL5-Assistenten, unser(e) Modell(e) zum Testen viel schneller und auch so einzurichten, dass es mit verschiedenen Signaltypen verteilt und getestet werden kann.

Um ein Computerprogramm zu einer brauchbaren oder praktischen Antwort zu veranlassen, musste diese Antwort früher von Hand in das Programm eingegeben werden. Im Grunde genommen war die if-Klausel das Herzstück der Programmierung der meisten Programme. Und wenn man darüber nachdenkt, bedeutete die Abhängigkeit von if-Klauseln, dass die vom Nutzer eingegebenen oder vom Programm verarbeiteten Daten bestimmten Kategorien angehören mussten. Es musste diskret sein. Daher kann man sagen, dass unsere Entwicklung und Verwendung von diskreten Daten größtenteils eine Reaktion auf Programmierungszwänge war und nicht auf die Daten oder das zu lösende Problem bezogen war.

Und dann kam OpenAI im Herbst 2023 mit ihrem ersten öffentlichen GPT, und all dies änderte sich. Die Entwicklung von Transformernetzen und GPTs geschah nicht über Nacht, da die ersten Perceptrons in den späten 60er Jahren entwickelt wurden, aber man kann mit Sicherheit sagen, dass die Einführung von ChatGPT ein wichtiger Meilenstein war. Mit der weiten Verbreitung von Modellen für große Sprachen ist klar geworden, dass Tokenisierung, Worteinbettung und natürlich Selbstaufmerksamkeit entscheidende Komponenten sind, damit die Modelle mit dem, was sie verarbeiten können, skalieren können. Keine Wenn-Klauseln mehr. Vor dem Hintergrund der Tokenisierung und der Einbettung von Wörtern, um die Netzwerkeingaben so kontinuierlich wie möglich zu gestalten, haben wir auch die Eingaben unseres MLP mit überwachtem Lernen „kontinuierlicher“ gemacht.

MQL5 Wizard-Techniken, die Sie kennen sollten (Teil 62)


Autor: Stephen Njuki