Diskussion zum Artikel "Random Decision Forest und Reinforcement-Learning" - Seite 2

 
Entschuldigung, Maxim, ich war abgelenkt und habe Ihren Namen falsch geschrieben.
 
Ich vergaß hinzuzufügen. Die Lösung bei Strategiespielen ist die Kombinatorik (Suche nach wiederholten Kombinationen), die probabilistische Analyse, die Bestimmung des Psychotyps des Gegners und die Erstellung eines Verhaltensmodells.
 
Vasily Belozerov:
Ich vergaß hinzuzufügen. Die Lösung bei strategischen Spielen ist Kombinatorik (Suche nach wiederholten Kombinationen), probabilistische Analyse, Bestimmung des Psychotyps des Gegners und Erstellung eines Verhaltensmodells.

Grüße, über Psychotyp - sicherlich nicht auf den Markt anwendbar. Ansonsten ist RL weitgehend ein Erbe der Spieltheorie. Man kann sich zum Beispiel mehrere RL-Agenten als konkurrierende Spieler vorstellen, von denen jeder versucht, den anderen zu schlagen. Alternativ kann man sie auch als sich gegenseitig verstärkende Akteure betrachten.

Im Wesentlichen wird eine Zahlungsmatrix zwischen dem Markt und dem Agenten erstellt. Und wenn sich die Strategie des Marktes nicht ändert, beginnt der Agent, ihn zu schlagen, wenn möglich.
 
Ich wollte nur vorschlagen, dass der richtigen Maschine vielleicht etwas nicht Richtiges hinzugefügt werden sollte, ähnlich wie bei menschlichen Aktionen. Zum Beispiel, erster Zug e2 - e4, dann zweiter Zug e4 - e2, dritter Zug wieder e2 - e4. Im Grunde genommen so etwas in der Art.
 
Vasily Belozerov:
Ich habe nur vorgeschlagen, dass der richtigen Maschine vielleicht etwas nicht Richtiges hinzugefügt werden sollte, ähnlich wie bei menschlichen Aktionen. Zum Beispiel, erster Zug e2 - e4, dann zweiter Zug e4 - e2, dritter Zug wieder e2 - e4. Im Grunde genommen etwas in dieser Art.

Die Aufgabe ist nicht, den Handel dem menschlichen Handel ähnlich zu machen (und woher wollen Sie das wissen, der Bot muss den Turing-Test bestehen?) und was lässt Sie glauben, dass ein Mensch in der Lage ist, gut oder besser zu handeln als ein Expert Advisor, es hängt alles von der Strategie ab. Das Ziel ist, dass die Maschine selbst nach bestimmten Mustern sucht und diese handelt.

 
Vasily Belozerov:
Ich habe nur vorgeschlagen, dass der richtigen Maschine vielleicht etwas nicht Richtiges hinzugefügt werden sollte, ähnlich wie bei menschlichen Aktionen. Zum Beispiel, erster Zug e2 - e4, dann zweiter Zug e4 - e2, dritter Zug wieder e2 - e4. Sie wissen schon, so etwas in der Art.

Das ist Random Forest, sein Hauptpunkt: dass es das Eröffnungsbuch selbst bildet.

 
Maxim, hat der Versuch, neue Zufallsbäume zu generieren, irgendwelche Auswirkungen? Wenn wir zum Beispiel beim ersten Mal einen Baum erzeugt haben, haben wir beim zweiten Mal andere Bäume erzeugt, die effizienter trainiert sind. Oder hat dies überhaupt keine Auswirkungen auf das Endergebnis der Ausbildung?
 
Ivan Gurov:
Maxim, hat der Versuch, neue Zufallsbäume zu generieren, irgendwelche Auswirkungen? Wenn wir zum Beispiel beim ersten Mal einen Baum erzeugt haben, haben wir beim zweiten Mal andere Bäume erzeugt, die effizienter trainiert sind. Oder hat das überhaupt keinen Einfluss auf das Endergebnis des Trainings?
Es geht nicht um die Bäume, sondern darum, mehrere Wälder auf denselben Daten zu trainieren, ja, das tut es. Denn der Konstruktionsprozess ist zufällig und die Ergebnisse können variieren. Ich war überrascht, dass ein Ensemble von Wäldern eine deutliche Verbesserung bringt, d. h. mehrere Wälder auf denselben Daten trainieren und das Ergebnis mitteln. (5-15 Stück) Sie können auch andere Einstellungen vornehmen. Noch bessere Ergebnisse sollte es bei Bousting geben, aber dazu bin ich noch nicht gekommen.
 
Mir hat der Artikel gefallen. Ich wünschte, jemand würde den Wald in alglib so umgestalten, dass man die Tiefe der Bäume einstellen kann.
 

Vielen Dank für die Bereitstellung dieses sehr nützlichen Artikels.

Ich habe versucht, zusätzliche Indikatoren in den Code zu implementieren, aber ich bin kein erfahrener Programmierer und habe keine gute Erfahrung mit der Verwendung von Zugehörigkeitsfunktionen. Daher konnte ich nicht herausfinden, wie ich weitere Indikatoren hinzufügen kann, die zusammen mit den Regeln innerhalb der OnInit()-Funktion verwendet werden. Der Code enthält nur den RSI-Indikator und erstellt die BUY- und SELL-Regeln aus diesem Indikator. Können Sie bitte einige weitere Beispielcodes von Indikatoren wie gleitender Durchschnitt oder MACD oder Stochastik oder SAR zur Verfügung stellen, die im Code verwendet werden können?

Insbesondere möchte ich wissen, wie man Regeln erstellt und zu den Einstiegsbedingungen hinzufügt, während man sie mit dem aktuellen Preis vergleicht. Das Hauptproblem mit dem aktuellen Code ist, dass es manchmal verliert Trades für lange Zeit hält, während profitable Trades schnell zu schließen und so jede Beratung zu diesem wird geschätzt werden. Ich denke, dass die Exit-Logik stärker gefiltert werden muss.

Außerdem habe ich eine Frage, die Sie bitte beantworten können:

Wird die OPT-Datei kontinuierlich aktualisiert, um die Ein- und Ausstiege nach langer Zeit zu verbessern, indem die Strategie selbst fein abgestimmt wird?

Oder nutzt der EA nur den Strategietester, um die EA-Werte zu optimieren, und verwendet die gleichen Ein- und Ausstiegswerte, die vor kurzem profitabel waren, wie ein regulärer optimierter EA?

Ich meine, wie bei anderen EAs mit neuronalem Netzwerk, passt er seine Gesamtstrategie für den Einstieg und Ausstieg im Laufe des Handels an?