Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2106

 
Vladimir Perervenko:

Wohin?

Nun, nicht um den RMSE zu minimieren oder was auch immer, sondern um Ihr Fitness-Pfund dort zu platzieren.

 
Vladimir Perervenko:

Wie war das?

Ich prognostiziere lediglich, dass das Modell 500 Punkte voraussagen wird.

Es ist einfach, eine 4-Sinus-Vorhersage (Modell) zu erstellen, die eigentlich eine lineare Vorhersage ist.

 
mytarmailS:

Ich habe ihn gelöscht, weil ich dachte, dass es niemanden interessiert. Ich kann Ihnen den Code schicken, aber ich muss ihn in eine lesbare Form übersetzen

Übrigens bin ich mit der Instabilität der Glühtemperaturmethode konfrontiert, ich weiß nicht einmal, wie ich damit arbeiten soll, die Ergebnisse sind sehr instabil, die Parameter springen stark...


Ich bin zu dieser Erkenntnis gekommen

Zuerst initialisiere ich den Startpunkt zufällig,

Wenn ich dann eine Lösung gefunden habe, speichere ich sie.

Dann starte ich den Burnout erneut, aber mit den Startparametern der gefundenen Lösung, und so weiter...

Bitte schreiben Sie mir eine Nachricht.

Die Glühung ist instabil. Verwenden Sie rgenout. Geprüft, zuverlässig.

Modelle wenden Verlustfunktion an. Schreiben Sie Ihr eigenes Modell, und wenn das Modell es Ihnen erlaubt, Ihre Verlustfunktion einzufügen, versuchen Sie es.

 
mytarmailS:

Ich mache gerade eine 500-Punkte-Vorhersage des resultierenden Musters

aber ich denke, nur die ersten 1-2 Trades zu handeln

und müssen lernen, wie man Parameter findet

 
Maxim Dmitrievsky:

Sie können 2 unterschiedlich ausgerichtete Modelle verwenden

Ich habe versucht, es separat mit meiner Grundstrategie zu unterrichten - die Ergebnisse waren schlechter, ich glaube, wegen der unausgewogenen Stichproben - ich bekomme zu viele Nullen und lerne daraus.

Ich möchte eine andere Variante ausprobieren - die Richtung mit einem separaten Modell zu unterrichten. Es wird sich zeigen, dass das erste Modell auf die Volatilität und das zweite auf ihren Vektor trainiert. Aber auch hier gilt, dass die Stichprobe groß sein sollte.

 
Aleksey Vyazmikin:

Ich habe versucht, meine Basisstrategie separat zu unterrichten - die Ergebnisse waren schlechter, ich denke, das liegt am unausgewogenen Sampling - es gibt zu viele Nullen und das Training basiert auf ihnen.

Ich möchte eine andere Möglichkeit ausprobieren - die Richtung mit einem separaten Modell zu lehren. Es wird sich zeigen, dass das erste Modell auf die Volatilität und das zweite auf ihren Vektor trainiert. Aber auch hier gilt, dass die Stichprobe groß sein sollte.

Für unausgewogene Klassen können Sie Oversampling verwenden. Ich habe sowohl das 2er als auch das 3er Modell gesponnen, es gibt im Grunde keinen Unterschied.
 
Maxim Dmitrievsky:
Sie können Oversampling für unausgewogene Klassen verwenden. Ich habe sowohl das 2er- als auch das 3er-Modell benutzt, es gibt im Grunde keinen Unterschied.

D.h. doppelte Zeilen mit dem Ziel "1"? Ich habe es ausprobiert - mein Ergebnis hat sich bei CatBoost kaum verändert. Wahrscheinlich müssen Sie etwas Lärm hinzufügen.

 
Aleksey Vyazmikin:

D.h. doppelte Zeilen mit einem Ziel "1"? Ich habe es ausprobiert - mein Ergebnis hat sich bei CatBoost kaum verändert. Wahrscheinlich müssen Sie etwas Lärm hinzufügen.

Nicht duplizieren. Googeln Sie Oversampling, z. B. SMOTE. Ich auch, es lernt nicht, wenn das Ungleichgewicht groß ist. Nach dem Oversampling ist alles in Ordnung.
 
Aleksey Vyazmikin:

D.h. doppelte Zeilen mit einem Ziel "1"? Ich habe es ausprobiert - mein Ergebnis hat sich bei CatBoost kaum verändert. Wahrscheinlich müssen Sie etwas Lärm hinzufügen.

So sollte es sein. Ein Ausgleich nach NS-Klassen ist erforderlich. Bäume reichen völlig aus.
 
Maxim Dmitrievsky:
Keine Vervielfältigung. Googeln Sie nach Oversampling, z. B. SMOTE. Ich lerne auch nicht mit großem Ungleichgewicht. Nach dem Oversampling ist alles in Ordnung.

Nun ja, im Wesentlichen werden die Prädiktoren mit Rauschen versehen. Es könnte Auswirkungen auf die Quantisierung Grenzen durch die Erhöhung der Auswahl der Bereiche mit Einsen, aber von Idee der gleiche Effekt sollte mit der Zugabe von Duplikaten, das einzige, was ich vermute, ist, dass Duplikate durch die CatBoost-Algorithmus geschnitten werden, bevor das Lernen beginnt (müssen überprüft werden), dann ja - Option.

Grund der Beschwerde: