Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3276

 
mytarmailS #:
Das ist ungefähr richtig... wie ist das?

Was ist o[0]?
Ach, alles.
 
Maxim Dmitrievsky #:
Ups, das war's
))
 

Grüße, Maschinenraum!

Ich habe auch ein leistungsfähiges neuronales Netz erstellt.

Habe es für Pounddoll und normalen Flug trainiert.


 
Alexander Ivanov #:

Hallo Maschinenraum!

Auch ich habe ein leistungsfähiges neuronales Netz geschaffen.

Habe es für pounddoll und normalen Flug trainiert.

Kann ich den Handelsverlauf sehen, damit ich die Trades sehen kann?

 
Renat Akhtyamov #:

Kann ich die Handelshistorie einsehen, damit ich die Abschlüsse sehen kann?


Ich habe auf pounddoll trainiert und es ist in Ordnung... Aber es gibt nicht viel Geschichte.

Aber ich bin froh.

 

Jetzt lasse ich das neuronale Netz selbst trainieren, während es Handel treibt.

Ich meine, wir sollten einen intelligenten Bot bekommen, den wir nicht jede Woche trainieren müssen.

 
Alexander Ivanov #:


Ich habe mit pounddoll trainiert, und es ist in Ordnung. Aber es gibt nicht viel Geschichte.

Aber ich bin froh.

Ist das eine Demo? (Stopp 5-10 Pips)

 
Renat Akhtyamov #:

Ist dies eine Demo?

Ja.

 
Alexander Ivanov #:

ja

Ich verstehe.

aber wie kann man es so trainieren, dass es Pips von 100 4-stelligen Punkten frisst, ist das möglich?

Ich meine, um von Pips wegzukommen.
 
mytarmailS #:

über die Strategie ansables

https://buildalpha.wordpress.com/2018/11/20/buildalpha-ensemble-strategies-reduce-overfitting-by-combining-strategies/

----------------------------------------

Alles, was wir brauchen, ist eine Metrik der Strategieumschulung, um zu wissen, ob die Strategie bei neuen Daten funktioniert oder nicht, alles andere ist lösbar....

----------------------------------------

Ich habe die Idee, mehrere Ansätze zur Erkennung von Übertraining zu verwenden. Meiner basiert auf auto.arima, Prado "PBO". Ich habe eine Idee, mehrere Ansätze zur Erkennung von Übertraining zu nehmen, meine basiert auf auto.arima, Prado "PBO", etwas anderes vielleicht, werfen sie in als Prädiktoren und lehren AMO, um die Wahrscheinlichkeit von Übertraining vorherzusagen und machen es eine Metrik.

Alternativ dazu.

Äußerst interessant. Übertraining ist die zweite Säule von MO. Die erste ist die Beseitigung von Prädiktoren aus dem Müll, die einfachste. Aber es gibt noch eine dritte Säule, das Vorausschauen. Hier gibt es überhaupt kein Denken.