Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2575

 
Aleksey Nikolayev #:

In diesem Artikel wird Kalman an generierten Daten getestet. Ich bin mir nicht sicher, ob sie bei realen Daten besser sein wird als die LS-Gleitversion.

Nein, nein, bei realen Daten ist alles fair, Y_.

head(Y_)
                EWH      EWZ
2000-08-01 1.947204 2.298111
2000-08-02 1.971071 2.285039
2000-08-03 1.994382 2.278438
2000-08-04 1.994382 2.317404
2000-08-07 2.012648 2.317404
2000-08-08 1.985123 2.317404

Hier sind die mu- und gamma-Werte der Y_-Daten.

Kalman <- estimate_mu_gamma_Kalman(Y_)

und den Backtest mit den Y_-Daten.

return_Kalman <- pairs_trading(Y_["::2003-03"], Kalman$gamma["::2003-03"], Kalman$mu["::2003-03"], 
                               "Kalman", plot = TRUE)



Aber der Punkt ist, dass in derSchätzung_mu_gamma....blahblah

Regression und rollierende Regression sind in Trace und Test unterteilt, es gibt ein Modell zur Vorhersage neuer Daten (neue Streuung), aber es ist nicht für Kalman, ich verstehe nicht, wie es funktioniert, wie man Streuung mit neuen Daten mit Kalman aufbauen kann. Der Code ist so unklar, dass mir die Augen bluten.

 
mytarmailS #:

Ich kann mit diesem Kalman nichts anfangen((

Es gibt sowieso alle drei Strategien zu enträtseln, wobei es wahrscheinlich einfacher ist, die zweite Strategie vor Kalman zu enträtseln - sie beruht auf demselben Prinzip - Anpassungsfähigkeit in der Zeit, ist aber einfacher.

 
Andrei Trukhanovich #:

Es gibt sowieso alle drei Strategien zu knacken, wobei es wahrscheinlich einfacher ist, die zweite Strategie vor Kalman zu knacken - sie beruht auf demselben Prinzip - Anpassungsfähigkeit in der Zeit, ist aber einfacher.

Nein, Andrei, das zweite funktioniert sehr schlecht.

Es werden auch sehr gute Paare genommen ... Wenn man die Realität nimmt, wird Kalman, so Gott will, etwas zeigen.

 
mytarmailS #:

Nein, Andrej, das zweite funktioniert sehr schlecht.

Es wurden einige sehr gute Paare aufgenommen ... Wenn wir von der Realität ausgehen, bewahre uns Gott davor, dass Kalman etwas zeigt.

Dieses Bild ist also ein Vergleich mit den simulierten Daten. Auf den realen Daten dort weiter unten und auf ihrer ersten Hälfte ist der Calman sogar etwas schlechter.

Grob gesagt, werden für Kalman einige A-priori-Annahmen getroffen, und wenn diese in der Realität zutreffen, ist Kalman viel besser und umgekehrt.

 
Aleksey Nikolayev #:

Grob gesagt, werden für den Kalman einige A-priori-Annahmen getroffen, und wenn diese in der Realität zutreffen, wird der Kalman viel besser sein und umgekehrt.

Das glaube ich nicht. Er hat die Daten nur zum Spaß simuliert...

Hier ist das Training der Modelle auf den realen Y_-Daten.

LS <- estimate_mu_gamma_LS(Y_)
rolling_LS <- estimate_mu_gamma_rolling_LS(Y_)
Kalman <- estimate_mu_gamma_Kalman(Y_)

dann erhalten Sie die Spreads.

spread_LS <- compute_spread(Y_, LS$gamma, LS$mu, "LS")
spread_rolling_LS <- compute_spread(Y_, rolling_LS$gamma, rolling_LS$mu, "rolling-LS")
spread_Kalman <- compute_spread(Y_, Kalman$gamma, Kalman$mu, "Kalman")

dann den Backtest.


Kalman hat die Modelle vor dem echten Backtest nicht mit synthetischen Daten trainiert.

 
mytarmailS #:

Das glaube ich nicht. Er hat die Daten nur zum Spaß simuliert.

Hier ist das Training der Modelle auf den realen Y_-Daten.

und dann die Spreads zu bekommen.

dann den Backtest.


Sie haben Kalman vor dem echten Backtest nicht mit synthetischen Daten trainiert.

Die A-priori-Annahmen sind erstens ein im Paket gespeichertes lineares Modell (wie zu Beginn des Kalman-Abschnitts beschrieben) und zweitens werden die Initialisierungsparameter dieses Modells im Allgemeinen von der Obergrenze übernommen.

 
mytarmailS #:

Nein Andrei, die zweite rollendeLS ist sehr schlecht.

Nicht wirklich. Wenn Sie sich die vorherigen Diagramme ansehen, können Sie erkennen, dass das eigentliche "Rollen" nach etwa einem Drittel der Stichprobe ausgelöst wird.

Aber Taki Kalman ist wahrscheinlich immer noch besser, aber ich denke immer noch, dass es besser ist, ihn vom Herd zu trennen.

 
mytarmailS #:

Ja... besonders wenn man ein Menschenfreund ist.

Es ist kein Wald auf Schwertlilien.)


Nichts mit diesem Kalman ist klar((

Der MA (aka Kalman) auf die resultierende Streuung wird gezählt, wobei das "Rauschen" natürlich geglättet wird
 
Maxim Dmitrievsky #:
MAshku (auch bekannt als Kalman) rechnet mit der sich ergebenden Streuung und glättet dabei natürlich das "Rauschen".

https://datascienceplus.com/kalman-filter-modelling-time-series-shocks-with-kfas-in-r/

Kalman ist kein Mashka!
Kalman Filter: Modelling Time Series Shocks with KFAS in R | DataScience+
  • Python and R tutorials
  • datascienceplus.com
When it comes to time series forecasts, conventional models such as ARIMA are often a popular option. While these models can prove to have high degrees of accuracy, they have one major shortcoming – they do not typically account for “shocks”, or sudden changes in a time series. Let’s see how we can potentially alleviate this problem using a...
 

Wir haben diesen Weg schon einmal mit Rena und Traktor beschritten, indem wir ihre 1-Bar-Vorhersagen als Beispiel genommen haben ))))) Ich lache

Mal liegt er vorne, mal hinten. 50/50.

Grund der Beschwerde: