트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2575

 
Alexey Nikolaev # :

기사에서 Kalman은 생성된 데이터에 대해 테스트됩니다. 실제 데이터에서 LS의 슬라이딩 버전보다 나을지 확신하지 못합니다.

아니, 아니, 사실은 모든 것이 공평하다 Y_

head(Y_)
                EWH      EWZ
2000 - 08 - 01 1.947204 2.298111
2000 - 08 - 02 1.971071 2.285039
2000 - 08 - 03 1.994382 2.278438
2000 - 08 - 04 1.994382 2.317404
2000 - 08 - 07 2.012648 2.317404
2000 - 08 - 08 1.985123 2.317404

여기서 우리는 Y_ 에 따라 mugamma 를 계산합니다.

Kalman <- estimate_mu_gamma_Kalman(Y_)

그리고 백테스트   ~에 따르면   와이_

return_Kalman <- pairs_trading(Y_[ "::2003-03" ], Kalman$gamma[ "::2003-03" ], Kalman$mu[ "::2003-03" ], 
                               "Kalman" , plot = TRUE)



그러나 요점은 함수 추정치_mu_gamma .... blabla 에서

회귀 및 이동 회귀는 기차와 테스트로 나뉘며 새 데이터(새로운 스프레드)를 예측하는 모델이 있는 것 같지만 칼만에는 모델이 없습니다. 내부 작동 방식, 새 데이터를 사용하여 스프레드 구축 방법을 이해하지 못합니다. 데이터. 그리고 코드는 너무 이해할 수 없어 이미 눈에서 피가 흐르고 있습니다.

 
mytarmailS # :

이 칼만과 관련하여 명확하지 않은 것은 없습니다((

어쨌든 거기에서 세 가지 전략이 모두 선택되고 Kalman보다 두 번째 전략을 선택하는 것이 더 쉬울 것입니다. 동일한 원칙이 있습니다. 시간에 대한 적응성이지만 더 간단합니다.

 
안드레이 트루하노비치

어쨌든 거기에서 세 가지 전략이 모두 선택되고 Kalman보다 두 번째 전략을 선택하는 것이 더 쉬울 것입니다. 동일한 원칙이 있습니다. 시간에 대한 적응성이지만 더 간단합니다.

Andrew가 아니라 두 번째 롤링LS가 매우 나쁘게 작동합니다 .

아직 찍힌 아주 좋은 커플이 있다... 현실을 직시하면 신은 칼만에게 보여준 샤웁을 금한다

 
mytarmailS # :

Andrew가 아니라 두 번째 롤링LS가 매우 나쁘게 작동합니다 .

아직 찍힌 아주 좋은 커플들이 있다... 현실을 직시하면 신은 칼만에게 보여준 샤웁을 금한다

따라서 이 그림은 시뮬레이션된 데이터에 대한 비교입니다. 실제 데이터에는 끝 부분이 더 있고 전반부에는 Kalman이 조금 더 나쁩니다.

대략적으로 말하면, 칼만에 대한 몇 가지 선험적 가정이 만들어지고 그것이 실제로 사실이라면 칼만이 훨씬 더 나을 것이고 그 반대도 마찬가지입니다.

 
Alexey Nikolaev # :

대략적으로 말하면, 칼만에 대한 몇 가지 선험적 가정이 만들어지고 그것이 실제로 사실이라면 칼만이 훨씬 더 나을 것이고 그 반대도 마찬가지입니다.

도중에 .. 그는 재미로 데이터를 시뮬레이션했지만 ..

다음은 실제 데이터 Y_ 에 대한 학습 모델입니다.

LS <- estimate_mu_gamma_LS(Y_)
rolling_LS <- estimate_mu_gamma_rolling_LS(Y_)
Kalman <- estimate_mu_gamma_Kalman(Y_)

그런 다음 스프레드를 얻습니다.

spread_LS <- compute_spread(Y_, LS$gamma, LS$mu, "LS")
spread_rolling_LS <- compute_spread(Y_, rolling_LS$gamma, rolling_LS$mu, "rolling-LS")
spread_Kalman <- compute_spread(Y_, Kalman$gamma, Kalman$mu, "Kalman")

그런 다음 백테스트


Te Kalman은 실제 백테스트 전에 합성 데이터에 대해 교육을 받지 않았습니다.

 
mytarmailS # :

도중에 .. 그는 재미로 데이터를 시뮬레이션했지만 ..

다음은 실제 데이터 Y_ 에 대한 학습 모델입니다.

그런 다음 스프레드를 얻습니다.

그런 다음 백테스트


Te Kalman은 실제 백테스트 전에 합성 데이터에 대해 교육을 받지 않았습니다.

선험적 가정은 첫째, 패키지에 연결된 선형 모델(Kalman 섹션 시작 부분에 설명됨)이고 둘째, 일반적으로 말해서 천장에서 가져온 이 모델의 초기화 매개변수입니다.

 
mytarmailS # :

Andrew가 아니라 두 번째 롤링LS가 매우 나쁘게 작동합니다 .

설마. 앞의 그래프를 보면 샘플의 ~3분의 1을 통과한 후 실제 "롤링"이 켜진 것을 알 수 있습니다. 실제 데이터에 이력이 있다면 그런 문제는 없을 것입니다.

그래도 그래도 칼만은 아무래도 낫겠지만 그래도 난로에서 빼는게 낫다고 생각함.

[삭제]  
mytarmailS # :

예, 예 .. 특히 인본주의자라면

이것은 가르치는 창포의 숲이 아닙니다)


이 칼만과 관련하여 명확하지 않은 것은 없습니다((

Mashka(일명 Kalman)는 결과 스프레드에서 계산되어 "노이즈"를 부드럽게 합니다.
 
막심 드미트리예프스키 # :
Mashka(일명 Kalman)는 결과 스프레드에 대해 계산되어 물론 "잡음"을 부드럽게 합니다.

https://datascienceplus.com/kalman-filter-modelling-time-series-shocks-with-kfas-in-r/

칼만은 마슈카가 아니다!
Kalman Filter: Modelling Time Series Shocks with KFAS in R | DataScience+
  • Python and R tutorials
  • datascienceplus.com
When it comes to time series forecasts, conventional models such as ARIMA are often a popular option. While these models can prove to have high degrees of accuracy, they have one major shortcoming – they do not typically account for “shocks”, or sudden changes in a time series. Let’s see how we can potentially alleviate this problem using a...
[삭제]  

우리는 이미 1바에 대한 예측의 예를 사용하여 Rena와 트랙터와 함께 이것을 "통과"했습니다))) 웃고 있습니다

한 경우에는 앞서고 다른 경우에는 늦을 것입니다. 총 50/50