트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 239

 
안드레이 딕 :
양초를 각각 [-1.0; 1.0]. 이것은 H와 L에 대한 O와 C의 위치입니다.
귀하의 예는 다음과 같습니다.
1. [-0.8; 0.8]
2. [-0.2; 0.2]
3. [-0.9; -0.1]
그렇게하는 방법?
 
mytarmailS :
그렇게하는 방법?
높이로 H는 1, L은 -1로 H와 L에 대하여 각각 O와 C를 나타낸다.
이것은 양초의 크기에 관계없이 모양을 명확하게 설명합니다.

 
안드레이 딕 :
높이로 H는 1, L은 -1로 H와 L에 대하여 각각 O와 C를 나타낸다.
이것은 양초의 크기에 관계없이 모양을 명확하게 설명합니다.

여기서 양초의 변동성은 고려하지 않고, 모든 계산은 마치 양초 안에 있는 것처럼 수행되며, 어떤 양초인지, 틈이나 작은 도직모가 보이지 않는다

가장 정상적인 것은 % 증가라고 생각하지만 올바르게 계산하지 않습니다.

 
mytarmailS :

여기서 양초의 변동성은 고려하지 않고, 모든 계산은 마치 양초 안에 있는 것처럼 수행되며, 어떤 양초인지, 틈이나 작은 도직모가 보이지 않는다

가장 정상적인 것은 % 증가라고 생각하지만 올바르게 계산하지 않습니다.

변동성은 고려할 필요가 없습니다. 그리고 당신은 간격을 제거해야합니다 (갭의 거리만큼 양초를 이동)
 
안드레이 딕 :
변동성은 고려할 필요가 없습니다. 그리고 당신은 간격을 제거해야합니다 (갭의 거리만큼 양초를 이동)
반대로 격차를 기억하고 고려해야 합니다. 통계적으로 격차는 어쨌든 닫히기 때문입니다. 여하튼 나는 간격에 의한 일종의 표시를 찾고 있었습니다. 나는 그것을 찾지 못했습니다. 프랙탈을 통해 직접 잡았습니다. 그러나 여전히 좋은 지표가 필요합니다.
 
얘들 아, CandleCode라는 표시기가 있습니다. 촛불을 똑같이 인코딩하고 산란을 고려하여 동일한 코드를 갖습니다. 나는 당신이 왜 자전거를 발명하는지 이해하지 못합니다 :-(
 
마법사_ :
수업이 끝났습니다)))

감사합니다. 이해가 좀 됩니다. 매우 간단해 보이지만 믿지는 않지만 확인하겠습니다.

기호가 별도의 예측 변수라는 것도 이상합니다. 양초가 아래로 떨어지면 양초의 크기를 음수로 만들 것입니다. 이것도 시도해야합니다.

 
Dr.Trader :

감사합니다. 이해가 갑니다. 매우 간단해 보이지만 믿지는 않지만 확인하겠습니다.

기호가 별도의 예측 변수라는 것도 이상합니다. 양초가 아래로 떨어지면 양초의 크기를 음수로 만들 것입니다. 이것도 시도해야합니다.

그리고 여기 내가 이해하지 못한 것이 있다

목표는 어땠어?

공식은 어디에서 왔습니까?

 

목표 변수에 미치는 영향에 대한 예측 변수를 선택하지 않고는 다른 것이 중요하지 않다고 계속 생각합니다. 이것은 첫 번째 단계 입니다. 잡음 예측자를 제거한 다음 NOT 과적합 모델을 구축할 기회가 증가하거나 잡음 예측자가 남아있어 필연적으로 과적합으로 이어질 것입니다. 그리고 미래에 overtrained된 모델의 동작은 과거의 동작과 전혀 관련이 없으므로 이러한 overtrained 모델은 필요하지 않습니다.

예측 변수의 중요성을 결정하는 또 다른 흥미로운 접근 방식입니다. 동시에 유의성 테스트 를 결정하기 위한 수많은 알고리즘이 사용되지 않습니다.

다음은 이 게시물 의 완성된 코드입니다.

> n <- 10000
>
> x1 <- runif(n)
> x2 <- runif(n)
> y <- -500 * x1 + 50 * x2 + rnorm(n)
>
> model <- lm(y ~ 0 + x1 + x2)
>

 

 


> # 1a. Standardized betas
> summary(model)$coe[,2]
        x1         x2
0.02599082 0.02602010
> betas <- model$coefficients
> betas
        x1         x2
-500.00627   50.00839

 

 


> imp <- abs(betas)/sd.betas
Ошибка: объект 'sd.betas' не найден
> sd.betas <- summary(model)$coe[,2]
> betas <- model$coefficients
> imp <- abs(betas)/sd.betas
> imp <- imp/sum(imp)
> imp
       x1        x2
0.9091711 0.0908289

 

 


> imp1 <- abs(model$coefficients[1] * sd(x1)/sd(y))
> imp2 <- abs(model$coefficients[2] * sd(x2)/sd(y))
>
> imp1 / (imp1 + imp2)
       x1
0.9095839

 

 


> imp2 / (imp1 + imp2)
       x2
0.0904161

 

 


> # 2. Standardized variables
> model2 <- lm(I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))
> summary(model2)

Call:
lm(formula = I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))

Residuals:
       Min         1Q     Median         3Q        Max
-0.0236475 -0.0046199  0.0000215  0.0046571  0.0243383

Coefficients:
               Estimate Std. Error t value Pr(>|t|)    
I(scale(x1)) -9.932e-01  6.876e-05  -14446   <2e-16 ***
I(scale(x2))  9.873e-02  6.876e-05    1436   <2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.006874 on 9998 degrees of freedom
Multiple R-squared:      1,     Adjusted R-squared:      1
F-statistic: 1.058e+08 on 2 and 9998 DF,  p-value: < 2.2e-16

 

 


> abs(model2$coefficients)/sum(abs(model2$coefficients))
I(scale(x1)) I(scale(x2))
  0.90958355   0.09041645

How important is that variable?
  • 2016.12.03
  • Andrés Gutiérrez
  • hagutierrezro.blogspot.nl
When modeling any phenomena by including explanatory variables that highly relates the variable of interest, one question arises: which of the auxiliary variables have a higher influence on the response? I am not writing about significance testing or something like this. I am just thinking like a researcher who wants to know the ranking of...