목표 변수에 미치는 영향에 대한 예측 변수를 선택하지 않고는 다른 것이 중요하지 않다고 계속 생각합니다. 이것은 첫 번째 단계 입니다. 잡음 예측자를 제거한 다음 NOT 과적합 모델을 구축할 기회가 증가하거나 잡음 예측자가 남아있어 필연적으로 과적합으로 이어질 것입니다. 그리고 미래에 overtrained된 모델의 동작은 과거의 동작과 전혀 관련이 없으므로 이러한 overtrained 모델은 필요하지 않습니다.
예측 변수의 중요성을 결정하는 또 다른 흥미로운 접근 방식입니다. 동시에 유의성 테스트 를 결정하기 위한 수많은 알고리즘이 사용되지 않습니다.
Residual standard error: 0.006874 on 9998 degrees of freedom Multiple R-squared: 1, Adjusted R-squared: 1 F-statistic: 1.058e+08 on 2 and 9998 DF, p-value: < 2.2e-16
When modeling any phenomena by including explanatory variables that highly relates the variable of interest, one question arises: which of the auxiliary variables have a higher influence on the response? I am not writing about significance testing or something like this. I am just thinking like a researcher who wants to know the ranking of...
양초를 각각 [-1.0; 1.0]. 이것은 H와 L에 대한 O와 C의 위치입니다.
그렇게하는 방법?
높이로 H는 1, L은 -1로 H와 L에 대하여 각각 O와 C를 나타낸다.
여기서 양초의 변동성은 고려하지 않고, 모든 계산은 마치 양초 안에 있는 것처럼 수행되며, 어떤 양초인지, 틈이나 작은 도직모가 보이지 않는다
가장 정상적인 것은 % 증가라고 생각하지만 올바르게 계산하지 않습니다.
양초의 클러스터링에 대한 선택은 있지만 정규화 방법을 공개하지 않고 결과를 공개하는 것은 저에게 적합하지 않습니다.
https://www.elitetrader.com/et/threads/statistical-analysis-of-candlesticks-patterns.285918/
http://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/
http://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/
http://intelligenttradingtech.blogspot.com/2010/06/quantitative-candlestick-pattern.html
여기서 양초의 변동성은 고려하지 않고, 모든 계산은 마치 양초 안에 있는 것처럼 수행되며, 어떤 양초인지, 틈이나 작은 도직모가 보이지 않는다
가장 정상적인 것은 % 증가라고 생각하지만 올바르게 계산하지 않습니다.
변동성은 고려할 필요가 없습니다. 그리고 당신은 간격을 제거해야합니다 (갭의 거리만큼 양초를 이동)
수업이 끝났습니다)))
감사합니다. 이해가 좀 됩니다. 매우 간단해 보이지만 믿지는 않지만 확인하겠습니다.
기호가 별도의 예측 변수라는 것도 이상합니다. 양초가 아래로 떨어지면 양초의 크기를 음수로 만들 것입니다. 이것도 시도해야합니다.
감사합니다. 이해가 갑니다. 매우 간단해 보이지만 믿지는 않지만 확인하겠습니다.
기호가 별도의 예측 변수라는 것도 이상합니다. 양초가 아래로 떨어지면 양초의 크기를 음수로 만들 것입니다. 이것도 시도해야합니다.
그리고 여기 내가 이해하지 못한 것이 있다
목표는 어땠어?
공식은 어디에서 왔습니까?
목표 변수에 미치는 영향에 대한 예측 변수를 선택하지 않고는 다른 것이 중요하지 않다고 계속 생각합니다. 이것은 첫 번째 단계 입니다. 잡음 예측자를 제거한 다음 NOT 과적합 모델을 구축할 기회가 증가하거나 잡음 예측자가 남아있어 필연적으로 과적합으로 이어질 것입니다. 그리고 미래에 overtrained된 모델의 동작은 과거의 동작과 전혀 관련이 없으므로 이러한 overtrained 모델은 필요하지 않습니다.
예측 변수의 중요성을 결정하는 또 다른 흥미로운 접근 방식입니다. 동시에 유의성 테스트 를 결정하기 위한 수많은 알고리즘이 사용되지 않습니다.
다음은 이 게시물 의 완성된 코드입니다.
> n <- 10000
>
> x1 <- runif(n)
> x2 <- runif(n)
> y <- -500 * x1 + 50 * x2 + rnorm(n)
>
> model <- lm(y ~ 0 + x1 + x2)
>
> # 1a. Standardized betas
> summary(model)$coe[,2]
x1 x2
0.02599082 0.02602010
> betas <- model$coefficients
> betas
x1 x2
-500.00627 50.00839
> imp <- abs(betas)/sd.betas
Ошибка: объект 'sd.betas' не найден
> sd.betas <- summary(model)$coe[,2]
> betas <- model$coefficients
> imp <- abs(betas)/sd.betas
> imp <- imp/sum(imp)
> imp
x1 x2
0.9091711 0.0908289
> imp1 <- abs(model$coefficients[1] * sd(x1)/sd(y))
> imp2 <- abs(model$coefficients[2] * sd(x2)/sd(y))
>
> imp1 / (imp1 + imp2)
x1
0.9095839
> imp2 / (imp1 + imp2)
x2
0.0904161
> # 2. Standardized variables
> model2 <- lm(I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))
> summary(model2)
Call:
lm(formula = I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))
Residuals:
Min 1Q Median 3Q Max
-0.0236475 -0.0046199 0.0000215 0.0046571 0.0243383
Coefficients:
Estimate Std. Error t value Pr(>|t|)
I(scale(x1)) -9.932e-01 6.876e-05 -14446 <2e-16 ***
I(scale(x2)) 9.873e-02 6.876e-05 1436 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.006874 on 9998 degrees of freedom
Multiple R-squared: 1, Adjusted R-squared: 1
F-statistic: 1.058e+08 on 2 and 9998 DF, p-value: < 2.2e-16
> abs(model2$coefficients)/sum(abs(model2$coefficients))
I(scale(x1)) I(scale(x2))
0.90958355 0.09041645