交易中的机器学习:理论、模型、实践和算法交易 - 页 239

 
安德烈-迪克
尝试用两个数字来描述蜡烛,每个数字都在[-1.0; 1.0]的范围内。这些是O和C相对于H和L的位置。
从你的例子来看,它应该是这样的。
1.[-0.8; 0.8]
2.[-0.2; 0.2]
3.[-0.9; -0.1]
如何做到这一点?
 
mytarmailS:
你怎么做的?
在高度上H为1,L为-1,分别表示O和C相对于H和L。
这清楚地描述了形状,无论蜡烛的大小如何。

 
安德烈-迪克
通过高度H为1,L为-1,分别表示O和C相对于H和L的情况。
这清楚地描述了形状,而不考虑蜡烛的大小。

这里不考虑蜡烛的波动性,所有的计算都是在蜡烛内部进行的,它是什么样的蜡烛,是缺口蜡烛还是一个小的十字星,MO并没有看到。

我认为最正常的是%的增量,但我没有正确计算它们。

 
mytarmailS:

这里不考虑蜡烛的波动性,所有的计算都是在蜡烛内部进行的,它是什么样的蜡烛,是缺口蜡烛还是一个小的十字星,MO并没有看到。

我认为最正常的是%的增量,但我没有搞清楚。

波动性正是你不需要考虑的问题。需要摆脱差距(通过差距的距离转移蜡烛)。
 
安德烈-迪克
波动性不应该被考虑在内。 但缺口应该被摆脱(烛台被缺口的距离所转移)。
相反,差距应该被记住--并被考虑。因为无论如何,差距在统计学上是封闭的。有一次,我找了一个缺口指标--没有找到,就自己用分形做了一个陷阱。但我仍然需要一个好的指标。
 
伙计们,有一个指标叫CandleCode,它对完全相同且具有相同代码的蜡烛进行编码,同时考虑到价差。你为什么要编造一辆自行车,我不明白 :-(
 
Vizard_
课程结束了))))

谢谢,我想我已经知道了。看起来很简单,我不相信,但我会检查的。

同样奇怪的是,符号是一个单独的预测因素,如果是下跌,我只会让蜡烛的大小变成负数。我也应该试试这个。

 
Dr.Trader:

谢谢,我想我已经知道了。看起来很简单,我不相信,但我会检查的。

同样奇怪的是,符号是一个单独的预测因素,如果是下跌,我只会让蜡烛的大小变成负数。我也应该试试这个。

不过我不明白。

你如何做一个目标?

这个公式是怎么来的?

 

我仍然认为,如果不选择对目标变量有影响的预测因素,其他一切都无关紧要。这是非常重要的第一步。要么我们去掉噪声预测器,那么我们建立一个非重新训练 的模型的机会就会增加;要么噪声预测器仍然存在,这必然会导致重新训练。而由于重新训练的模型在未来的行为与它在过去的行为没有任何关系,所以这样的重新训练模型是不需要的。

另一个 有趣的方法是确定预测因素的重要性。不使用确定预测器 重要性的多种算法。

下面是这个帖子的执行 代码

> n <- 10000
>
> x1 <- runif(n)
> x2 <- runif(n)
> y <- -500 * x1 + 50 * x2 + rnorm(n)
>
> model <- lm(y ~ 0 + x1 + x2)
>

 

 


> # 1a. Standardized betas
> summary(model)$coe[,2]
        x1         x2
0.02599082 0.02602010
> betas <- model$coefficients
> betas
        x1         x2
-500.00627   50.00839

 

 


> imp <- abs(betas)/sd.betas
Ошибка: объект 'sd.betas' не найден
> sd.betas <- summary(model)$coe[,2]
> betas <- model$coefficients
> imp <- abs(betas)/sd.betas
> imp <- imp/sum(imp)
> imp
       x1        x2
0.9091711 0.0908289

 

 


> imp1 <- abs(model$coefficients[1] * sd(x1)/sd(y))
> imp2 <- abs(model$coefficients[2] * sd(x2)/sd(y))
>
> imp1 / (imp1 + imp2)
       x1
0.9095839

 

 


> imp2 / (imp1 + imp2)
       x2
0.0904161

 

 


> # 2. Standardized variables
> model2 <- lm(I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))
> summary(model2)

Call:
lm(formula = I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))

Residuals:
       Min         1Q     Median         3Q        Max
-0.0236475 -0.0046199  0.0000215  0.0046571  0.0243383

Coefficients:
               Estimate Std. Error t value Pr(>|t|)    
I(scale(x1)) -9.932e-01  6.876e-05  -14446   <2e-16 ***
I(scale(x2))  9.873e-02  6.876e-05    1436   <2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.006874 on 9998 degrees of freedom
Multiple R-squared:      1,     Adjusted R-squared:      1
F-statistic: 1.058e+08 on 2 and 9998 DF,  p-value: < 2.2e-16

 

 


> abs(model2$coefficients)/sum(abs(model2$coefficients))
I(scale(x1)) I(scale(x2))
  0.90958355   0.09041645

How important is that variable?
  • 2016.12.03
  • Andrés Gutiérrez
  • hagutierrezro.blogspot.nl
When modeling any phenomena by including explanatory variables that highly relates the variable of interest, one question arises: which of the auxiliary variables have a higher influence on the response? I am not writing about significance testing or something like this. I am just thinking like a researcher who wants to know the ranking of...