交易中的机器学习:理论、模型、实践和算法交易 - 页 2301

[删除]  

有一些特征,奇怪的是,损害了普遍性(我特别说的是catbust,可能也适用于其他)。这似乎很奇怪,因为你只是添加了新的功能,而模型给出的错误比没有这些功能的时候更多。

例如,在几个混合物上进行训练,然后去掉几个混合物,准确率就会提高。

 
mytarmailS:

不,一层是原始的,它只是一个重量的乘法。

这是你的理论。

不是我的。

 
Maxim Dmitrievsky:

有一些特征,奇怪的是,损害了普遍性(我特别说的是catbust,可能也适用于其他)。这似乎很奇怪,因为你只是增加了新的功能,而模型产生的错误比没有这些功能的时候更多。

例如,我在几个mashes上进行了训练,然后去掉了几个,误差就更大了。

我很久以前就描述过这种效果。

https://www.mql5.com/ru/blogs/post/725189

它是通过完全重新训练模型来检测的。

它是扰乱你工作的噪音。

Еще про оценку предикторов
Еще про оценку предикторов
  • www.mql5.com
Пробую оценить важность предикторов для обученного леса, удаляя 1 из них и обучая лес снова. После чего из ошибки полного леса вычитаю ошибку леса c удаленным  предиктором. Если ошибка
[删除]  
elibrarius:

很久以前曾描述过这样一种效果

https://www.mql5.com/ru/blogs/post/725189

通过对模型的完全重新训练来确定。

是噪音--它妨碍了我们。

是的,但在这里你可以看到这些功能是如何互动的。太糟糕了,它被捆绑在一个特定的MO框架上

因为重要性可能会被多重共线性低估。

当然,在有这么多标志的情况下,用手摸索是不好的
 
mytarmailS:

不,一层是原始的,它只是一个重量的乘法。

这是你的理论。

这就是--Tsybenko定理。

提出的公式y = x1/x2。- 是连续的,而且只是二维的。


https://www.mql5.com/ru/code/9002

建议。

  • 一个有三层的网络(numLayers=3:一个输入,一个隐藏和一个输出)通常在绝大多数情况下是足够的。根据Tsybenko定理,具有一个隐藏层的网络能够接近任何连续的多维函数,达到任何所需的精确程度。一个有两个隐藏层的网络能够逼近任何离散的多维函数。
Ценовой прогноз с использованием нейронных сетей
Ценовой прогноз с использованием нейронных сетей
  • www.mql5.com
Индикатор, который использует нейронные сети для прогнозирования ближайших нескольких цен открытия. Сеть обучается методом обратного распространения ошибки. Обучение проходит автоматически, результат — самообученная сеть и самообучающийся индикатор.
 
elibrarius

提出的公式y = x1/x2。- 是连续的,而且只是二维的。

它是离散的还是连续的

 
mytarmailS:

它是离散的还是连续的

它是连续的。它是否有缝隙和洞?你有没有看一下示例图?


 
elibrarius:

连续的。它是否有缝隙和孔洞?你有没有看一下示例图?

是....

连续函数 一个变化时没有瞬间 "跳跃"(称为间隙)的函数也就是说,参数 的微小变化会导致函数值的微小变化。连续函数的图形 是一条连续的线

 
mytarmailS:

是....

连续函数 一个没有瞬间 "跳跃"(称为不连续)的变化函数也就是说,参数微小变化会导致 函数值的微小变化。连续函数的图形 是一条连续的线

y = x1/x2 在哪一点上会断裂?
 
elibrarius:
y = x1/x2 在哪里被打断?

x2=0