Пробую оценить важность предикторов для обученного леса, удаляя 1 из них и обучая лес снова. После чего из ошибки полного леса вычитаю ошибку леса c удаленным предиктором. Если ошибка
Индикатор, который использует нейронные сети для прогнозирования ближайших нескольких цен открытия. Сеть обучается методом обратного распространения ошибки. Обучение проходит автоматически, результат — самообученная сеть и самообучающийся индикатор.
有一些特征,奇怪的是,损害了普遍性(我特别说的是catbust,可能也适用于其他)。这似乎很奇怪,因为你只是添加了新的功能,而模型给出的错误比没有这些功能的时候更多。
例如,在几个混合物上进行训练,然后去掉几个混合物,准确率就会提高。
不,一层是原始的,它只是一个重量的乘法。
这是你的理论。
不是我的。
有一些特征,奇怪的是,损害了普遍性(我特别说的是catbust,可能也适用于其他)。这似乎很奇怪,因为你只是增加了新的功能,而模型产生的错误比没有这些功能的时候更多。
例如,我在几个mashes上进行了训练,然后去掉了几个,误差就更大了。
我很久以前就描述过这种效果。
https://www.mql5.com/ru/blogs/post/725189
它是通过完全重新训练模型来检测的。
它是扰乱你工作的噪音。
很久以前曾描述过这样一种效果
https://www.mql5.com/ru/blogs/post/725189
通过对模型的完全重新训练来确定。
是噪音--它妨碍了我们。
是的,但在这里你可以看到这些功能是如何互动的。太糟糕了,它被捆绑在一个特定的MO框架上
因为重要性可能会被多重共线性低估。
当然,在有这么多标志的情况下,用手摸索是不好的不,一层是原始的,它只是一个重量的乘法。
这是你的理论。
这就是--Tsybenko定理。
提出的公式y = x1/x2。- 是连续的,而且只是二维的。
https://www.mql5.com/ru/code/9002
建议。
提出的公式y = x1/x2。- 是连续的,而且只是二维的。
它是离散的还是连续的?
它是离散的还是连续的?
它是连续的。它是否有缝隙和洞?你有没有看一下示例图?
连续的。它是否有缝隙和孔洞?你有没有看一下示例图?
是....
连续函数是 一个变化时没有瞬间 "跳跃"(称为间隙)的函数,也就是说,参数 的微小变化会导致函数值的微小变化。连续函数的图形 是一条连续的线。
是....
连续函数是 一个没有瞬间 "跳跃"(称为不连续)的变化 的函数,也就是说,参数 的微小变化会导致 函数值的微小变化。连续函数的图形 是一条连续的线。
y = x1/x2 在哪里被打断?
x2=0