文章 "深度神经网络 (第六部分)。 神经网络分类器的融合: 引导聚合" - 页 3

 

我观看了不同的 elmNN 视频,其原理是模型逐步逐个添加新的隐藏神经元,并通过特殊公式计算其权重。有一个隐藏层的神经元可以描述任何复杂程度的函数,因此允许算法在隐藏层中使用大量神经元--它可以增加神经元直到误差 = 0。

为了防止过拟合,应减少神经元的最大数量。

 

这里还有一个关于创建组合的想法。


在一次实验中,我生成了数百个模型,并试图通过搜索这些模型的组合来找到最佳组合。结果,这样的 "最佳 "集合往往包含相当弱的模型,而试图移除这些弱模型或替换它们只会使结果更糟。
现在,例如,我首先找到能给出最佳结果的最佳模型。然后,我寻找第二个模型,它与第一个模型的集合结果会更好,而第二个模型(没有集合的模型)的结果对我来说并不重要。然后,我再添加第三个模型,它与前两个模型的集合结果会更好。等等。也就是说,我并不关心一个模型单独存在时的结果,我关心的是它能在多大程度上改善集合结果。这就好比 "蹦蹦跳"。

 
Dr. Trader:

这里还有一个合奏创意。


在一次实验中,我生成了数百个模型,并试图通过搜索这些模型的组合来找到最佳组合。结果,这样的 "最佳 "集合往往包含相当弱的模型,而试图移除这些弱模型或替换它们只会使结果更糟。
现在,例如,我首先找到能给出最佳结果的最佳模型。然后,我寻找第二个模型,它与第一个模型的集合结果会更好,而第二个模型(没有集合的模型)的结果对我来说并不重要。然后,我再添加第三个模型,它与前两个模型的集合结果会更好。等等。也就是说,我并不关心一个模型单独存在时的结果,我关心的是它能在多大程度上改善集合结果。这就好比 "蹦蹦跳跳"。

这是一个有趣的选择。
我以为你写的是你在做回归--只有平均值才行,投票已被淘汰。
 

是的,我正在平均分配。

 
我想知道前锋的预测得分是多少?
 
Виктор:
我想知道前锋的预测结果如何?

有什么问题?

有报价,有脚本。重复计算,将集合的起点移动 500-1000 条,就能得到您感兴趣的结果。

根据我的计算,在用最佳参数训练集合之后,至少接下来的 750 个条形图可以提供良好的分类质量。作为参考,M15 的 500 个柱状图相当于一周。重新训练/重新优化大约需要 20-30 分钟(取决于硬件和 R 版本)。

上一篇文章 给出了这样一个测试示例

祝您好运

 
Vladimir Perervenko:

有什么问题?

有报价,有脚本。重复计算,将数据集的开头移动 500-1000 条,就能得到您感兴趣的结果。

根据我的计算,在用最佳参数训练集合后,至少接下来的 750 个条形图可以提供良好的分类质量。作为参考,M15 的 500 个柱状图相当于一周。重新训练/重新优化大约需要 20-30 分钟(取决于硬件和 R 版本)。

上一篇文章 给出了这样一个测试实例

祝你好运

你的老师是 "之 "字形增量。具有许多单调区域的函数。这些不是利润增量。这就是为什么 70% 猜对的方向并不能说明盈利能力,您需要在报价上进行测试。
 
Виктор:
你的老师是 "之 "字形增量。具有许多单调区域的函数。这些不是利润增量。这就是为什么 70% 猜对的方向并不能让人理解盈利能力,您需要在报价上进行测试。

这就对了。И ?

 
考虑到市场的实际情况(点差、佣金、重新报价......),以 ZigZag 为目标的分类准确率通常应远远超过 80%。
 
Belford:
考虑到市场实际情况(点差、佣金、重新报价......),以 ZigZag 为目标的分类准确率通常应远远高于 80%。

您是如何确定/计算这个数字的?当然,如果这不是秘密的话。