文章 "深度神经网络 (第六部分)。 神经网络分类器的融合: 引导聚合" - 页 4

 
Vladimir Perervenko:

您是如何确定/计算出这个数字的?当然,如果这不是秘密的话。

实验方法。这在很大程度上取决于特定的时间序列、时间框架和 ZigZag 参数。例如,对于 EURUSD15,0.84 的精确度是不够的。

 

尝试了 10 个 DNN Darch 片段的集合,取前 10 个预测的平均值。

没有改进,平均预测值(osh=33%)略低于最佳预测值(osh=31%)。最差的误差为 34%。

DNN 的训练效果很好--100 个历元。

显然,对于大量训练不足或较弱的网络(如 Elm),集合效果很好。

 
elibrarius:

尝试了 10 个 DNN Darch 片段的集合,取前 10 个预测的平均值。

没有改进,平均预测值(osh=33%)略低于最佳预测值(osh=31%)。最差的是误差=34%。

DNN 的训练效果很好--100 个历元。

显然,对于像 Elm 这样大量训练不足或较弱的网络,集合效果很好。

当然,最好在集合中使用弱模型和不稳定模型。不过,你也可以用严格的模型来创建集合,但技术略有不同。如果规模允许,我将在下一篇文章中介绍如何使用 TensorFlow 创建集合。总的来说,集合的主题非常广泛,也非常有趣。例如,你可以用 ELM 神经网络或其他弱模型作为节点,建立一个 RandomForest(参见 gensemble 软件包)。

成功案例

 
习惯性地查看 您在深度 NN 上的新话题。好极了
 

Обсуждение и вопросы по коду можно сделать в ветке

Удачи

 

有关代码的讨论和问题可以在分支 中进行

祝您好运

 
文章很有意思,谢谢。