文章 "从头开始采用 MQL 语言进行深度神经网络编程" - 页 6

 
Nikolai Kalinin #:

您能解决输入缩放超过 4 倍的问题吗?

是的,我开始四处探索,终于找到了问题的症结所在。我不仅增加了输入,还增加了架构:我增加了层,增加了神经元,增加了 RNN--记住之前的状态并将其输入到输入中,尝试将激活函数改为最著名的激活函数,尝试 "向神经网络输入什么 "主题中的各种输入--但都无济于事。

,这让我非常遗憾。

我尝试了 LSTM、BiLSTM、CNN、CNN-BiLSTM、CNN-BiLSTM-MLP,但都没有成功。

我自己也很惊讶。也就是说,所有的成功都可以用一个观点来描述:这是一个幸运的时间表期。例如,2022 年的欧洲美元几乎与 2021 年完全相同。如果在 2021 年进行训练,那么在 2022 年的 11 月(或者 10 月,我不记得了)之前,你都会得到一个正数。但是,只要你在 2020 年对任何(!)神经网络进行训练,那么在 2021 年就会完全失败。就从第一个月开始!如果切换到其他货币对(通常是欧洲美元),它的表现也是随机的。

但我们需要的是一个在训练后能保证在远期显示出生命迹象的系统,对吗?如果我们从这个想法出发,那是没有结果的。如果有人认为他是个幸运儿,经过今天的培训后,他将在未来一年或六个月内拥有一个盈利的远期,那就祝他好运吧)。

 
Ivan Butko #:


但是,我们需要一个在训练后能保证在前锋身上显示出生命迹象的系统,不是吗?如果我们从这种想法出发,那是没有结果的。如果有人认为自己是个幸运儿,今天的训练结束后,他将在未来一年或半年里拥有一名赚钱的前锋,那就祝他好运吧)。

那么,我们是否可以认为,NS 的必要 "graal "参数在搜索过程中被遗漏了,甚至最初并不重要 ,没有被测试者考虑在内?也许该系统除了模式-比例之外,还缺少偶发因素。

 
Nikolai Kalinin #:

那么,我们是否可以认为,必要的 "graal "NS 参数在其搜索过程中被遗漏了,或者甚至最初并不重要 ,测试人员也没有考虑到?也许该系统除了模式-比例之外,还缺乏偶发因素。

当然,有时 "圣杯 "集会在优化过程中漏掉,在检查所有内容之前几乎不可能找到它们(排序过程中的第 150 行)。

我不明白您帖子的第二部分。

 
Ivan Butko #:

当然,有时 "圣杯 "集会在优化过程中漏掉,在检查所有内容之前几乎不可能找到它们(排序过程中的第 150 行)。

我不明白您帖子的第二部分。

这是关于输入此类数据的问题,这些数据是在某一事件发生时获得的,例如,High[0]> High[1 ]。如果在这样的背景下考虑市场,那么它就完全是一个事件驱动模型,并与之相关。而对混沌元素的控制已经是在 NS "内存 "之外的微调和优化方法。通过一个综合指标,可以很好地体现代码中的此类事件添加是如何工作的。该指标(综合标准)会改善并转向最有利可图的优化传递。

 
这正是我要找的!好文章!