在我将 Unsupervised 从另一个 EA 移到文件夹中之前,Faza2 无法编译。也许这就是为什么在 0.18 左右仍然会出现错误的原因?
大家下午好。有人成功训练过这个神经网络吗?如果有,您是如何做到的?
我收集了与文章作者相同时期(4 个月)的第一阶段数据。我得到了一个大约 1.2 GB 的 bd 文件(190 000 个特征)。然后我开始训练第二阶段。第 2 阶段的默认迭代次数为 100,000 次。我多次尝试运行第 2 阶段。我还尝试设置 1,000,000 和 10,000,000 次迭代。在所有这些尝试中,第 2 阶段显示的误差波动在 1.6 ...1.8 并且没有下降。或者增长到 0.3(使用其他 bd 文件)。运行第 3 阶段(在测试器中)时,它不会混淆交易。它只是愚蠢地打开一个交易并保持到测试时间结束。我尝试在测试器中以优化模式 运行第 3 阶段。我尝试了 200、500、1000 次。但没有任何影响。唯一的问题是,Expert Advisor 会提前或延后打开交易,并保持到测试结束。但它本身并不关闭交易,而是测试者关闭交易,因为时间到了。我还尝试将 NeuroNet.mqh 文件中的 #define lr 3.0e-4f 参数更改为 1.0e-4f 或 2.0 e-4f,但也不起作用。我到底做错了什么?
有人能解释一下你是如何训练的吗?如果可以,请详细说明。
第 3 阶段的误差是多少?
第 2 阶段迭代了多少次?
如果第 2 阶段的误差没有减少,该怎么办?
迭代到多少次时,你开始改变什么?具体改什么?
在第 3 阶段,EA 只打开交易而不尝试交易,这正常吗?在优化模式下用第 3 阶段进行训练有意义吗?
维克多,我遇到了和你一样的情况。你能在不移动 Unsupervised 文件夹的情况下运行第 2 阶段吗?
该 EA 的编译没有任何问题。一切编译正常。我只是将所有文章的存档一排排地转储到上面(用新文件替换旧文件)。
新文章 神经网络变得轻松(第四十部分):在大数据上运用 Go-Explore已发布:
本文讨论 Go-Explore 算法覆盖长周期训练的运用,因为随着训练时间的增加,随机动作选择策略也许不会导致可盈利验算。
Go-Explore 算法随着训练周期的增加,浮现出一定的困难。 其中一些包括:
维度诅咒:随着训练周期的增加,代理者可以访问的状态数量呈指数级增长,这令查找最优策略变得更加困难。
环境变化:随着训练周期的增加,环境也许会发生变化,而这也许会影响代理者的学习成果。 这会导致以前成功的策略变得无效,甚至不可能。
选择动作困难:随着训练周期的增加,代理者也许需要考虑任务的更广泛背景,以便做出明智的决定。 这会令选择最佳行的任务复杂化,并且需要更复杂的方法来优化算法。
训练时间增加:随着训练周期的增加,收集足够数据和训练模型所需时间也会增加。 这会降低代理者训练的效率和速度。
随着训练周期的增加,需要探索的状态空间维度也许会出现增加的问题。 这也许会导致 “维度诅咒” 问题,其中可能状态的数量随着维度的增加呈指数增长。 这令状态空间探索变得困难,并可能导致算法花费太多时间探索不相关的状态。
为了检查训练模型的品质和成效,我们依据训练和测试样本对其进行了测试。 重点注意的是,我们的模型能够自 2023 年 5 月第一周的历史数据中获利,这些数据不包括在训练集之中,而是训练集的直接延续。
作者:Dmitriy Gizlyk