交易中的机器学习:理论、模型、实践和算法交易 - 页 3287 1...328032813282328332843285328632873288328932903291329232933294...3399 新评论 Aleksey Vyazmikin 2023.10.06 15:47 #32861 Forester #:我使用 Valking Forward 也是出于同样的原因。 而且是的,这与列车区段的大小有很大关系。例如,在 20000 条线路上可以找到一些前向信息,但在 5000 或 100000 条线路上则是随机的。 如果找到了 "东西",那么它在训练之外的寿命通常是多少? Aleksey Vyazmikin 2023.10.06 15:47 #32862 Maxim Dmitrievsky #: 😀 我甚至不知道这些方块是什么意思。可能是苹果公司的人写的:) Forester 2023.10.06 16:28 #32863 Aleksey Vyazmikin #:如果找到了 "东西",那么它在教学之外的寿命通常有多长? 我只是每周重新训练一次模型。它的寿命可能更长,我还没研究过....。但也可能更短,而且有必要像 SanSanych 那样在每一小节上都重新训练(如果是 H1,原则上是可能的)。 就速度而言,每周一次对我来说是可以接受的--5 年时间大约可以完成 260 次重新训练。 Aleksey Vyazmikin 2023.10.06 16:30 #32864 Aleksey Vyazmikin #:我们可以初步断定,训练的成功与否确实取决于样本的大小。不过,我注意到"-1p1-2 "样本的结果与"-1p2-3 "样本的结果相当,甚至在某些标准上更好,而 "0p1-2 "样本的结果在符合给定标准的模型数量上要差一倍。现在,我运行了一个时间顺序颠倒的样本,其中 train 样本由初始考试+测试+train_p3 样本组成,测试样本为train_p2,考试样本为 train_p1。 这样做的目的是想看看是否有可能在较新的数据上建立一个 10 年前就能成功的模型。您认为结果会如何? 我没有等太久--结果就在表格的最后一列中 我会尽量不带偏见地发表评论。一方面,我们可以说,按照主要标准--合适模型的数量--来衡量,改变样本的年代会使结果大为恶化,但另一方面,找到这些模型的事实本身就说明,数据中存在一些稳定的模式。还是随机的?是的,当然,我们还需要抽取其他样本,进行类似的研究,只有这样,我们才能更有把握地得出结论。目前,这只是可供思考的信息。 客观地说,数据量很大--我通常使用数倍的较小样本进行训练,尽管与时间进程相当。在所有实验中,召回率看起来越发令人难过。我甚至对没有人关注这个问题感到惊讶。总的来说,我们可以反复强调,如果不使用固定的止损和止盈,标准指标对财务结果的指示效果很差。 如果您有任何想法/希望在这里(示例图)结合其他东西--请告诉我--我会尝试检查会发生什么。 Aleksey Vyazmikin 2023.10.06 16:31 #32865 Forester #: 我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。就速度而言,每周一次对我来说是可以接受的--260 次再训练大约需要 5 年时间。 这种再培训的结果如何? Forester 2023.10.06 16:34 #32866 Aleksey Vyazmikin #:这种再培训的总体结果如何? 我去年展示的所有图表都是这样得到的。只有 OOS 是通过 Valking-forward 获得的。 СанСаныч Фоменко 2023.10.06 16:40 #32867 Andrey Dik #:麦克斯,我不明白你为什么要取笑我。如果没有假设,就不要说;如果有假设,就说出来,比如 "结果会很糟糕"。 如果有趣,你可以笑,如果悲伤,你可以哭。 阿列克谢-维亚兹米金在这里讨论的事情不能引起建议,也不可能评价 "烂-不烂"。 例如,一个人走过来说: - 我们把铁块送上月球吧。 我们惊讶地看着他。 然后那个人说: - 我们要改变铁的温度,在里面放不同的水。 你的反应是"如果没有假设--保持沉默,如果有假设--说出来,比如 "结果会很糟糕"? 列克谢-维亚兹米金 的所作所为与国防部的问题毫无关系。他从一部歌剧中抽丝剥茧,试图从另一部歌剧中得到答案--这都是一个脑子里一团糟的人的空话。 Aleksey Vyazmikin 2023.10.06 16:47 #32868 Forester #: 我去年展示的所有图表都是通过这种方式获得的。只有 OOS 是通过 Valking Forward 获得的。 从图片来看,Recall 值也很 低,也就是说,模型对任何事情都没有信心,预测非常谨慎。 СанСаныч Фоменко 2023.10.06 16:50 #32869 Forester #: 我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。对我来说,就速度而言,一周一次是可以接受的--5 年的 260 次再训练大约就这样过去了。 我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,进行教学,然后测试、检查 - 一切正常,误差也差不多。但是,只要我们跳出这三个文件(它们是一个大文件的组成部分),结果就会截然不同,通常是灾难性的。 如果我们每一步都重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。 而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合? Aleksey Vyazmikin 2023.10.06 17:08 #32870 СанСаныч Фоменко #:在这里,我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,研究它们,然后测试它们,检查它们--一切正常,错误大致相同。但是,只要我们在这三个文件(它们是一个大文件的组成部分)之外运行,结果就会完全不同,通常是灾难性的。如果我们每一步都进行重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合? 你的 "窥视 "在哪里? 我读了几遍,都没看出字里行间的逻辑。 他们发明了问题--然后英勇地解决了问题--一个在展望未来,另一个在寻找完美的标记....。 1...328032813282328332843285328632873288328932903291329232933294...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我使用 Valking Forward 也是出于同样的原因。
而且是的,这与列车区段的大小有很大关系。例如,在 20000 条线路上可以找到一些前向信息,但在 5000 或 100000 条线路上则是随机的。
如果找到了 "东西",那么它在训练之外的寿命通常是多少?
😀
我甚至不知道这些方块是什么意思。可能是苹果公司的人写的:)
如果找到了 "东西",那么它在教学之外的寿命通常有多长?
就速度而言,每周一次对我来说是可以接受的--5 年时间大约可以完成 260 次重新训练。
我们可以初步断定,训练的成功与否确实取决于样本的大小。不过,我注意到"-1p1-2 "样本的结果与"-1p2-3 "样本的结果相当,甚至在某些标准上更好,而 "0p1-2 "样本的结果在符合给定标准的模型数量上要差一倍。
现在,我运行了一个时间顺序颠倒的样本,其中 train 样本由初始考试+测试+train_p3 样本组成,测试样本为train_p2,考试样本为 train_p1。 这样做的目的是想看看是否有可能在较新的数据上建立一个 10 年前就能成功的模型。
您认为结果会如何?
我没有等太久--结果就在表格的最后一列中
我会尽量不带偏见地发表评论。一方面,我们可以说,按照主要标准--合适模型的数量--来衡量,改变样本的年代会使结果大为恶化,但另一方面,找到这些模型的事实本身就说明,数据中存在一些稳定的模式。还是随机的?是的,当然,我们还需要抽取其他样本,进行类似的研究,只有这样,我们才能更有把握地得出结论。目前,这只是可供思考的信息。
客观地说,数据量很大--我通常使用数倍的较小样本进行训练,尽管与时间进程相当。在所有实验中,召回率看起来越发令人难过。我甚至对没有人关注这个问题感到惊讶。总的来说,我们可以反复强调,如果不使用固定的止损和止盈,标准指标对财务结果的指示效果很差。
如果您有任何想法/希望在这里(示例图)结合其他东西--请告诉我--我会尝试检查会发生什么。
我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。就速度而言,每周一次对我来说是可以接受的--260 次再训练大约需要 5 年时间。
这种再培训的结果如何?
这种再培训的总体结果如何?
麦克斯,我不明白你为什么要取笑我。
如果没有假设,就不要说;如果有假设,就说出来,比如 "结果会很糟糕"。
如果有趣,你可以笑,如果悲伤,你可以哭。
阿列克谢-维亚兹米金在这里讨论的事情不能引起建议,也不可能评价 "烂-不烂"。
例如,一个人走过来说:
- 我们把铁块送上月球吧。
我们惊讶地看着他。
然后那个人说:
- 我们要改变铁的温度,在里面放不同的水。
你的反应是"如果没有假设--保持沉默,如果有假设--说出来,比如 "结果会很糟糕"?
列克谢-维亚兹米金 的所作所为与国防部的问题毫无关系。他从一部歌剧中抽丝剥茧,试图从另一部歌剧中得到答案--这都是一个脑子里一团糟的人的空话。
我去年展示的所有图表都是通过这种方式获得的。只有 OOS 是通过 Valking Forward 获得的。
从图片来看,Recall 值也很 低,也就是说,模型对任何事情都没有信心,预测非常谨慎。
我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。对我来说,就速度而言,一周一次是可以接受的--5 年的 260 次再训练大约就这样过去了。
我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,进行教学,然后测试、检查 - 一切正常,误差也差不多。但是,只要我们跳出这三个文件(它们是一个大文件的组成部分),结果就会截然不同,通常是灾难性的。
如果我们每一步都重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。
而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合?
在这里,我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,研究它们,然后测试它们,检查它们--一切正常,错误大致相同。但是,只要我们在这三个文件(它们是一个大文件的组成部分)之外运行,结果就会完全不同,通常是灾难性的。
如果我们每一步都进行重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。
而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合?
你的 "窥视 "在哪里?
我读了几遍,都没看出字里行间的逻辑。
他们发明了问题--然后英勇地解决了问题--一个在展望未来,另一个在寻找完美的标记....。