交易中的机器学习:理论、模型、实践和算法交易 - 页 3164 1...315731583159316031613162316331643165316631673168316931703171...3399 新评论 Maxim Dmitrievsky 2023.08.01 14:28 #31631 Forester #:如何搜索?浏览所有大块(例如 100 乘以 5000 pp),看看该模型上其他 50 万行的预测成功率如何? 是的,你可以随机抽取样本,而不是连续抽取大块,这样更正确。 Dmytryi Nazarchuk 2023.08.01 14:39 #31632 mytarmailS #:我笑得热泪盈眶)。我让 Bard 用俄语写,他写错了,这种事时有发生。俄语不是我的母语,我只在这里使用它的精髓......他回答了我)。你明白吗?他开始耍我了))))这太残忍了)))) 他没有嘲弄你。 你写的是 ruSki - 塞尔维亚语中的 "俄罗斯"。 这就是他用塞尔维亚语给你写信的原因。 mytarmailS 2023.08.01 14:43 #31633 Dmytryi Nazarchuk #:他不是在耍你。你写的是 russki,在塞尔维亚语中是 "俄罗斯人 "的意思。这就是他用塞尔维亚语给你写信的原因 Ahh)))) mytarmailS 2023.08.01 14:49 #31634 mytarmailS #:关于树和树上的强化学习的文章很有意思。https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/ 我在市场数据上测试了该算法... 与 Forest.... 相比,算法在新数据上运行稳定 算法没有经过再训练,在所有验证样本上的结果要么比测试样本上的结果好,要么好得多,我还没有看到更糟的.... Akurasi 平均比 Forrest 好 2-4%,如果 Forrest 是 0.58,那么 RLT 就是 ~0.62。 总之,根据第一次测试,该算法是值得的,但需要很长时间来学习....。 СанСаныч Фоменко 2023.08.01 14:54 #31635 Forester #: 自制。实验的可能性无限.... 是啊。讨论自制没有意义。 为什么要在自制上浪费时间?有几十种非自制的算法,数百万用户都在使用.....。 Aleksey Nikolayev 2023.08.01 16:41 #31636 mytarmailS #:在市场数据上测试了该算法。与 Forest.... 相比,该算法在新数据上运行稳定。该算法不会重新训练,在所有验证样本上的结果要么比测试样本上的结果更好,要么好得多,我还没有见过更糟的....。Akurasi 平均比 Forrest 好 2-4%,因此如果 Forrest 的结果是 0.58,那么 RLT 的结果就是 ~0.62。总之,根据最初的测试,该算法是值得的,但需要很长时间来学习....。 根据他们的理论,应该有一些 "强 "性状能很好地发挥作用,问题是如何把它们从其他 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。 一般来说,如果只是选择信息量大的性状,桑-桑尼奇用他的秘法早就成为万亿富翁了)。 mytarmailS 2023.08.01 16:47 #31637 Aleksey Nikolayev #:他们的理论假定,有一些 "强 "性状能很好地发挥作用,唯一的问题是把它们从其余的 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。一般来说,如果只是选择信息量大的性状,桑-桑尼奇凭借他的秘法早就成为万亿富翁了)。 好吧,这个算法确实有效,而且更稳定,阿库拉西(akurasi)更好,卡帕(kappa)更好......换句话说,它更有效...... 而且,无论是经过 1000 次新的观察还是经过 20000 次观察......误差要么相同,要么更好。 Aleksey Nikolayev#: 符号的强度大致相同 好吧,这里我不能同意。 该算法的重要性 Forester 2023.08.01 19:55 #31638 СанСаныч Фоменко #:是啊...讨论自制的也没什么意义。为什么要在自制上浪费时间?有几十种非自制的算法,实际上有数百万用户在使用.....。,我不讨论软件包,我只讨论想法。 mytarmailS 2023.08.02 09:27 #31639 Forester #: 因为我可以做实验,做这些算法中不包括的事情--黑盒子。 ,我不讨论软件包,我建议只讨论想法。 你们中有多少人实现了这里讨论的想法?有多少人得到了比使用现成库更好的结果?这个数字大约为零,不是吗?而且这个库是可复制的代码,每个人都可以运行它,每个人都会得到结果,可复制的结果,真实的结果,以 "是"-"否 "答案+经验和知识补充的形式。而讨论只是浪费时间,我们讨论、讨论,然后忘记,甚至没有人写过一行代码,就像板凳上的老奶奶一样,时间一去不复返,生命也随之逝去......既没有增加知识,也没有增加经验。 Maxim Dmitrievsky 2023.08.02 10:44 #31640 感觉知识越来越少,都怪批量思维。 1...315731583159316031613162316331643165316631673168316931703171...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
如何搜索?浏览所有大块(例如 100 乘以 5000 pp),看看该模型上其他 50 万行的预测成功率如何?
是的,你可以随机抽取样本,而不是连续抽取大块,这样更正确。
我笑得热泪盈眶)。
我让 Bard 用俄语写,他写错了,这种事时有发生。俄语不是我的母语,我只在这里使用它的精髓......
他回答了我)。
你明白吗?
他开始耍我了))))
这太残忍了))))
他没有嘲弄你。
你写的是 ruSki - 塞尔维亚语中的 "俄罗斯"。
这就是他用塞尔维亚语给你写信的原因。
他不是在耍你。
你写的是 russki,在塞尔维亚语中是 "俄罗斯人 "的意思。
这就是他用塞尔维亚语给你写信的原因
Ahh))))
关于树和树上的强化学习的文章很有意思。
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
我在市场数据上测试了该算法...
与 Forest.... 相比,算法在新数据上运行稳定
算法没有经过再训练,在所有验证样本上的结果要么比测试样本上的结果好,要么好得多,我还没有看到更糟的....
Akurasi 平均比 Forrest 好 2-4%,如果 Forrest 是 0.58,那么 RLT 就是 ~0.62。
总之,根据第一次测试,该算法是值得的,但需要很长时间来学习....。
自制。实验的可能性无限....
是啊。讨论自制没有意义。
为什么要在自制上浪费时间?有几十种非自制的算法,数百万用户都在使用.....。
在市场数据上测试了该算法。
与 Forest.... 相比,该算法在新数据上运行稳定。
该算法不会重新训练,在所有验证样本上的结果要么比测试样本上的结果更好,要么好得多,我还没有见过更糟的....。
Akurasi 平均比 Forrest 好 2-4%,因此如果 Forrest 的结果是 0.58,那么 RLT 的结果就是 ~0.62。
总之,根据最初的测试,该算法是值得的,但需要很长时间来学习....。
根据他们的理论,应该有一些 "强 "性状能很好地发挥作用,问题是如何把它们从其他 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。
一般来说,如果只是选择信息量大的性状,桑-桑尼奇用他的秘法早就成为万亿富翁了)。
他们的理论假定,有一些 "强 "性状能很好地发挥作用,唯一的问题是把它们从其余的 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。
一般来说,如果只是选择信息量大的性状,桑-桑尼奇凭借他的秘法早就成为万亿富翁了)。
好吧,这个算法确实有效,而且更稳定,阿库拉西(akurasi)更好,卡帕(kappa)更好......换句话说,它更有效......
而且,无论是经过 1000 次新的观察还是经过 20000 次观察......误差要么相同,要么更好。
符号的强度大致相同
好吧,这里我不能同意。
该算法的重要性
是啊...讨论自制的也没什么意义。
为什么要在自制上浪费时间?有几十种非自制的算法,实际上有数百万用户在使用.....。
,我不讨论软件包,我只讨论想法。
因为我可以做实验,做这些算法中不包括的事情--黑盒子。 ,我不讨论软件包,我建议只讨论想法。