交易中的机器学习:理论、模型、实践和算法交易 - 页 3164

 
Forester #:

如何搜索?浏览所有大块(例如 100 乘以 5000 pp),看看该模型上其他 50 万行的预测成功率如何?

是的,你可以随机抽取样本,而不是连续抽取大块,这样更正确。

 
mytarmailS #:

我笑得热泪盈眶)。

我让 Bard 用俄语写,他写错了,这种事时有发生。俄语不是我的母语,我只在这里使用它的精髓......

他回答了我)。


你明白吗?

他开始耍我了))))

这太残忍了))))

他没有嘲弄你。

你写的是 ruSki - 塞尔维亚语中的 "俄罗斯"。

这就是他用塞尔维亚语给你写信的原因。

 
Dmytryi Nazarchuk #:

他不是在耍你。

你写的是 russki,在塞尔维亚语中是 "俄罗斯人 "的意思。

这就是他用塞尔维亚语给你写信的原因

Ahh))))

 
mytarmailS #:

关于树和树上的强化学习的文章很有意思。

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

我在市场数据上测试了该算法...

与 Forest.... 相比,算法在新数据上运行稳定

算法没有经过再训练,在所有验证样本上的结果要么比测试样本上的结果好,要么好得多,我还没有看到更糟的....

Akurasi 平均比 Forrest 好 2-4%,如果 Forrest 是 0.58,那么 RLT 就是 ~0.62。


总之,根据第一次测试,该算法是值得的,但需要很长时间来学习....。

 
Forester #:
自制。实验的可能性无限....

是啊。讨论自制没有意义。

为什么要在自制上浪费时间?有几十种非自制的算法,数百万用户都在使用.....。

 
mytarmailS #:

在市场数据上测试了该算法。

与 Forest.... 相比,该算法在新数据上运行稳定。

该算法不会重新训练,在所有验证样本上的结果要么比测试样本上的结果更好,要么好得多,我还没有见过更糟的....。

Akurasi 平均比 Forrest 好 2-4%,因此如果 Forrest 的结果是 0.58,那么 RLT 的结果就是 ~0.62。


总之,根据最初的测试,该算法是值得的,但需要很长时间来学习....。

根据他们的理论,应该有一些 "强 "性状能很好地发挥作用,问题是如何把它们从其他 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。

一般来说,如果只是选择信息量大的性状,桑-桑尼奇用他的秘法早就成为万亿富翁了)。

 
Aleksey Nikolayev #:

他们的理论假定,有一些 "强 "性状能很好地发挥作用,唯一的问题是把它们从其余的 "弱 "性状中分离出来。在他们的遗传学领域,情况可能就是这样。但我们的情况显然不同--性状的强度大致相同,往往是相互关联的,而且它们的强度等级会随着时间的推移而改变。

一般来说,如果只是选择信息量大的性状,桑-桑尼奇凭借他的秘法早就成为万亿富翁了)。

好吧,这个算法确实有效,而且更稳定,阿库拉西(akurasi)更好,卡帕(kappa)更好......换句话说,它更有效......

而且,无论是经过 1000 次新的观察还是经过 20000 次观察......误差要么相同,要么更好。

Aleksey Nikolayev#:

符号的强度大致相同

好吧,这里我不能同意。

该算法的重要性


 
СанСаныч Фоменко #:

是啊...讨论自制的也没什么意义。

为什么要在自制上浪费时间?有几十种非自制的算法,实际上有数百万用户在使用.....。


,我不讨论软件包,我只讨论想法。
 
Forester #:
因为我可以做实验,做这些算法中不包括的事情--黑盒子。 ,我不讨论软件包,我建议只讨论想法。
你们中有多少人实现了这里讨论的想法?
有多少人得到了比使用现成库更好的结果?

这个数字大约为零,不是吗?

而且这个库是可复制的代码,每个人都可以运行它,每个人都会得到结果,可复制的结果,真实的结果,以 "是"-"否 "答案+经验和知识补充的形式。

而讨论只是浪费时间,我们讨论、讨论,然后忘记,甚至没有人写过一行代码,就像板凳上的老奶奶一样,时间一去不复返,生命也随之逝去......既没有增加知识,也没有增加经验。

 
感觉知识越来越少,都怪批量思维。