交易中的机器学习:理论、模型、实践和算法交易 - 页 1801

 
Aleksey Vyazmikin:

一定有什么算法,因为事实证明,对于15000个元素的3种组合,我们需要在内存中保留4兆字节的数组!这就是为什么我们需要在内存中保留4兆字节。甚至更多,我计算过,如果我们每个元素花8比特。

那么我们就有一个选择,我们不把这个数组存储在内存中,而是在每次调用时从开始到所需的行(列)进行重新计算。与其说是巨大的内存消耗,不如说是巨大的时间消耗。这对组合问题来说是很标准的。

 
mytarmailS:

看了看...

当前的余额文件不包含价格,你之前发给我的价格与当前余额的大小不匹配。


附录中的平衡和OHLCV都在一个文件中--也许这样更方便。

我曾检查过指标中是否有错误,结果是这样的--我还是要单独处理指标。

附加的文件:
Balans_OHLCV.zip  6871 kb
 
Aleksey Nikolayev:

这使得我们可以选择不将数组存储在内存中,而是实际从开始到我们想要的行(列)进行重新计算。与其说是巨大的内存消耗,不如说是巨大的时间消耗。这是组合问题的一个相当标准的情况。

如果有一个序列,一定有一个公式或其他快速解决方案,而不是通过所有的点。矫枉过正的做法同样是低效的应用。

事实上,这是一个已知点的函数...

我认为,你可以定义区域,并在其边界上建立一个表格。假设每10000个元素都有一个模式,那么就从这一点开始计算。很奇怪,这样的问题还没有得到解决。
 
Aleksey Vyazmikin:

我认为可以定义区域,然后根据其边界建立一个表格。假设每10000个元素都有一个模式,那么就从这一点开始计算。

嗯,是的,你可以不存储整个数组,而是存储一个高度稀释的版本,并从最近的一行开始计数。

但是你要怎么处理这么多的组合呢?

 
Aleksey Nikolayev:

嗯,是的,你可以存储一个数组的高度稀释版本,而不是整个数组,并从最近的一行开始读到正确的地方。

但是你要怎么处理这么多的组合呢?

每个组合都将被检查出历史,并作出裁决--垃圾或保留。

理想情况下,我认为,将选择约1千片叶子 - 树桩,应检查彼此之间的相似性,留下独特的,我认为在附近的10K将被留下。并从这些残羹剩饭中聚集群体进行交易(这个方法我已经实施了)。

结果是,如果我收集的有效树叶比我从一棵树(许多树)上得到的更多,那么这种方法就有生命权,但如果没有,那么贪婪的方法就更有效。

 

你能推荐一个Python和机器学习的论坛,在那里你可以问一般的书呆子问题?

 
Vladimir Karputov:

你能推荐一个Python和机器学习的论坛,在那里你可以问一般的书呆子问题?

www.cyberforum.ru

我没有注册,但我经常用谷歌搜索。 问题显示这是一个学生论坛,该论坛很活跃--每天都有新的主题

假装是一个学生,你会看起来像一个自己人 :)

 
Aleksey Vyazmikin:

每个组合都将被检查出历史,并作出裁决--垃圾或保留。

理想情况下,我认为,大约1千片叶子--树桩,应该检查它们之间的相似性,留下独特的,我认为大约10千片会留下。并从这些残羹剩饭中聚集群体进行交易(这个方法我已经实施了)。

结果,如果我收集的有效树叶比我从树上(很多树)得到的更多,那么这个方法就有生命权,如果没有,那么贪婪的方法就更有效。

完全的矫枉过正是一条不归路。请看rBayesianOptimization软件包。对于你的问题可能有帮助。

至于组合,见软件包pracma::combs(), randcombs(), perms(), randperm()/。

祝好运

 
Vladimir Perervenko:

完全的矫枉过正是一条不归路。见rBayesianOptimization包。它可能对你的问题有帮助。

关于组合,见软件包pracma::combs(), randcombs(), perms(), randperm()/。

祝好运

为什么通向无名之地的道路?对我来说,这是在寻找一个基准,用来评估更快的模型构建方法。

谢谢你的建议,使用R的包,但我不擅长,完全不懂。

你是否也认为不可能从一个没有循环的集合中得到一个集合的值?

 
Aleksey Vyazmikin:

为什么要走这条不归路?对我来说,这是在寻找一个基准,用来评估更快的模型构建方法。

谢谢你的建议,使用R的包,但我不擅长,一点也不擅长。

你是否也认为不可能 从一个没有循环的集合中得到一个组合的价值?

如果你能表示一个数字系统,那么你可以得到01101101位的组合

你可以很容易地从109得到01101101位的组合,而不需要尝试所有的变体。

原因: