交易中的机器学习:理论、模型、实践和算法交易 - 页 2809

[删除]  
Valeriy Yastremskiy #:

难道程序库不考虑数据类型吗?数据类型就像用于最廉价计算的数据。应为计算设计相同的矩阵。

我还没有找到与 numpy 类似的 R 语言,而且 R 语言的矩阵速度并不快,R 语言本身的范式也会消耗大量内存。

当然,第三方库也可能很慢,谁会去检查它呢?

我不知道用什么来比较,所以不想加载一个千兆字节的数据集来比较速度。
 
Алексей Тарабанов #:

不可能

用强化训练?
[删除]  
mytarmailS #:
强化学习呢?

topkstarter 在 hubr 上用 R 写了一篇关于 DQN 的论文。

要知道,强化学习只是一种棘手的优化方法。

它可能在某些情况下有效,也可能无效。

 
Maxim Dmitrievsky #:

我找不到用于 R 的 numpy 类似程序。

..
如果需要速度,那就用数据表;如果需要数据帧的快速类比,那就用 tibble;如果需要大量数据,那就用大矩阵。

[删除]  
mytarmailS #:
..
如果需要速度,那就用数据表;如果需要快速模拟数据帧,那就用 tibble;如果需要大量数据,那就用大矩阵。

我想减轻阿列克谢的痛苦)当然,从一开始就比较简单......但仍然如此。

 
Maxim Dmitrievsky #:

topikstarter 在 R 的枢纽上撰写了一篇关于 DQN 的文章

我们应该明白,强化学习只是一种设计巧妙的优化方法

它可能在某些情况下有效,也可能无效。

就记忆问题而言...
在 RL 中,你可以永远更新动作矩阵和状态或动作评估矩阵,这就像不断更新的内存。但我不知道我说的对不对。
[删除]  
mytarmailS #:
那么,就内存问题而言。
在 RL 中,你可以永远更新行动矩阵矩阵和状态评估矩阵或行动评估矩阵,这就像是一个不断更新的存储器....。但我不知道我说的对不对。

它可以根据新数据调整状态,但这都是在水平上进行的,或者像马什卡那样,即有滞后性。

更重要的是,基本上要选择一个奖励、一个目标。它会将交易投向不同的方向,每次迭代都会越来越好。

 
Maxim Dmitrievsky #:

我想减轻阿列克谢的痛苦 ) 当然,从一开始就比较简单......但仍然如此

如果阿列克谢想思考和倾听,用我的 script.... 只需 2 分钟。
[删除]  
Maxim Dmitrievsky #:

它可以根据新数据调整状态,但都是水平的或类似 Mashka 的,即滞后的

从本质上讲,选择奖励(即目标)更为重要。交易会被自己抛向不同的方向,每次迭代都会变得越来越好

记忆是一个经过权重训练的 NS,你在每一步都要训练它,你要稍微移动权重......不多,这就是为什么会有滞后。

你无法将其转移到终端上

 
Maxim Dmitrievsky #:

内存是一个经过权重训练的 NS,每一步都要重新训练,稍微移动权重......不多,所以滞后......。

.
训练有素的网络或任何训练有素的 AMO 甚至 Mashka 都是记忆。 是的,你可以接受这个类比....。

但是,当你 "重新训练 "一个训练有素的神经网络时,你改变了权重,忘记了过去,只顾现在....。

这不是重新训练,而是每一步都在重新训练,就像滑动窗口中的玛什卡,她不记得滑动窗口外的东西,即使她曾经在那里....。