交易中的机器学习:理论、模型、实践和算法交易 - 页 1547

 
马克西姆-德米特里耶夫斯基

我不知道,它总是不同的。

嗯,所以也许要想个办法来找出来?

顺便说一下,我可以用你的数据在R中建立一个模型--如果你对方法的效率比较感兴趣的话。
[删除]  
阿列克谢-维亚兹米 金。

嗯,那我们能不能想个办法找出来呢?

顺便说一下,我可以通过你的数据在R模型中建立--如果你对方法的效率比较感兴趣的话。

在那里已经没有更好的办法了,模型是完美的,证实了Kotir的随机性。

进一步的改进只能通过对随机过程的不同工作方法来实现,正如我上面写的那样

 
马克西姆-德米特里耶夫斯基

没有更好的办法了,这个模型是完美的,证实了Kotir的随机性。

进一步的改进只能通过对随机过程的不同工作方法来实现,正如我在上面写的那样

在我看来,随机过程的随机解决方案在其意识形态中似乎过于冒险的方法......

 
马克西姆-德米特里耶夫斯基

我将回到我想做的事情上,已经有很长一段时间了--MO + stoh

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

这个话题很有意思--特别是默顿跳跃模型或它的一些变体。 似乎与传统的扩散不同,它没有被(通过时间抽样)还原为自回归,或者是以某种非微妙的方式完成的。也许在投资组合的滑动窗口中的计算将是相当难以负担的。

 

随机森林是一个适合的故事,没有调整的可能性。一年前,我从SL中榨取了所有的选项。

线性回归 有更好的机会产生利润。训练时,你需要喂养相对价格,而不是真实价格。

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

[删除]  
罗费尔德

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

你喜欢哪种网格配置?

 

构造函数很酷!

例如,许多人无意识地使用 "激活函数",即使不需要。"激活函数"=将数据转换为一定范围的值,并部分或完全丧失信息--这就像文件的哈希函数。

如果输入的是已经规范化的数据,那么层与层之间的 "激活函数 "就他妈的没有必要了。在Alglib中,你无法摆脱 "激活函数"。

我有一整套Jenkins+MLFlow形式的变更控制系统,用于枚举变体和存储结果。

现在的配置是这样的。

Sequential(
  (input): Linear(in_features=2836, out_features=1000, bias=True)
  (hidden1): Linear(in_features=1000, out_features=100, bias=True)
  (hidden2): Linear(in_features=100, out_features=2, bias=True)
  (output_activ): Softmax()
)

当然,我没有立即理解如何以牺牲数据延迟为代价来训练显卡上的网络。现在我的代码经过优化,通过减少上传到显卡的数据量,学习速度比原来的版本快100倍。

[删除]  
罗费尔德

构造函数很酷!

例如,许多人无意识地使用 "激活函数",即使不需要。"激活函数"=将数据转换为一定范围的值,并部分或完全丧失信息--这就像文件的哈希函数。

如果输入的是已经规范化的数据,那么层与层之间的 "激活函数 "就他妈的没有必要了。在Alglib中,你无法摆脱 "激活函数"。

我有一整套Jenkins+MLFlow形式的变更控制系统,用于枚举变体和存储结果。

现在的配置是这样的。

当然,我没有立即理解如何以牺牲数据延迟为代价来训练显卡上的网络。现在我的代码被优化了,通过减少上传至显卡的数据量,学习速度比原来的版本快100倍。

递归层呢?lstm或gru

 
罗费尔德

构造器很酷!

例如,许多人无意识地使用 "激活函数",即使不需要。"激活函数"=将数据转换为一定范围的值,并部分或完全丧失信息--这就像文件的哈希函数。

如果输入的是已经规范化的数据,那么层与层之间的 "激活函数 "就他妈的没有必要了。你无法摆脱Alglib中的 "激活函数"。

我有一整套Jenkins+MLFlow形式的变更控制系统,用于枚举变体和存储结果。

现在的配置是这样的。

当然,我没有立即理解如何以牺牲数据延迟为代价来训练显卡上的网络。现在我的代码经过优化,通过减少上传到显卡的数据量,学习速度比原来的版本快100倍。

速度很酷,但是次要的。
你的NS是否成功地预测到了未来?如果是这样的话,看到信号或者至少是测试仪的结果,是很有意思的。
 
马克西姆-德米特里耶夫斯基

复发层呢?lstm或gru

我可能会补充,但现在我想充分测试我的变体。我只需要在代码中增加1行来改变网络结构。 我们不是在翻译文字,而是在识别一个历史事件。

https://pytorch.org/docs/stable/nn.html - 选择任何你喜欢的图层,并将其添加到一条线上。

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...