交易中的机器学习:理论、模型、实践和算法交易 - 页 1977

 

遗憾的是,增加TF会使结果恶化,Rangy是更好的。

增加了MA和瘦身的内容。在没有MA的情况下,瘦身的作用是改变TF,使分布正常。RMS = 稀释步骤的根。如果MA比thinning大2倍,那么我们就有了kosher downsampling,预测工作的准确性很高,但我们需要一个测试者来计算正确的预期回报。之字形已经准备好了,但我不知道它应该采取什么形式:带有最小值和最大值的索引数组,还是一个索引数组,或者是一次性的价格数组。

我可以得到任何其他的过滤器,而不是MA,但我只需要知道脉冲特性。在代码中,MA是以[1/per]*per的形式进行的,对于per=4,将扩展为[0.25, 0.25, 0.25, 0.25]。

 
Rorschach:

森林:55.89%的正确答案,2.36的期望值

森林累积增量。55.89%的正确答案,2.36的期望值,相同的结果

不过,还是有区别的,增量更好。

zigzag的问题,不清楚如何限制最小的变化,总是微动开关。


 

更像是胡说八道,但我还是要问。


NS能预测这样的系列吗?


比如说下一个人物出现的概率。 还有就是A系列对B系列是否有依赖性。

 
Evgeniy Chumakov:

更像是胡说八道,但我还是要问。


NS能预测这样的系列吗?


比如下一个角色出现的概率。 还有,A系列和B系列之间是否有关联性?

这是他们的直接任务。

 

在切换到TensorFlow 2.3后,出现了一个错误

"WARNING:tensorflow:在过去的11次调用中,有11次触发了tf.函数回溯。追踪是昂贵的,过多的追踪可能是由于在一个循环中重复创建@tf.function"

也就是说,一些tf.function发誓说它是在一个循环中。我没有任何tf.function,但在循环中,它对模型prediction=model.predict(data)进行投票。
tf.函数的描述在这里
这显然是一些未知的实体,有人了解它是什么吗?

UPD
总之,这是某种很酷的东西,没有它不行,需要研究一下。它解决了TensorFlow与Python的兼容性问题

 

我想我完成了代理交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。

现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但可能很难搞清楚)。
 
Maxim Dmitrievsky:

我想我已经完成了交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。

现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但要想弄清楚可能会让你的大脑崩溃)。

这个逻辑更复杂。一方面,这很好。另一方面,在不熟悉的地区有虫子。变压器是什么?

 
Valeriy Yastremskiy:

逻辑更加支离破碎。一方面,这是一件好事。另一方面,在不熟悉的领域有虫子。变压器是什么?

一种用于处理时间序列的新型网络,据说比lstm更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。

自我注意的转化器。机制--人类注意力的类似物。

 
Maxim Dmitrievsky:

一种新型的时间序列网络,据说比LSTM更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。

自我注意的转化器。机制--人类注意力的类似物。

如此重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。我的大脑无法一下子应付它)。但它应该工作得更好。

 
Valeriy Yastremskiy:

那么这样重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。大脑肯定达不到))))。但它应该工作得更好。

它确实更好用,但你永远不知道它要去哪里。

一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN