交易中的机器学习:理论、模型、实践和算法交易 - 页 1977 1...197019711972197319741975197619771978197919801981198219831984...3399 新评论 Rorschach 2020.08.18 17:23 #19761 遗憾的是,增加TF会使结果恶化,Rangy是更好的。 增加了MA和瘦身的内容。在没有MA的情况下,瘦身的作用是改变TF,使分布正常。RMS = 稀释步骤的根。如果MA比thinning大2倍,那么我们就有了kosher downsampling,预测工作的准确性很高,但我们需要一个测试者来计算正确的预期回报。之字形已经准备好了,但我不知道它应该采取什么形式:带有最小值和最大值的索引数组,还是一个索引数组,或者是一次性的价格数组。 我可以得到任何其他的过滤器,而不是MA,但我只需要知道脉冲特性。在代码中,MA是以[1/per]*per的形式进行的,对于per=4,将扩展为[0.25, 0.25, 0.25, 0.25]。 Rorschach 2020.08.21 18:27 #19762 Rorschach: 森林:55.89%的正确答案,2.36的期望值森林累积增量。55.89%的正确答案,2.36的期望值,相同的结果 不过,还是有区别的,增量更好。 zigzag的问题,不清楚如何限制最小的变化,总是微动开关。 Evgeniy Chumakov 2020.08.21 18:39 #19763 更像是胡说八道,但我还是要问。 NS能预测这样的系列吗? 比如说下一个人物出现的概率。 还有就是A系列对B系列是否有依赖性。 Maxim Dmitrievsky 2020.08.21 18:43 #19764 Evgeniy Chumakov: 更像是胡说八道,但我还是要问。NS能预测这样的系列吗?比如下一个角色出现的概率。 还有,A系列和B系列之间是否有关联性? 这是他们的直接任务。 Evgeny Dyuka 2020.08.22 12:13 #19765 在切换到TensorFlow 2.3后,出现了一个错误"WARNING:tensorflow:在过去的11次调用中,有11次触发了tf.函数回溯。追踪是昂贵的,过多的追踪可能是由于在一个循环中重复创建@tf.function" 。 也就是说,一些tf.function发誓说它是在一个循环中。我没有任何tf.function,但在循环中,它对模型prediction=model.predict(data)进行投票。 tf.函数的描述在这里 这显然是一些未知的实体,有人了解它是什么吗?UPD 总之,这是某种很酷的东西,没有它不行,需要研究一下。它解决了TensorFlow与Python的兼容性问题。 Maxim Dmitrievsky 2020.08.24 10:35 #19766 我想我完成了代理交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。 现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但可能很难搞清楚)。 Valeriy Yastremskiy 2020.08.24 10:44 #19767 Maxim Dmitrievsky: 我想我已经完成了交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。 现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但要想弄清楚可能会让你的大脑崩溃)。 这个逻辑更复杂。一方面,这很好。另一方面,在不熟悉的地区有虫子。变压器是什么? Maxim Dmitrievsky 2020.08.24 10:47 #19768 Valeriy Yastremskiy: 逻辑更加支离破碎。一方面,这是一件好事。另一方面,在不熟悉的领域有虫子。变压器是什么? 一种用于处理时间序列的新型网络,据说比lstm更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。 自我注意的转化器。机制--人类注意力的类似物。 Valeriy Yastremskiy 2020.08.24 10:54 #19769 Maxim Dmitrievsky: 一种新型的时间序列网络,据说比LSTM更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。自我注意的转化器。机制--人类注意力的类似物。 如此重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。我的大脑无法一下子应付它)。但它应该工作得更好。 Maxim Dmitrievsky 2020.08.24 10:56 #19770 Valeriy Yastremskiy: 那么这样重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。大脑肯定达不到))))。但它应该工作得更好。它确实更好用,但你永远不知道它要去哪里。 一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN 1...197019711972197319741975197619771978197919801981198219831984...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
遗憾的是,增加TF会使结果恶化,Rangy是更好的。
增加了MA和瘦身的内容。在没有MA的情况下,瘦身的作用是改变TF,使分布正常。RMS = 稀释步骤的根。如果MA比thinning大2倍,那么我们就有了kosher downsampling,预测工作的准确性很高,但我们需要一个测试者来计算正确的预期回报。之字形已经准备好了,但我不知道它应该采取什么形式:带有最小值和最大值的索引数组,还是一个索引数组,或者是一次性的价格数组。
我可以得到任何其他的过滤器,而不是MA,但我只需要知道脉冲特性。在代码中,MA是以[1/per]*per的形式进行的,对于per=4,将扩展为[0.25, 0.25, 0.25, 0.25]。
森林:55.89%的正确答案,2.36的期望值
森林累积增量。55.89%的正确答案,2.36的期望值,相同的结果
不过,还是有区别的,增量更好。
zigzag的问题,不清楚如何限制最小的变化,总是微动开关。
更像是胡说八道,但我还是要问。
NS能预测这样的系列吗?
比如说下一个人物出现的概率。 还有就是A系列对B系列是否有依赖性。
更像是胡说八道,但我还是要问。
NS能预测这样的系列吗?
比如下一个角色出现的概率。 还有,A系列和B系列之间是否有关联性?
这是他们的直接任务。
在切换到TensorFlow 2.3后,出现了一个错误
"WARNING:tensorflow:在过去的11次调用中,有11次触发了tf.函数回溯。追踪是昂贵的,过多的追踪可能是由于在一个循环中重复创建@tf.function" 。也就是说,一些tf.function发誓说它是在一个循环中。我没有任何tf.function,但在循环中,它对模型prediction=model.predict(data)进行投票。
tf.函数的描述在这里
这显然是一些未知的实体,有人了解它是什么吗?
UPD
总之,这是某种很酷的东西,没有它不行,需要研究一下。它解决了TensorFlow与Python的兼容性问题。
我想我完成了代理交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。
现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但可能很难搞清楚)。我想我已经完成了交易员的工作。我已经监测了alpha测试的演示。该逻辑是非琐碎的,所以可能有bug。让我们来测试一下。
现在我有兴趣尝试LSTM的不同变体,也许还有变压器(但要想弄清楚可能会让你的大脑崩溃)。这个逻辑更复杂。一方面,这很好。另一方面,在不熟悉的地区有虫子。变压器是什么?
逻辑更加支离破碎。一方面,这是一件好事。另一方面,在不熟悉的领域有虫子。变压器是什么?
一种用于处理时间序列的新型网络,据说比lstm更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。
自我注意的转化器。机制--人类注意力的类似物。
一种新型的时间序列网络,据说比LSTM更好。在文本识别、机器翻译等方面,它们被用来强调句子的背景。也就是说,当一个词通过某种语境与其他词(以前的)相关时。
自我注意的转化器。机制--人类注意力的类似物。
如此重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。我的大脑无法一下子应付它)。但它应该工作得更好。
那么这样重大的并发症。首先,记忆是长的和短的,然后是模型中的注意力的影子。大脑肯定达不到))))。但它应该工作得更好。
它确实更好用,但你永远不知道它要去哪里。
一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN