交易中的机器学习:理论、模型、实践和算法交易 - 页 1993 1...198619871988198919901991199219931994199519961997199819992000...3399 新评论 Valeriy Yastremskiy 2020.09.05 00:45 #19921 Maxim Dmitrievsky: ? 可能喝醉了...正面绝对--相对多于1,反面绝对--相对少于1。对数使绝对差异变成相对差异。而且现在的学校里也不给单元圈。我的妻子有时会在这个主题上工作....我知道把理智带入无人知晓的地方是多么困难.....。 Maxim Dmitrievsky 2020.09.05 00:50 #19922 Valeriy Yastremskiy: 醉酒显然...正面绝对--相对多于1,反面绝对--相对少于1。绝对差异的对数导致了相对差异。而且现在的学校里也不给单元圈。我的妻子有时会研究这个主题....这就是我所知道的,要把道理传达给未接触到的人是多么困难.....。 你小题大做了......我给那个人写了一封简单的信......没有方格之类的东西。 不要写得太多。 Valeriy Yastremskiy 2020.09.05 00:55 #19923 Maxim Dmitrievsky: 你小题大做了......我只是用平实的语言写给那个人),没有方块或类似的东西。不要多写一个字。 很难理解你不直接认识的人。有时,几个字母不足以理解亲属想说什么,而与编码员一起就更难了。嗯...我要去...对不起...如果有什么..... Maxim Dmitrievsky 2020.09.05 01:07 #19924 Valeriy Yastremskiy: 半信半疑地理解陌生人是很难的。有时,几个字母还不足以理解亲属想说什么,而对于一个编码员来说,这就更难了。嗯...我要去...对不起...如果有什么..... 我写道,很难想象一个模型至少会显示出逆向依赖性,即反向学习,在一个托盘上 Valeriy Yastremskiy 2020.09.05 01:18 #19925 Maxim Dmitrievsky: 我写道,很难想象一个模型至少会显示对痕迹的反向依赖,即反向学习 如果它是对过去数据的不可改变的依赖,那么这里有什么复杂的? Maxim Dmitrievsky 2020.09.05 01:26 #19926 Valeriy Yastremskiy: 如果它是对过去数据的恒定依赖,那有什么好复杂的。 来源和预测系列的相关性 Valeriy Yastremskiy 2020.09.05 01:35 #19927 Maxim Dmitrievsky: 原始和预测系列的相关性 然后,该模型反过来工作。我明白问题是关于增量的。倒置的模型,或乘以减一的无模数。当然,在NS层中可能没有这么直接。 Maxim Dmitrievsky 2020.09.05 01:42 #19928 Valeriy Yastremskiy: 然后,该模型反向工作。我明白问题是关于增量的。一个倒置的模型,或乘以减一而不考虑模块。当然,在NS层中,它可能不是那么明确的。 简单地说,这个指标可以返回负值,是的。但在实践中,这几乎从未发生。那么你可以把它作为一个相对值,有什么问题。我们在这里不是伟大的数学家 Valeriy Yastremskiy 2020.09.05 01:51 #19929 Maxim Dmitrievsky: 只是这个指标可以返回负值,是的。但这在实践中几乎从未发生过。那么我们可以把这个值作为一个相对值,有什么问题呢。我们在这里不是伟大的数学家。 原始数据和预测数据之间的负相关是错误的模型。 当然,这是一种罕见的情况。而两者之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。 Maxim Dmitrievsky 2020.09.05 01:55 #19930 Valeriy Yastremskiy: 基线和预测数据之间的负相关是错误的模型。 当然,这是一个罕见的情况。它们之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。 那里没有任何层次,它是一种树的提升。 1...198619871988198919901991199219931994199519961997199819992000...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
?
可能喝醉了...正面绝对--相对多于1,反面绝对--相对少于1。对数使绝对差异变成相对差异。而且现在的学校里也不给单元圈。我的妻子有时会在这个主题上工作....我知道把理智带入无人知晓的地方是多么困难.....。
醉酒显然...正面绝对--相对多于1,反面绝对--相对少于1。绝对差异的对数导致了相对差异。而且现在的学校里也不给单元圈。我的妻子有时会研究这个主题....这就是我所知道的,要把道理传达给未接触到的人是多么困难.....。
你小题大做了......我给那个人写了一封简单的信......没有方格之类的东西。
不要写得太多。
你小题大做了......我只是用平实的语言写给那个人),没有方块或类似的东西。
不要多写一个字。
很难理解你不直接认识的人。有时,几个字母不足以理解亲属想说什么,而与编码员一起就更难了。嗯...我要去...对不起...如果有什么.....
半信半疑地理解陌生人是很难的。有时,几个字母还不足以理解亲属想说什么,而对于一个编码员来说,这就更难了。嗯...我要去...对不起...如果有什么.....
我写道,很难想象一个模型至少会显示对痕迹的反向依赖,即反向学习
如果它是对过去数据的不可改变的依赖,那么这里有什么复杂的?
如果它是对过去数据的恒定依赖,那有什么好复杂的。
原始和预测系列的相关性
然后,该模型反过来工作。我明白问题是关于增量的。倒置的模型,或乘以减一的无模数。当然,在NS层中可能没有这么直接。
然后,该模型反向工作。我明白问题是关于增量的。一个倒置的模型,或乘以减一而不考虑模块。当然,在NS层中,它可能不是那么明确的。
只是这个指标可以返回负值,是的。但这在实践中几乎从未发生过。那么我们可以把这个值作为一个相对值,有什么问题呢。我们在这里不是伟大的数学家。
原始数据和预测数据之间的负相关是错误的模型。 当然,这是一种罕见的情况。而两者之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。
基线和预测数据之间的负相关是错误的模型。 当然,这是一个罕见的情况。它们之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。