交易中的机器学习:理论、模型、实践和算法交易 - 页 1993

 
Maxim Dmitrievsky:

?

可能喝醉了...正面绝对--相对多于1,反面绝对--相对少于1。对数使绝对差异变成相对差异。而且现在的学校里也不给单元圈。我的妻子有时会在这个主题上工作....我知道把理智带入无人知晓的地方是多么困难.....。

 
Valeriy Yastremskiy:

醉酒显然...正面绝对--相对多于1,反面绝对--相对少于1。绝对差异的对数导致了相对差异。而且现在的学校里也不给单元圈。我的妻子有时会研究这个主题....这就是我所知道的,要把道理传达给未接触到的人是多么困难.....。

你小题大做了......我给那个人写了一封简单的信......没有方格之类的东西。

不要写得太多。

 
Maxim Dmitrievsky:

你小题大做了......我只是用平实的语言写给那个人),没有方块或类似的东西。

不要多写一个字。

很难理解你不直接认识的人。有时,几个字母不足以理解亲属想说什么,而与编码员一起就更难了。嗯...我要去...对不起...如果有什么.....

 
Valeriy Yastremskiy:

半信半疑地理解陌生人是很难的。有时,几个字母还不足以理解亲属想说什么,而对于一个编码员来说,这就更难了。嗯...我要去...对不起...如果有什么.....

我写道,很难想象一个模型至少会显示出逆向依赖性,即反向学习,在一个托盘上
 
Maxim Dmitrievsky:
我写道,很难想象一个模型至少会显示对痕迹的反向依赖,即反向学习

如果它是对过去数据的不可改变的依赖,那么这里有什么复杂的?

 
Valeriy Yastremskiy:

如果它是对过去数据的恒定依赖,那有什么好复杂的。

来源和预测系列的相关性
 
Maxim Dmitrievsky:
原始和预测系列的相关性

然后,该模型反过来工作。我明白问题是关于增量的。倒置的模型,或乘以减一的无模数。当然,在NS层中可能没有这么直接。

 
Valeriy Yastremskiy:

然后,该模型反向工作。我明白问题是关于增量的。一个倒置的模型,或乘以减一而不考虑模块。当然,在NS层中,它可能不是那么明确的。

简单地说,这个指标可以返回负值,是的。但在实践中,这几乎从未发生。那么你可以把它作为一个相对值,有什么问题。我们在这里不是伟大的数学家
 
Maxim Dmitrievsky:
只是这个指标可以返回负值,是的。但这在实践中几乎从未发生过。那么我们可以把这个值作为一个相对值,有什么问题呢。我们在这里不是伟大的数学家。

原始数据和预测数据之间的负相关是错误的模型。 当然,这是一种罕见的情况。而两者之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。

 
Valeriy Yastremskiy:

基线和预测数据之间的负相关是错误的模型。 当然,这是一个罕见的情况。它们之间的相关性当然不是绝对的,甚至不是相对的,它取决于那里的层,什么顺序的差异,什么顺序的加速类型。

那里没有任何层次,它是一种树的提升。