交易中的机器学习:理论、模型、实践和算法交易 - 页 352

 
马克西姆-德米特里耶夫斯基

多么错误,你正在创建一个分类模型。样本越大,概括性越强,模型在一般情况下变得更稳健,在特殊情况下变得更不准确,分别是,利润越小

让我们从效率的角度来说明。如果系统的效率由于复杂性的增加而下降,那么这个系统就没有意义了。利润+亏损的减少表明效率的下降。

随着可持续性的提高,效率也应该提高。效率可以定义为利润/(利润+亏损)比率。你也可以采取每笔交易的效率。

 
尤里-阿索连科

让我们从效率的角度来说明。如果系统的效率由于复杂性的增加而下降,那么这个系统就没有意义了。利润+亏损的减少表明效率的下降。

随着可持续性的提高,效率也应该提高。效率可以定义为利润/(利润+亏损)比率。也可以考虑每个交易的KPI。


不能适用于VS))事实证明,长期效率提高,短期效率下降)。如果你想举个例子......有一个战略和战术......短期学习帮助NS在战术上获胜,而长期--战略,不同的因素可能会影响它......。
 
尤里-阿索连科

让我们从效率的角度来说明。如果系统的效率由于复杂性的增加而下降,那么这个系统就没有意义了。利润+亏损的减少表明效率的下降。

随着可持续性的提高,效率也应该提高。效率可以定义为利润/(利润+亏损)比率。你也可以采取每个交易的KPI。

让我们避免被称为KPI的自行车。

计量经济学使用信息标准。

这里的定义

信息性标准 是计量经济学(统计学)中应用的计量经济学(统计学)模型的相对质量的衡量标准,它考虑到模型与数据的 "拟合 "程度,并通过所使用的估计参数的数量进行修正(惩罚)也就是说,这些标准是基于对模型准确性和复杂性的权衡。

信息性标准完全用于模型之间的比较,而没有对其数值作出有意义的解释。它们不允许在统计假设检验的意义上测试模型。一般来说,标准的数值越低,模型的相对质量就越高


如果我们采取一个假设有模型选择的包,将使用其中一个信息标准。

 
迪米特里


Faa写出了正确的观点,但他的表述并不正确。

你有一个系列和一组预测因子。你把这个系列分成三个部分--训练样本和正向(最简单的情况)。

比如说,你建立了20个模型。

问题是,从列表中选择一个模型不是由训练样本上的最佳者来执行,也不是由前进样本上的最佳者来执行。我们选择在训练样本和正向样本上给出几乎相同质量分数的模型。

我们都是对的。

一个信息标准被用来选择较简单的,但信息标准决不是排除正向测试。

 
桑桑尼茨-弗门科

让我们跳过那些叫做KPI的自行车。

计量经济学使用信息标准。

一个绝对不会干扰或取代另一个。在经济学中,有与KPI绝对对应的效率标准。没有必要发明任何东西。

在这种情况下,我们评估的是结果,而不是过程。我们不再关心过程标准。该系统是一个黑盒子。这就是为什么我们要比较这些盒子的特点。

还有一些评估标准--每1卢布的投资效益,交易的平均效率等。整个业务都在这样的标准下运行。我们最终在做什么?

 
马克西姆-德米特里耶夫斯基
很好。你已经提高了系统的稳定性--你已经消除了缩减。即使总利润甚至没有下降,也一直保持不变。问题是:让你走出这些坑的交易发生了什么?如果你没有删除它们,只有它们会增加系统的利润。
 
尤里-阿索连科
很好。你通过消除缩减来增加系统的稳定性。即使总利润甚至没有下降,而是保持不变。问题是:让你走出这些坑的交易发生了什么?如果你没有删除它们,只有它们会增加系统的利润。

如果你在不同的时间段训练神经元,你将得到不同的结果,没有什么可以比较的。 信号将是不同的,模型将被训练得不同,你没有办法影响这一点。我没有删除任何东西)
 
马克西姆-德米特里耶夫斯基

如果你在不同的时间间隔训练神经元,那么你将得到不同的结果,甚至没有什么可以比较的......信号将是不同的,模型将被训练得不同,你根本无法影响它。我没有删除任何东西)

移除优化器是可以理解的。但结果的可重复性是任何实验的要求。也就是说,如果我们在不同的部分进行训练时,在测试中出现不同的结果,这就是一个值得思考的理由。

想象一下,我们教相同的NS使用相同的ToR来识别语音,然后决定它们甚至不能被比较,因为它们的训练方式不同。

 
尤里-阿索连科

移除优化器是可以理解的。但结果的可重复性是任何实验的要求。也就是说,如果我们在不同的部分进行训练时,在测试中出现不同的结果,这就是一个值得思考的理由。

想象一下,我们教相同的NS使用相同的ToR来识别语音,然后决定它们甚至不能被比较,因为它们的训练方式不同。


嗯,有点是的,但在目前的模型中,这是不可能的,它不是那么复杂,它将以同样的方式近似于一个小的数据集和一个巨大的
 
马克西姆-德米特里耶夫斯基

嗯,有点,是的,但在目前的模型中,这是不可能的,它不是那么复杂,以至于会以同样的方式近似于一个小的数据集和一个巨大的数据。

一般来说,如果我们谈论分钟,市场在统计学上是同质的,即统计数据在一周到一周,一个月到一个月之间变化不大(稳定)。我不知道,我还没有研究过这个问题。在我印象中,你的工作是1分钟。

原则上,如果简单系统是收敛的,那么它的收敛速度应该更快。也就是说,他们有一个高的最大值。顺便说一下,我们自己用 "错误的 "预测器产生这些高点。