交易中的机器学习:理论、模型、实践和算法交易 - 页 1978 1...197119721973197419751976197719781979198019811982198319841985...3399 新评论 Valeriy Yastremskiy 2020.08.24 11:06 #19771 Maxim Dmitrievsky: 它确实更好用,但如果RL也被拧进去,那就太难了)。 一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN 它们适合于固定的)简单的逻辑只适合于简单的工作。对于真正的等级,需要一个复杂的算法)。 Valeriy Yastremskiy 2020.08.24 11:09 #19772 Valeriy Yastremskiy: 对于固定的,他们是好的)简单的逻辑只为简单的工作。对于真正的系列,需要一个复杂的大脑)。 任何非稳态序列都可以表示为任意长度的稳态序列之和。但任意长度在预测问题上是一个大问题。 [删除] 2020.08.24 11:37 #19773 Valeriy Yastremskiy: 任何非稳态序列都可以表示为任意长度的稳态序列之和。任意长度是预测问题中的一个大问题。 这是一个很大的误解。 Maxim Dmitrievsky 2020.08.24 11:42 #19774 Valeriy Yastremskiy: 对于固定的,他们是好的)简单的逻辑只为简单的工作。对于现实世界的系列,你需要一个复杂的大脑) 取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。 粗略地说,规律性在嘈杂的系列上消失了(明显的循环),但无标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。 因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。 以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。 例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你得出了错误的结论。 Valeriy Yastremskiy 2020.08.24 12:40 #19775 Maxim Dmitrievsky: 取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。粗略地说,在嘈杂的行中,规则性消失了(明显的周期),但非标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你会得出错误的结论。 信号/噪声当然是决定性的。在强噪声的情况下,弱的规律性将被丢失,你只是看不到它们。但在价格序列的情况下,噪音不是从外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的规律性,其余的是噪音。 Valeriy Yastremskiy 2020.08.24 12:43 #19776 Oleg avtomat: 这是一个很大的误解。 当然不是为任何完全意义上的任何。这里不包括白噪声,但我们也不考虑它。最初,一个系列是由不同的规律性组成的,它们有不同的振幅和长度,所以我们有一个系列,其中有噪音和规律性。 Maxim Dmitrievsky 2020.08.24 12:44 #19777 Valeriy Yastremskiy: 信号/噪声当然是决定性因素。如果有大量的噪音,微弱的规律性就会丢失,它们根本无法被看到。但在价格序列的情况下,噪音不是由外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的模式,其余的是噪音。 如果噪声多于信号,总是过量或不足(当使用验证采样时)。因为不存在稳定的模式。 而当有大量的噪音和很少的模式时,就可以尝试分离出信号。 真的很难理解为什么一连串的噪音图案包含一个信号,而一个图案却没有。我们可以简单地增加特征的数量(历史被反馈)。但是,不,它不是那样工作的。噪声对噪声产生噪声。它需要更微妙的上下文提取,由于某些原因,它在那里工作。一句话,魔术。 Valeriy Yastremskiy 2020.08.24 12:51 #19778 Maxim Dmitrievsky: 那么,当噪声大于信号时,总是过拟合或欠拟合(当使用验证采样时)。因为不存在稳定的模式。 但当有大量的噪音和少量的模式时,你就会尝试隔离信号 好吧,这就是所有概率论主题中所有搜索的重点,分离出一个模式并在它消失的时候抓住时机。而且通常问题较少,隔离成本较高)。 Valeriy Yastremskiy 2020.08.25 10:15 #19779 Maxim Dmitrievsky: :з kind gentle polite)))) Maxim Dmitrievsky 2020.08.25 10:24 #19780 Valeriy Yastremskiy: 仁者见仁智者见智)))) 我正在做一个完整的日志,它会告诉你他在做什么。 这样我们就能找出要改进的地方 1...197119721973197419751976197719781979198019811982198319841985...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
它确实更好用,但如果RL也被拧进去,那就太难了)。
一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN它们适合于固定的)简单的逻辑只适合于简单的工作。对于真正的等级,需要一个复杂的算法)。
对于固定的,他们是好的)简单的逻辑只为简单的工作。对于真正的系列,需要一个复杂的大脑)。
任何非稳态序列都可以表示为任意长度的稳态序列之和。但任意长度在预测问题上是一个大问题。
任何非稳态序列都可以表示为任意长度的稳态序列之和。任意长度是预测问题中的一个大问题。
这是一个很大的误解。
对于固定的,他们是好的)简单的逻辑只为简单的工作。对于现实世界的系列,你需要一个复杂的大脑)
取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。
粗略地说,规律性在嘈杂的系列上消失了(明显的循环),但无标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。
因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。
以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。
例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你得出了错误的结论。
取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。
粗略地说,在嘈杂的行中,规则性消失了(明显的周期),但非标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。
因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。
以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。
例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你会得出错误的结论。
信号/噪声当然是决定性的。在强噪声的情况下,弱的规律性将被丢失,你只是看不到它们。但在价格序列的情况下,噪音不是从外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的规律性,其余的是噪音。
这是一个很大的误解。
当然不是为任何完全意义上的任何。这里不包括白噪声,但我们也不考虑它。最初,一个系列是由不同的规律性组成的,它们有不同的振幅和长度,所以我们有一个系列,其中有噪音和规律性。
信号/噪声当然是决定性因素。如果有大量的噪音,微弱的规律性就会丢失,它们根本无法被看到。但在价格序列的情况下,噪音不是由外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的模式,其余的是噪音。
如果噪声多于信号,总是过量或不足(当使用验证采样时)。因为不存在稳定的模式。
而当有大量的噪音和很少的模式时,就可以尝试分离出信号。
真的很难理解为什么一连串的噪音图案包含一个信号,而一个图案却没有。我们可以简单地增加特征的数量(历史被反馈)。但是,不,它不是那样工作的。噪声对噪声产生噪声。它需要更微妙的上下文提取,由于某些原因,它在那里工作。一句话,魔术。
那么,当噪声大于信号时,总是过拟合或欠拟合(当使用验证采样时)。因为不存在稳定的模式。
但当有大量的噪音和少量的模式时,你就会尝试隔离信号好吧,这就是所有概率论主题中所有搜索的重点,分离出一个模式并在它消失的时候抓住时机。而且通常问题较少,隔离成本较高)。
:з
kind gentle polite))))
仁者见仁智者见智))))
我正在做一个完整的日志,它会告诉你他在做什么。
这样我们就能找出要改进的地方