交易中的机器学习:理论、模型、实践和算法交易 - 页 1612 1...160516061607160816091610161116121613161416151616161716181619...3399 新评论 mytarmailS 2020.03.08 10:12 #16111 叶夫根尼-迪尤卡。 我已经和这样的策略打交道半年了,回测的最大结果是一年x5,但一年一次,我肯定会失去所有的东西,这是不可能解决的问题。 是的,嗯...这是对人的一种羞辱。 那么,你的系统的广播是怎么回事? Evgeny Dyuka 2020.03.08 11:22 #16112 mytarmailS: 是的,嗯...这是对人的一种羞辱。 那么,你的系统的广播是怎么回事? 如果你指的是metatrader中的信号--这简直是不真实的。比特币的价差是疯狂的+报价是假的。在正常的加密货币交易所,如果你用限额开仓,佣金是负的,也就是说,他们会额外支付。 Farkhat Guzairov 2020.03.08 17:53 #16113 在过去的一周里,我在测试器中运行了这个系统,并再次确信,把过滤器等的 "帮助 "导致了这样一个事实,即花在训练系统上的努力,这种 "帮助 "只导致了一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。 Evgeny Dyuka 2020.03.08 20:49 #16114 法尔哈特-古扎罗夫。 在过去的一周里,我在测试器中运行了这个系统,并再次确信,"帮助 "设置过滤器等导致的事实是,在训练系统上花费的努力这种 "帮助 "只导致一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。 你不应该使用拐杖,系统应该自己学习,你一旦开始帮助它,就不能停止)) Aleksey Mavrin 2020.03.08 21:14 #16115 mytarmailS: 我们有两个变量向量,当前的蜡烛和之前的蜡烛("-1")。 a = "开盘"、"高点"、"低点"、"收盘"、"中心" b = "open-1", "high-1", "low-1", "close-1", "center-1" 变量 "中心 "是蜡烛图的中间部分(高点+低点)/2,没有这个变量就不可能描述像 "eskimo "这样的模式。 因此,让我们创造所有可能的逻辑组合(也可以是非逻辑的)。 只有两根蜡烛,悲惨的两根蜡烛..... 天啊,我甚至不知道该说些什么。关于神经网络的图书馆已经变得如此方便,以至于人们甚至忘记了常识,还是什么? 增加实体显然是无稽之谈,而在所有关于任何一种分析的初始手册中都写道,为了取得结果,有必要摆脱多余的实体。 那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000)) 如果你认为预测器比率对你的模型非常重要,而且必须一定要反馈到输入中,那么就创建一种卷积层,但要乘以预测器,是的。 mytarmailS 2020.03.08 21:27 #16116 阿列克谢-马夫林。 伙计,我甚至不知道该说些什么。神经网络库已经变得如此方便,以至于人们忘记了常识,还是什么? 当任何类型的分析的所有主要手册都说有必要去掉不必要的实体 以获得结果时,增加实体显然是无稽之谈。 那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000)) 如果你认为预测器比率对你的模型非常重要,而且你必须一定要把它送入输入,那么就创建一种卷积层,但要把预测器相乘,yadaa... oops....儿童.... 要摆脱多余 的实体,你首先需要了解什么是多余的!你需要了解什么是多余的。在1000个申请人的特征中,你能用眼睛选出5个最重要的特征吗? Aleksey Mavrin 2020.03.08 22:09 #16117 mytarmailS: oops....儿童.... 要摆脱多余 的实体,你需要首先了解什么是多余的!要了解它,你需要通过选项来查看!或者你知道另一种方法?你能从1000个装模作样的人中挑选出5个重要的人吗? 你已经做了很多工作,研究了很多材料,花了很多时间。试图改变你的想法有什么意义...... mytarmailS 2020.03.08 22:20 #16118 阿列克谢-马夫林。 你已经做了很多工作,研究了很多材料,花了很多时间。好吧,我不能改变你对任何事情的看法。 如果有争论,我很想听听。 如果论点是客观的,我很乐意改变你的想法。 如果你意识到你说得太多,决定很好地跳过,那就没有用了)) Aleksey Mavrin 2020.03.09 01:49 #16119 mytarmailS: 如果有争论,我很想听听。 如果论点是客观的,我很乐意改变我的想法,变得更聪明。 如果你意识到你说得太多而决定放弃,那就失败了))。 什么争论,如果你这样做意味着要么你不明白什么,要么我明白。 我惊讶的本质--一个可教的模型,我们在这里谈论它们,必须在原始数据上进行训练。 如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。 这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。 在你的方法中,你需要做出预测,比如。 1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。)) 模型难道不应该自己学习吗,它有原始数据,这就是它的作用!? Evgeny Dyuka 2020.03.09 05:59 #16120 阿列克谢-马夫林。 什么论点,如果你这样做,就意味着要么你不明白什么,要么我明白。 我惊讶的一点是,我们在这里谈论的训练有素的模型,必须在原始数据上训练。 如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。 这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。在你的方法中,你需要做出预测,比如。 1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。)) 难道模型不需要自己学习吗,它有输入数据,这就是它的作用! 我完全同意,输入数据的正确选择决定了模型是否会学习,剩下的就是技术问题了。如果在这个阶段没有理解,就没有必要继续前进。 1...160516061607160816091610161116121613161416151616161716181619...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我已经和这样的策略打交道半年了,回测的最大结果是一年x5,但一年一次,我肯定会失去所有的东西,这是不可能解决的问题。
是的,嗯...这是对人的一种羞辱。
那么,你的系统的广播是怎么回事?
是的,嗯...这是对人的一种羞辱。
那么,你的系统的广播是怎么回事?
在过去的一周里,我在测试器中运行了这个系统,并再次确信,把过滤器等的 "帮助 "导致了这样一个事实,即花在训练系统上的努力,这种 "帮助 "只导致了一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。
在过去的一周里,我在测试器中运行了这个系统,并再次确信,"帮助 "设置过滤器等导致的事实是,在训练系统上花费的努力这种 "帮助 "只导致一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。
我们有两个变量向量,当前的蜡烛和之前的蜡烛("-1")。
a = "开盘"、"高点"、"低点"、"收盘"、"中心"
b = "open-1", "high-1", "low-1", "close-1", "center-1"
变量 "中心 "是蜡烛图的中间部分(高点+低点)/2,没有这个变量就不可能描述像 "eskimo "这样的模式。
因此,让我们创造所有可能的逻辑组合(也可以是非逻辑的)。
只有两根蜡烛,悲惨的两根蜡烛.....天啊,我甚至不知道该说些什么。关于神经网络的图书馆已经变得如此方便,以至于人们甚至忘记了常识,还是什么?
增加实体显然是无稽之谈,而在所有关于任何一种分析的初始手册中都写道,为了取得结果,有必要摆脱多余的实体。
那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000))
如果你认为预测器比率对你的模型非常重要,而且必须一定要反馈到输入中,那么就创建一种卷积层,但要乘以预测器,是的。
伙计,我甚至不知道该说些什么。神经网络库已经变得如此方便,以至于人们忘记了常识,还是什么?
当任何类型的分析的所有主要手册都说有必要去掉不必要的实体 以获得结果时,增加实体显然是无稽之谈。
那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000))
如果你认为预测器比率对你的模型非常重要,而且你必须一定要把它送入输入,那么就创建一种卷积层,但要把预测器相乘,yadaa...
oops....儿童....
要摆脱多余 的实体,你首先需要了解什么是多余的!你需要了解什么是多余的。在1000个申请人的特征中,你能用眼睛选出5个最重要的特征吗?
oops....儿童....
要摆脱多余 的实体,你需要首先了解什么是多余的!要了解它,你需要通过选项来查看!或者你知道另一种方法?你能从1000个装模作样的人中挑选出5个重要的人吗?
你已经做了很多工作,研究了很多材料,花了很多时间。试图改变你的想法有什么意义......
你已经做了很多工作,研究了很多材料,花了很多时间。好吧,我不能改变你对任何事情的看法。
如果有争论,我很想听听。
如果论点是客观的,我很乐意改变你的想法。
如果你意识到你说得太多,决定很好地跳过,那就没有用了))
如果有争论,我很想听听。
如果论点是客观的,我很乐意改变我的想法,变得更聪明。
如果你意识到你说得太多而决定放弃,那就失败了))。
什么争论,如果你这样做意味着要么你不明白什么,要么我明白。
我惊讶的本质--一个可教的模型,我们在这里谈论它们,必须在原始数据上进行训练。
如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。
这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。 在你的方法中,你需要做出预测,比如。
1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。))
模型难道不应该自己学习吗,它有原始数据,这就是它的作用!?
什么论点,如果你这样做,就意味着要么你不明白什么,要么我明白。
我惊讶的一点是,我们在这里谈论的训练有素的模型,必须在原始数据上训练。
如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。
这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。在你的方法中,你需要做出预测,比如。
1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。))
难道模型不需要自己学习吗,它有输入数据,这就是它的作用!