交易中的机器学习:理论、模型、实践和算法交易 - 页 1612

 
叶夫根尼-迪尤卡
我已经和这样的策略打交道半年了,回测的最大结果是一年x5,但一年一次,我肯定会失去所有的东西,这是不可能解决的问题。

是的,嗯...这是对人的一种羞辱。

那么,你的系统的广播是怎么回事?

 
mytarmailS:

是的,嗯...这是对人的一种羞辱。

那么,你的系统的广播是怎么回事?

如果你指的是metatrader中的信号--这简直是不真实的。比特币的价差是疯狂的+报价是假的。在正常的加密货币交易所,如果你用限额开仓,佣金是负的,也就是说,他们会额外支付。
 

在过去的一周里,我在测试器中运行了这个系统,并再次确信,把过滤器等的 "帮助 "导致了这样一个事实,即花在训练系统上的努力,这种 "帮助 "只导致了一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。

 
法尔哈特-古扎罗夫

在过去的一周里,我在测试器中运行了这个系统,并再次确信,"帮助 "设置过滤器等导致的事实是,在训练系统上花费的努力这种 "帮助 "只导致一个负面的结果,而且这个结果是在已知和训练过的数据上,当数据是实时的(原始的),该怎么说呢。

你不应该使用拐杖,系统应该自己学习,你一旦开始帮助它,就不能停止))
 
mytarmailS:

我们有两个变量向量,当前的蜡烛和之前的蜡烛("-1")。

a = "开盘"、"高点"、"低点"、"收盘"、"中心"

b = "open-1", "high-1", "low-1", "close-1", "center-1"

变量 "中心 "是蜡烛图的中间部分(高点+低点)/2,没有这个变量就不可能描述像 "eskimo "这样的模式。

因此,让我们创造所有可能的逻辑组合(也可以是非逻辑的)

只有两根蜡烛,悲惨的两根蜡烛.....

天啊,我甚至不知道该说些什么。关于神经网络的图书馆已经变得如此方便,以至于人们甚至忘记了常识,还是什么?

增加实体显然是无稽之谈,而在所有关于任何一种分析的初始手册中都写道,为了取得结果,有必要摆脱多余的实体。

那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000))

如果你认为预测器比率对你的模型非常重要,而且必须一定要反馈到输入中,那么就创建一种卷积层,但要乘以预测器,是的。

 
阿列克谢-马夫林

伙计,我甚至不知道该说些什么。神经网络库已经变得如此方便,以至于人们忘记了常识,还是什么?

当任何类型的分析的所有主要手册都说有必要去掉不必要的实体 以获得结果时,增加实体显然是无稽之谈。

那么,如果你创建变量,如果它高出一个数字,高出两个,高出三分之一,等等,那么两个蜡烛图可能会导致1000))

如果你认为预测器比率对你的模型非常重要,而且你必须一定要把它送入输入,那么就创建一种卷积层,但要把预测器相乘,yadaa...

oops....儿童....

要摆脱多余 的实体,你首先需要了解什么是多余的!你需要了解什么是多余的。在1000个申请人的特征中,你能用眼睛选出5个最重要的特征吗?

 
mytarmailS:

oops....儿童....

要摆脱多余 的实体,你需要首先了解什么是多余的!要了解它,你需要通过选项来查看!或者你知道另一种方法?你能从1000个装模作样的人中挑选出5个重要的人吗?

你已经做了很多工作,研究了很多材料,花了很多时间。试图改变你的想法有什么意义......

 
阿列克谢-马夫林

你已经做了很多工作,研究了很多材料,花了很多时间。好吧,我不能改变你对任何事情的看法。

如果有争论,我很想听听。

如果论点是客观的,我很乐意改变你的想法。

如果你意识到你说得太多,决定很好地跳过,那就没有用了))

 
mytarmailS:

如果有争论,我很想听听。

如果论点是客观的,我很乐意改变我的想法,变得更聪明。

如果你意识到你说得太多而决定放弃,那就失败了))。

什么争论,如果你这样做意味着要么你不明白什么,要么我明白。

我惊讶的本质--一个可教的模型,我们在这里谈论它们,必须在原始数据上进行训练。

如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。

这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。 在你的方法中,你需要做出预测,比如。

1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。))

模型难道不应该自己学习吗,它有原始数据,这就是它的作用!?

 
阿列克谢-马夫林

什么论点,如果你这样做,就意味着要么你不明白什么,要么我明白。

我惊讶的一点是,我们在这里谈论的训练有素的模型,必须在原始数据上训练。

如果输入数据是相关的,就必须还原为不相关的。但你正在做相反的事情--你正在乘以原始数据,彼此之间强烈相关。

这里有一个例子--我们教模型通过3位数字--RGB来分类颜色的深浅。三位数,那是纯粹的原始数据!!。在你的方法中,你需要做出预测,比如。

1-R 2-G 3-B - 4 更多的红色 5-更多的绿色 6-比绿色和蓝色加起来更多的红色 ....100500 如果绿色和蓝色一样红,就没有那么红了。))

难道模型不需要自己学习吗,它有输入数据,这就是它的作用!

我完全同意,输入数据的正确选择决定了模型是否会学习,剩下的就是技术问题了。如果在这个阶段没有理解,就没有必要继续前进。