程序库: BestInterval - 页 19 1...121314151617181920212223242526...29 新评论 fxsaber 2019.10.07 02:59 #181 Andrey Khatimlianskii:反其道而行之,为一周中的不同日子 寻找不同的间隔时间,也是绝对有道理的。然后,你就可以增加间隔的数量,这样每天就可以有 2-3 个片段。 但不是每天,而是把一周中的片段扔掉。现在,这些片段是从一天中丢出来的,但我们需要从一周中丢出来。也就是说,从任何周期性的时间间隔中扔出。 Maxim Dmitrievsky 2019.10.07 03:04 #182 fxsaber:NS 与此无关,哪怕是假设。 我和你做了完全一样的事情,但我是通过 NS 做的。我对亏损的交易说 "不",对盈利的交易说 "要"。 运行之后,所有(几乎)亏损都会被抵消。几乎是因为网络可能存在一些近似误差。另外一点是,输入不是时间(为什么不呢),而是任意符号。 在机器学习中,这种方法被称为元分区。当第二个模型修正第一个模型时。 很显然,这可以简单地提高一个好的 TS 的性能,但你不能用糖果来做糖果。 fxsaber 2019.10.07 03:09 #183 Maxim Dmitrievsky:和你做的一模一样,不过是通过 NS。 恐怕我的任务没有被理解。 Maxim Dmitrievsky 2019.10.07 03:11 #184 fxsaber:恐怕我的任务没有得到理解。 我明白,我只是说可以用不同的方法做同样的事情。如何分析结果是另外一个问题。我不会对它进行任何分析,因为它不是一个主要模型,只是一个调整模型。 fxsaber 2019.10.07 03:30 #185 Maxim Dmitrievsky:这不是主要模式,只是一种调整。 任务不是调整,而是在任何 TC(如果有的话)中找到常识。 Andrey Khatimlianskii 2019.10.08 10:27 #186 fxsaber:直到后来我才发现。事实证明,剪了很多,结果还是送人了,这纯粹是修修补补。但如果把大量删减当作分析好 2-3 个区间的中间阶段,情况就会变得有些不同。 我看不出这些原始数据有什么用处。试图对几个相邻区间进行聚类? fxsaber: 但不是每一天,而是一周中的几块。现在的分块是按天进行的,但我们需要按周进行。也就是说,从任何循环时间间隔开始。 这正是我的想法。 fxsaber 2019.10.08 11:22 #187 Andrey Khatimlianskii:我不知道这样的原始数据有什么用。试图将几个相邻的区间分组? 现在的优化标准 是 20 个区间的利润总和。而我需要从这 20 个区间中选择拟合概率较低的区间。因此,标准应该只考虑这些区间。 Andrey Khatimlianskii 2019.10.08 11:57 #188 fxsaber:我需要从这 20 个区间中选出拟合概率较低的区间。 这怎么可能呢?内置的 "狼来了"? fxsaber 2019.10.08 11:59 #189 Andrey Khatimlianskii:这有什么可能?内在的狼性? 举例来说,如果我在 12:13-14:05 之间看到 500 笔交易,PF 值为 2.4,我至少会认为这种情况很有趣。 Andrey Khatimlianskii 2019.10.08 12:52 #190 fxsaber:举例来说,如果我在 12:13-14:05 PF 2.4 的区间内看到 500 笔交易,我至少会认为情况是有趣的。 如果这个区间与其他区间不同,那么在切出 2 个图时(而不是 20 个)就会突出显示出来。 如果不是,为什么要单独考虑? 1...121314151617181920212223242526...29 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
反其道而行之,为一周中的不同日子 寻找不同的间隔时间,也是绝对有道理的。然后,你就可以增加间隔的数量,这样每天就可以有 2-3 个片段。
但不是每天,而是把一周中的片段扔掉。现在,这些片段是从一天中丢出来的,但我们需要从一周中丢出来。也就是说,从任何周期性的时间间隔中扔出。
NS 与此无关,哪怕是假设。
我和你做了完全一样的事情,但我是通过 NS 做的。我对亏损的交易说 "不",对盈利的交易说 "要"。
运行之后,所有(几乎)亏损都会被抵消。几乎是因为网络可能存在一些近似误差。另外一点是,输入不是时间(为什么不呢),而是任意符号。
在机器学习中,这种方法被称为元分区。当第二个模型修正第一个模型时。
很显然,这可以简单地提高一个好的 TS 的性能,但你不能用糖果来做糖果。
和你做的一模一样,不过是通过 NS。
恐怕我的任务没有被理解。
恐怕我的任务没有得到理解。
我明白,我只是说可以用不同的方法做同样的事情。如何分析结果是另外一个问题。我不会对它进行任何分析,因为它不是一个主要模型,只是一个调整模型。
这不是主要模式,只是一种调整。
任务不是调整,而是在任何 TC(如果有的话)中找到常识。
直到后来我才发现。事实证明,剪了很多,结果还是送人了,这纯粹是修修补补。但如果把大量删减当作分析好 2-3 个区间的中间阶段,情况就会变得有些不同。
我看不出这些原始数据有什么用处。试图对几个相邻区间进行聚类?
但不是每一天,而是一周中的几块。现在的分块是按天进行的,但我们需要按周进行。也就是说,从任何循环时间间隔开始。
这正是我的想法。
我不知道这样的原始数据有什么用。试图将几个相邻的区间分组?
现在的优化标准 是 20 个区间的利润总和。而我需要从这 20 个区间中选择拟合概率较低的区间。因此,标准应该只考虑这些区间。
我需要从这 20 个区间中选出拟合概率较低的区间。
这怎么可能呢?内置的 "狼来了"?
这有什么可能?内在的狼性?
举例来说,如果我在 12:13-14:05 之间看到 500 笔交易,PF 值为 2.4,我至少会认为这种情况很有趣。
举例来说,如果我在 12:13-14:05 PF 2.4 的区间内看到 500 笔交易,我至少会认为情况是有趣的。
如果这个区间与其他区间不同,那么在切出 2 个图时(而不是 20 个)就会突出显示出来。
如果不是,为什么要单独考虑?