不关马什卡的事! - 页 8 123456789101112 新评论 Сергей 2008.04.14 10:27 #71 Neutron: 自然! 毕竟,如果你能提前预测一栏,你也可以用递归来预测两栏,而且是通过归纳来预测。但预测误差会随着预测范围的扩大而呈指数增长,这就是为什么我们对寻找基本预测的准确性(对于一个条形图)和预测范围的f-fi的置信区间宽度之间的关系不感兴趣。让业余爱好者来做。你和我将研究预测基础本身的质量--提前1个BAR,仅此而已!诚然,我们将通过每次预测1条,向前走一步,以此类推10000次来收集统计数据。只是为了确定。 是的,我们可以这样做, ,作为开始。你对为你的模型的可见性设置一个边界不感兴趣吗? PS:另外,最大预测值为1巴,你就大错特错了。这只是研究中的模型--你和Burg的模型--的限制。而在这里,你总体上是对的,我所拥有的地平线大小的统计证明。 - 但另一方面,看看误差图--它一点也不坏,误差变化为1点。 但回到我们的哲学对话,你不应该限制自己,因为你限制自己,但不限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我很快就会给你结论性的证明,即有可能预测到足够远的未来,但我们不要急于求成。我们会及时赶到的 :o) Neutron 2008.04.14 10:36 #72 grasn: 但回到我们的哲学对话,你不应该限制自己,因为你限制自己,而不是限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我会给你确凿的证据,你可以比较快地预测到相当远的未来,但我们不要着急。我们都会成功的 :o) 我不相信,但我很高兴知道我错了 :-) Сергей 2008.04.14 10:44 #73 Neutron: 格拉斯恩。但回到我们的哲学对话,你不应该限制自己,因为你在限制自己,而不是限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我会给你确凿的证据,你可以比较快地预测到相当远的未来,但我们不要着急。我们都会成功的 :o) 我不相信,但我很高兴知道我错了 :-) 这不是信仰,是知识:o) Neutron 2008.04.14 10:51 #74 Sergei,这个Burg是谁? Сергей 2008.04.14 10:58 #75 Neutron: Sergey,这个Burg是谁? 严肃的家伙,发明了另一种预测方法。在MathCAD 中,他的算法被实现为predict()和burg()函数。你可以在帮助中查找。Berg可能是正确的,但更多的时候它被称为burg。我甚至因为这个方法而获得了某种奖励。 正如你所看到的,它的预测工作做得相当好,但我需要定义参数。所以在这里Seryoga,首先处理我的小兄弟:o))))))))当然,只是在开玩笑 :o)))) PS:那就说明这个方法好找......也许北风 知道哪里可以找?:о))) Сергей 2008.04.14 11:08 #76 在我看来,这很重要,因此我单独写了一篇文章。Seryoga,你正在处理NS,尝试训练一个神经网络 来预测MA(这是可能的),并使用预测的MA,你可以很容易地恢复未来的价格系列。同样的加法器 :o) Neutron 2008.04.14 11:28 #77 你认为我这段时间一直在做什么?这是正确的!我一直在研究基础NS的预测特性。这是个死胡同。问题是,构建MAs,你基本上是整合了最初的BP,而没有在那里添加任何新的东西。很明显,NS甚至魔鬼对MA的分析,在最初的BP中没有任何新东西可以给我们。因此,随着事件视界的接近,预言系列肯定会崩溃。这已经是一个医学事实。如果我们要求MA的n倍可分性,你可以明显地改善它。那么就有可能突破事件视界,尽管它看起来就像拉着一根木刺穿过木刺。同样的效果可以用更简单的方式实现。 至于伯格的算法,不管它是什么,它肯定会输给NS,它是基于科尔莫戈罗夫关于d维立方体上可微调函数的最佳近似定理。所以我甚至不再理会另一个人了。 Сергей 2008.04.14 11:33 #78 Neutron: 你认为我这段时间一直在做什么?这是正确的!我一直在研究基础NS的预测特性。这是个死胡同。问题是,构建MAs,你基本上是整合了最初的BP,而没有在那里添加任何新的东西。很明显,利用国家统计局甚至是魔鬼自己对MA的分析,在最初的BP中没有任何新的东西可以给我们。因此,随着事件视界的接近,预言系列肯定会崩溃。这已经是一个医学事实。如果我们要求MA的n倍可分性,你可以明显地改善它。那么就有可能突破事件视界,但这就像拉着一根木刺穿过木刺。同样的效果可以用更简单的方式实现。 至于伯格的算法,不管它是什么,根据定义,它将输给NS,它是基于科尔莫戈罗夫关于d维立方体上可微调函数的最佳近似定理。所以我甚至不再理会另一个人了。 等等,让我们按顺序来看看。你认为无论选择何种方法(NS、Burg或其他),最大的MA 预测范围 ,是多少个计数(或条数)?一个还是有区别的? Neutron 2008.04.14 11:46 #79 马什卡的预测范围超过了一栏!这个值取决于由LPF构建的序列的平稳性,而这又取决于平均化窗口和平均化算法 中的微分倍数。对于传统的MAs,你可以把单倍数的微分,对于EMAs,第二个导数是连续的,所以它允许更远的视野。 此外,当我要求你提前预测一个栏时,你应该意识到你是在预测1个栏+你的MA的组延迟值。 Сергей 2008.04.14 12:06 #80 Neutron: 此外,当我要求你提供提前一栏的预测时,你应该知道,对你来说,这将导致1栏预测+你的MA的组滞后值。 滞后与此有什么关系?无论是Burg的方法、NS还是你的方法都不知道MA 滞后的情况。对于这些方法来说,它只是BP,没有别的。然后,如果你准确地计算出MA的 未来价值,你也会准确地计算出未来的价格价值。滞后与否与此有什么关系?????? 123456789101112 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
自然!
毕竟,如果你能提前预测一栏,你也可以用递归来预测两栏,而且是通过归纳来预测。但预测误差会随着预测范围的扩大而呈指数增长,这就是为什么我们对寻找基本预测的准确性(对于一个条形图)和预测范围的f-fi的置信区间宽度之间的关系不感兴趣。让业余爱好者来做。你和我将研究预测基础本身的质量--提前1个BAR,仅此而已!诚然,我们将通过每次预测1条,向前走一步,以此类推10000次来收集统计数据。只是为了确定。
是的,我们可以这样做, ,作为开始。你对为你的模型的可见性设置一个边界不感兴趣吗?
PS:另外,最大预测值为1巴,你就大错特错了。这只是研究中的模型--你和Burg的模型--的限制。而在这里,你总体上是对的,我所拥有的地平线大小的统计证明。
- 但另一方面,看看误差图--它一点也不坏,误差变化为1点。
但回到我们的哲学对话,你不应该限制自己,因为你限制自己,但不限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我很快就会给你结论性的证明,即有可能预测到足够远的未来,但我们不要急于求成。我们会及时赶到的 :o)
但回到我们的哲学对话,你不应该限制自己,因为你限制自己,而不是限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我会给你确凿的证据,你可以比较快地预测到相当远的未来,但我们不要着急。我们都会成功的 :o)
我不相信,但我很高兴知道我错了 :-)
但回到我们的哲学对话,你不应该限制自己,因为你在限制自己,而不是限制自然。因此,人类永远不会 上空或沉入海底。顺便说一下,关于预测,我想我会给你确凿的证据,你可以比较快地预测到相当远的未来,但我们不要着急。我们都会成功的 :o)
我不相信,但我很高兴知道我错了 :-)
这不是信仰,是知识:o)
Sergey,这个Burg是谁?
严肃的家伙,发明了另一种预测方法。在MathCAD 中,他的算法被实现为predict()和burg()函数。你可以在帮助中查找。Berg可能是正确的,但更多的时候它被称为burg。我甚至因为这个方法而获得了某种奖励。
正如你所看到的,它的预测工作做得相当好,但我需要定义参数。所以在这里Seryoga,首先处理我的小兄弟:o))))))))当然,只是在开玩笑 :o))))
PS:那就说明这个方法好找......也许北风 知道哪里可以找?:о)))
在我看来,这很重要,因此我单独写了一篇文章。Seryoga,你正在处理NS,尝试训练一个神经网络 来预测MA(这是可能的),并使用预测的MA,你可以很容易地恢复未来的价格系列。同样的加法器 :o)
你认为我这段时间一直在做什么?这是正确的!我一直在研究基础NS的预测特性。这是个死胡同。问题是,构建MAs,你基本上是整合了最初的BP,而没有在那里添加任何新的东西。很明显,NS甚至魔鬼对MA的分析,在最初的BP中没有任何新东西可以给我们。因此,随着事件视界的接近,预言系列肯定会崩溃。这已经是一个医学事实。如果我们要求MA的n倍可分性,你可以明显地改善它。那么就有可能突破事件视界,尽管它看起来就像拉着一根木刺穿过木刺。同样的效果可以用更简单的方式实现。
至于伯格的算法,不管它是什么,它肯定会输给NS,它是基于科尔莫戈罗夫关于d维立方体上可微调函数的最佳近似定理。所以我甚至不再理会另一个人了。
你认为我这段时间一直在做什么?这是正确的!我一直在研究基础NS的预测特性。这是个死胡同。问题是,构建MAs,你基本上是整合了最初的BP,而没有在那里添加任何新的东西。很明显,利用国家统计局甚至是魔鬼自己对MA的分析,在最初的BP中没有任何新的东西可以给我们。因此,随着事件视界的接近,预言系列肯定会崩溃。这已经是一个医学事实。如果我们要求MA的n倍可分性,你可以明显地改善它。那么就有可能突破事件视界,但这就像拉着一根木刺穿过木刺。同样的效果可以用更简单的方式实现。
至于伯格的算法,不管它是什么,根据定义,它将输给NS,它是基于科尔莫戈罗夫关于d维立方体上可微调函数的最佳近似定理。所以我甚至不再理会另一个人了。
等等,让我们按顺序来看看。你认为无论选择何种方法(NS、Burg或其他),最大的MA 预测范围 ,是多少个计数(或条数)?一个还是有区别的?
马什卡的预测范围超过了一栏!这个值取决于由LPF构建的序列的平稳性,而这又取决于平均化窗口和平均化算法 中的微分倍数。对于传统的MAs,你可以把单倍数的微分,对于EMAs,第二个导数是连续的,所以它允许更远的视野。
此外,当我要求你提前预测一个栏时,你应该意识到你是在预测1个栏+你的MA的组延迟值。
此外,当我要求你提供提前一栏的预测时,你应该知道,对你来说,这将导致1栏预测+你的MA的组滞后值。
滞后与此有什么关系?无论是Burg的方法、NS还是你的方法都不知道MA 滞后的情况。对于这些方法来说,它只是BP,没有别的。然后,如果你准确地计算出MA的 未来价值,你也会准确地计算出未来的价格价值。滞后与否与此有什么关系??????