交易中的机器学习:理论、模型、实践和算法交易 - 页 2564 1...255725582559256025612562256325642565256625672568256925702571...3399 新评论 Aleksey Nikolayev 2022.01.30 19:32 #25631 Aleksey Vyazmikin#: 这就是我所写的--目的是找出一种一致的模式,在特定的地点产生统计学上的优势。而且我们对预测因素进行量化--任何预测因素。但 "如何 "做到这一点是一个开放的问题--到目前为止,只能通过列举准备好的表格,根据经验假设或CatBoost算法的统计分区进行。在图3中,"量子"--很可能是选择了中间范围,在这个范围内有一些统计学上的优势。 我的理解是,几乎所有的预测因子都有一个串联性(相关性)的问题。还有一个组合问题--如果有很多预测者,那么可能有太多的量子。可能值得先通过PCA或PLS降低维度。 Aleksey Nikolayev 2022.01.30 19:47 #25632 mytarmailS#: 有没有人试着把蒙蒂科尔悖论 附在交易/决策中? 那里的整个悖论是,这个问题没有被完全数学化。答案是不同的,取决于如何进行全面正规化。 在有用的意义上--除了作为一个有启发性的例子,对于同一个现实世界的现象,不同的数学模型可以给出不同的答案。 Rorschach 2022.01.30 20:47 #25633 有趣的是。我在赫斯特上挑选刻度,我得到的值与传播刻度上的0.5非常不同,时间刻度越大,赫斯特就越接近0.5。我在一个面具 上做了一个原始的系统,并把10、100、1000、10000的周期替换掉。所有这些都有大致相同的预期回报。这就是有效市场的表现。 Aleksey Vyazmikin 2022.01.30 20:52 #25634 Aleksey Nikolayev#: 我的理解是,几乎所有的预测因子都有一个串联性(相关性)的问题。还有一个组合问题--如果有许多预测器,那么可能有太多的量子。可能值得先通过PCA或PLS降低维度。 我在上面写道,我排除了在样本中具有类似信号的预测器,即量化预测器之间的相关性降低了,尽管我使用了我的分组方法,从一组类似的预测器中选择最佳结果。 至于组合问题--你到底在哪里看到它?在训练样本中?如果是这样,那么理论上是可以的,可能在这里应用PCA是有意义的,但在最后的样本准备好之前是不行的。我还没有遇到这样的问题;相反,预测因素比最初的样本要少。 mytarmailS 2022.01.30 20:59 #25635 Aleksey Nikolayev#: 那里的悖论是,这个问题没有被完全数学化。答 案是不同的,取决于如何进行完整的正规化。在有用的意义上--除了作为一个有启发性的例子,对于一个真实的现象可以有不同的数学模型给出不同的答案。 怎么会这样? 这里有一篇关于代码的文章 还有 无数其他的 认识 所有这些都被数学化了,还是我错过了重点? Rorschach 2022.01.30 21:16 #25636 mytarmailS#: 怎么说呢?这里有一篇关于代码的文章还有 一百万种其他 的实现方式一切都是数学上的形式化,还是说我错过了重点? 这就像2个烧瓶的问题,条件不完整,你可以猜测其余的条件并得到答案。 Aleksey Nikolayev 2022.01.30 21:32 #25637 mytarmailS#: 怎么说呢?这里有一篇关于代码的文章还有 一百万种其他 的实现方式一切都是数学上的形式化,还是说我错过了重点? 看看维基,它说最初的表述是不正确的,并没有很明确地说可以通过不同的方式使其正确。悖论的本质恰恰是,直觉以不同的方式填补了不同人最初的沉默。纯粹是心理上的影响。 mytarmailS 2022.01.30 21:32 #25638 Rorschach#: 这就像两个烧瓶的问题,条件不完整,答案会随着你看中的其他条件而出现。 我不明白,但让我们把它归结为我的文盲...... 那么,总的来说,这狗屎的意义何在? 我看了你的帖子,建立赫斯特,用它来做什么? Aleksey Nikolayev 2022.01.30 21:42 #25639 Aleksey Vyazmikin#: 我在上面写到,我排除了在样本中具有类似信号的预测器,也就是说,量化预测器之间的相关性降低了,尽管我使用了我的分组方法,从一组类似的预测器中选择最佳结果。至于组合问题--你到底在哪里看到它?在训练样本中?如果是这样,那么理论上是可以的,可能在这里应用PCA是有意义的,但在最后的样本准备好之前是不行的。我在现实中没有遇到这样的问题--相反,预测因素比最初的样本要少。 好吧,如果我们把每个预测器分成两块,并寻找所有可能的规则,其中包括每个预测器的一半,那么不同的这样的碎片将是2^N,其中N是预测器的数量。现在,每一个这样的棋子都可以被带走或丢弃--我们得到2^(2^N)个变体。即使是小N,这也是一个巨大的数字。 Aleksey Vyazmikin 2022.01.30 22:53 #25640 Aleksey Nikolayev#: 好吧,如果我们把每个预测器只分成两块,并查看包括每个预测器一半的所有可能规则,那么将有2^N个不同的块,其中N是预测器的数量。现在,每一个这样的棋子都可以被带走或丢弃--我们得到2^(2^N)个变体。即使是小N,这也是一个巨大的数字。 首先丢弃,然后合并。 1...255725582559256025612562256325642565256625672568256925702571...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这就是我所写的--目的是找出一种一致的模式,在特定的地点产生统计学上的优势。而且我们对预测因素进行量化--任何预测因素。
但 "如何 "做到这一点是一个开放的问题--到目前为止,只能通过列举准备好的表格,根据经验假设或CatBoost算法的统计分区进行。
在图3中,"量子"--很可能是选择了中间范围,在这个范围内有一些统计学上的优势。
我的理解是,几乎所有的预测因子都有一个串联性(相关性)的问题。还有一个组合问题--如果有很多预测者,那么可能有太多的量子。可能值得先通过PCA或PLS降低维度。
有没有人试着把蒙蒂科尔悖论 附在交易/决策中?
那里的整个悖论是,这个问题没有被完全数学化。答案是不同的,取决于如何进行全面正规化。
在有用的意义上--除了作为一个有启发性的例子,对于同一个现实世界的现象,不同的数学模型可以给出不同的答案。
我的理解是,几乎所有的预测因子都有一个串联性(相关性)的问题。还有一个组合问题--如果有许多预测器,那么可能有太多的量子。可能值得先通过PCA或PLS降低维度。
我在上面写道,我排除了在样本中具有类似信号的预测器,即量化预测器之间的相关性降低了,尽管我使用了我的分组方法,从一组类似的预测器中选择最佳结果。
至于组合问题--你到底在哪里看到它?在训练样本中?如果是这样,那么理论上是可以的,可能在这里应用PCA是有意义的,但在最后的样本准备好之前是不行的。我还没有遇到这样的问题;相反,预测因素比最初的样本要少。
那里的悖论是,这个问题没有被完全数学化。答 案是不同的,取决于如何进行完整的正规化。
在有用的意义上--除了作为一个有启发性的例子,对于一个真实的现象可以有不同的数学模型给出不同的答案。
怎么会这样?
这里有一篇关于代码的文章
还有 无数其他的 认识
所有这些都被数学化了,还是我错过了重点?
怎么说呢?
这里有一篇关于代码的文章
还有 一百万种其他 的实现方式
一切都是数学上的形式化,还是说我错过了重点?
这就像2个烧瓶的问题,条件不完整,你可以猜测其余的条件并得到答案。
怎么说呢?
这里有一篇关于代码的文章
还有 一百万种其他 的实现方式
一切都是数学上的形式化,还是说我错过了重点?
看看维基,它说最初的表述是不正确的,并没有很明确地说可以通过不同的方式使其正确。悖论的本质恰恰是,直觉以不同的方式填补了不同人最初的沉默。纯粹是心理上的影响。
这就像两个烧瓶的问题,条件不完整,答案会随着你看中的其他条件而出现。
我不明白,但让我们把它归结为我的文盲......
那么,总的来说,这狗屎的意义何在?
我看了你的帖子,建立赫斯特,用它来做什么?
我在上面写到,我排除了在样本中具有类似信号的预测器,也就是说,量化预测器之间的相关性降低了,尽管我使用了我的分组方法,从一组类似的预测器中选择最佳结果。
至于组合问题--你到底在哪里看到它?在训练样本中?如果是这样,那么理论上是可以的,可能在这里应用PCA是有意义的,但在最后的样本准备好之前是不行的。我在现实中没有遇到这样的问题--相反,预测因素比最初的样本要少。
好吧,如果我们把每个预测器分成两块,并寻找所有可能的规则,其中包括每个预测器的一半,那么不同的这样的碎片将是2^N,其中N是预测器的数量。现在,每一个这样的棋子都可以被带走或丢弃--我们得到2^(2^N)个变体。即使是小N,这也是一个巨大的数字。
好吧,如果我们把每个预测器只分成两块,并查看包括每个预测器一半的所有可能规则,那么将有2^N个不同的块,其中N是预测器的数量。现在,每一个这样的棋子都可以被带走或丢弃--我们得到2^(2^N)个变体。即使是小N,这也是一个巨大的数字。
首先丢弃,然后合并。