交易中的机器学习:理论、模型、实践和算法交易 - 页 1322

 
尤里-阿索连科

伙计们,这个话题是关于MO,而不是关于交易风格和止损。这与他们有什么关系?

所以我想在NS中讨论这个问题,但结果是没有人可以讨论它。

 
Yuriy Asaulenko:

就在昨天,一个关于预测正弦波的对话出现了,我想起了我的老话题。

(马克西姆,你还在打趣这个话题。我是报复性的,我把一切都写下来了。)

我必须说,这样做是徒劳的,但这个话题陷入了僵局,从未进入正题。也许是因为措辞不是很清楚。

实际上,我们不需要解决任何问题。你需要采取一些函数,像主题中的函数,甚至更好的是更复杂的函数。用这个功能创建一个人工工具,并在测试器中对一个已经工作的策略进行运行。理想情况下,利润应该在工作的TS上过度。哦,我忘了,应该事先对函数进行归一化处理,使其与设置TS的符号大致对应。然后我们可以添加噪音,看看会发生什么。

我不做预测,也没有准备好这样的TS,所以我不能在最近的将来检查它。但在遥远的将来,我打算这样做。

现在谈谈我们为什么需要这些。

假设我们需要教授NS(或其他MO)的预测。通常情况下,NS的初始权重是随机初始化的,如果NS在训练时进入最小最大值,那就是一个非常大的问题。

让我们做以下工作。

1.生成一个接近市场BP 的非随机函数,用它来教导一个随机初始化的NS。检查它,等等。现在我们的NS在设置上已经接近我们所需要的,但到目前为止,我们还无法解决真正的问题。

2.我们使用真实的BP对NS进行训练(见第1点)。我们已经有了一些保证,初步的NS设置是在最小最大值附近的某个地方,在预训练的过程中,他们会去他们应该去的地方,但不是去某个随机的最小最大值。

这个比喻是指一个小学生,他首先被教导解决一个题目的简单问题,然后这些问题变得更加复杂。按照小学生的方式教学比试图让他们从一开始就解决复杂的问题更有效。

一般来说,这个方法不是一个开口,在文献的某处发生过,但有很多书,我一个人不记得了。无论如何,我已经想到了它的实施。那么,尝试用一个现成的TS来预测一个分析函数的第一个实验,一般来说,需要作为一个阶段性的实验。



如果这个人没有失误的话,2页之前你就会看到一个带有Fe的例子。

我不明白初始化权重等的想法,那么你需要一个预学习网格,在与需要预测的内容完全不相符的东西上进行训练有什么意义呢?

我猜你是想模仿强化学习的 基本原理。

 
马克西姆-德米特里耶夫斯基

如果这个混蛋没有失误,2页前你就会看到一个有F眼的例子。

我不明白关于初始化权重和其他东西的想法,那么你需要一个预学习网格,而且在甚至不符合你需要预测的东西上进行训练有什么意义呢?

我猜你是想表现强化学习的基本原理。

不,你不需要预先学习的网格。

1.对接近和明确可预测的数据进行预训练。你可以从真实的数据中进行准备--样条、多项式、傅里叶或其他什么。

2.根据第1页(非随机初始化),在真实数据上对网络进行后期训练。

对于预测,我可以看到如何做,而且我认为这可能会改善结果。对于分类,我不知道该怎么做。

有功能的例子--这不是说这个。有很多这样的例子。

 
马克西姆-德米特里耶夫斯基

阿列克谢选择的不是最差的猫粮,而是迄今为止最适合研究的猫粮之一。例如,在欧洲核子研究中心,它被用来分析对撞机的结果......谁处理量子随机性的问题)。

非常有趣)。CERN XGBoost 是偶然遇到的。

毫不奇怪,欧洲核子研究中心已经认识到这是对大型强子对撞机信号进行分类的最佳方法。欧洲核子研究中心提出的这个特殊问题需要一个可扩展的解决方案,以处理每年3PB的速度产生的数据,并在复杂的物理过程中有效地将极其稀疏的信号与背景噪音区分开来。XGBoost成为最有用、最简单、最可靠的解决方案。(2018年9月6日)

__________________________________

欧洲核研究中心(CERN)在大型强子对撞机(LHCb)的研究中引入了CatBoost,以将来自LHCb探测器不同部分的信息整合为最准确的、尽可能聚合的粒子知识。通过使用CatBoost来组合数据,科学家们已经能够提高最终解决方案的定性性能,其中CatBoost的结果比使用其他方法得到的结果更好[6][7]。

_______________________________________

这都是差不多的事情。那么,Catbust和XGBoost 是哪一个?)我想知道谁骗了谁?))

 
Aleksey Vyazmikin:

未来是不确定的,模式来了又走,这很正常,但它们是否一定是短期的,这值得怀疑。由于趋势策略,我没有很大的样本,所以我认为进一步减少是不合理的。

然而,我决定对参与训练的训练样本和验证样本的不同比例进行训练效果的实验。这个步骤将是10%,即一开始训练样本是90%,测试样本是10%,然后测试样本将逐渐增加10%。 每个样本将包含200个模型--让我们看看会发生什么。另一个问题是如何最好地比较,这些组合,通过平均或绝对标准--想法被接受。

在短期模式上--从10-15分钟到最多1小时,任何改变东西的重大事件的概率是非常小的,特别是当我们已经进入一个重大事件的交易。在一个多小时后--将发生什么,至少对我来说,是未知的。这不是在反对你,而是支持我的观点)。

决定沿着你的路走下去,加上我对这个问题的修改和看法。特别是由于所有必要的预测因素都已经到位了。虽然我已经决定尝试XGBoost,但它在我看来,或者是我对CatBoost 的文档没有印象(XGBoost,我认为,更清晰),或者是其他的东西。我还不明白配给制有什么用。有了NS,就很难对那里的一切进行配给。

 
尤里-阿索连科

都是几乎完全一样的。那么,Catbust和XGBoost 是哪一个?)我想知道谁骗了谁?))

在创建基于它们的模型并将其发布到市场混乱中之前,了解这一点会很好。

我记得大约半年前,他们试图在这里测试CatBoost,然后与XGBoost不同,它甚至不能从乘法表中学习。

我不知道,也许现在他们决定,如果它不能学习简单的,那么他们应该在复杂的上尝试一下,也许它真的很酷。

为了确定这一点,你可能可以使用上面建议的合成BP。

 
Ivan Negreshniy:

而在创建基于它们的模型并将其发布到市场混乱中之前,了解这一点会很好。

我记得大约半年前,他们试图测试CatBoost,然后,与XGBoost不同,它甚至不能学习乘法表。

我不知道,也许现在他们决定,如果它不能学习简单的东西,他们应该在复杂的东西上进行尝试,也许它真的很酷。

而这大概能够确定你可以使用上述建议的合成BP。

至少XGBoost有更好的文档,而且更多。CatBoost 除了Yandex自己的材料外,其他的很少,一目了然。

 
尤里-阿索连科

根据短期模式--从10-15分钟到最多1小时,任何重大事件改变任何事情的概率都很低,尤其是我们已经在一个重大事件中进入交易。在一个多小时后--将发生什么,至少对我来说,是未知的。这不是在反对你,而是支持我的观点)。

我不把概率变异性作为我战略的一部分来看待。如果模型给出了进入的信号,那么我们就进入,因为现在(简单地说,根据训练中获得的统计数据)有有利的条件,在我的不同版本的TS中退出是不同的--要么通过TP/SL,要么只通过SL。因此,在平仓之前,预测不会被取消,可能会工作三小时之久。这意味着我不是在预测准确的时间,而是在预测回到x条之前的价格的概率,换句话说,就是本地平的结束。

但我写的完全是另一回事,即关于所识别的模式在时间上的重复出现周期,如果该模式在三年内发生并导致了可预测的事件,那么在更大程度上,它也有机会在第四年继续工作,而在一小部分训练时间内识别的模式可能只是对上层TF(周图上的趋势)情况的描述。

总之,这是我的理论推测,我现在将对实验结果进行处理,情况将更加透明,我希望。

尤里-阿索连科

我决定按照你的方式,用我的修改和对主题的看法。特别是由于所有必要的预测因素都已经到位了。虽然已经决定尝试XGBoost,他似乎对我的东西 - 无论是文档CatBoost不留下深刻的印象(XGBoost,我认为,更清晰),或其他什么。我还不明白配给制有什么用。有了NS,就很难对那里的一切进行配给。

Catbust有更多的选择,它是XGBoost思想发展的延续,主要的优势,同时也是缺点,就是固定维度的树,如果数量不多,就无法重新训练。

没有什么东西需要为纯粹的分类而被规范化。然而,我在预测器中做了预处理,减少了数值的范围,而且我根据经验将范围本身分解成组。也许没有这些转换,结果会更好--我没有检查。一方面,开发者说我不需要自己转换任何东西,另一方面,数字转换算法有不同的设置,此外,我可以从一个单独的文件中使用自己的分解。它指的是catbust,但我认为这个逻辑在哪里都是一样的。

 
Ivan Negreshniy:

而在创建基于它们的模型并将其发布到市场混乱中之前,了解这一点会很好。

我记得大约半年前,他们试图测试CatBoost,然后,与XGBoost不同,它甚至不能学习乘法表。

我不知道,也许现在他们决定,如果它不能学习简单的,那么他们应该在复杂的上尝试一下,也许它真的很酷。

为了确定这一点,你可以使用上述建议的合成BP。

CatBoost 和XGBoost有不同的树深,我记得CatBoost是成功地增加了一些树。

而至于用树来寻找不同的函数,最好是用NS来搜索,并将结果作为预测器来输入分类。总之,我并不支持生价饲料,但马克西姆在其中获得了成功,尽管需要更频繁的再训练。

 

对于那些怀疑NS的功能描述能力的人来说