交易中的机器学习:理论、模型、实践和算法交易 - 页 613

 
弗拉基米尔-佩雷文科

感到惊讶。什么样的模式才算超过了一个小时?

它最多应该是1-2分钟。

88-50-20-2网络,88个预测器的86400行训练数据。验证数据和测试部分+28800(然而,它们被快速计算)。

 
蜴_

老师,我很不好意思问。一个模型应该花费多少钱?
确定它不会带来一分钱吗?也许有一个公式(价格-质量)?)。


显然不是两个戈比,Trickster.....,你应该明白,你不是一个小男孩.....。

在多维数据空间中寻找泛化模型并不是一项快速和优化的任务。 为了减少过度学习效应,对模型建立的要求越来越高,规则也越来越严格,导致寻找这样一个模型所需的时间越来越长。因此,数据需要彻底摇出来....。

为什么同样的文件在AWS上和Reshetny's上的处理时间不同?AWS 2-5分钟,Reshetov 3小时,他的模型是AWS模型的两倍/为什么?

 
elibrarius

88-50-20-2网络,88个预测器的86400行训练数据。每个验证数据和测试地块+28,800(然而,它们的计数很快)。


有了这样一组数据,雷舍托夫就可以永远计数了:-)

让我告诉你一个外汇秘密。数据中的阿尔法只能是在很短的一段。在我的数据中,我还没能将这个参数增加到50行以上。我的意思是我有100列和50行。这涵盖了大约两周的市场。也就是说,如果我开始增加训练的时间间隔,模型的质量就会下降到75%以下,CB的质量就会变得无法工作,风险自担。所以我不明白你想对这几千条记录做什么。你不可能以可接受的培训质量水平为整个市场建立一个模型--培训区域越大,模型就越差。而如果它在这样一个领域显示出良好的结果,它与概括性的概念无关.....你知道我的意思......

你知道为什么你不能以良好的性能在长距离上建立模型吗?因为这种数据...输入....可以建立这样的模型,原则上不存在于自然界中,.....。没有这样的数据,否则它在很久以前就会被普遍使用。我指的是公开的数据.......,而不是内幕或什么....。所以...不明白为什么这么多线????

 
Mihail Marchukajtes:

有了这样的一组数据,雷舍托夫就可以永远计数了:-)

让我告诉你一个外汇秘密。数据中的阿尔法只能是在很短的一段。在我的数据中,我还没能将这个参数增加到50行以上。我的意思是我有100列和50行

你无法建立这样的模型,采样长度至少应该是特征数量的5倍,而你的特征比采样多,维度的诅咒也是如此

你显示了无知,而不是揭示了外汇的秘密。

 
Mihail Marchukajtes:
所以我不明白你想用这几千份记录做什么?你不可能在整个市场上建立一个具有可接受的培训质量水平的模型。而如果它在这样的领域显示出良好的效果,那么它就与概括的概念无关.....你知道我的意思......

这是一个M1,只有60天。所以根本不是针对整个市场,而是针对过去3个月。

当持续时间翻倍时,该模型不再建立....。当然要优化持续时间,但还没有达到这个目的。我想先弄清楚图层的数量。

如果你至少建立10个模型,需要8-10个小时来计算(()

有3个公式可以计算,找到最小 和最大,计算它们,然后在它们之间有2-3个,外面有2-3个。然后从所有这些中选择最好的模型,如果它们已经被计算出来了--就把它们集合起来。

这是在有2个隐藏层的情况下,和有1个隐藏层的情况下一样多。

一般来说,二十四小时将决定该模式。

 
elibrarius

一般来说,24小时将确定模型。


我不是挖矿狂人,价格比所有普通卡高3倍)。

矿工怪胎将所有普通卡的价格抬高了3倍。

 
elibrarius

这是一个M1,只有60天。所以根本不是针对整个市场,而是针对过去3个月。

当持续时间增加一倍时,该模型不再建立....。当然,优化持续时间,但还没有达到这个目的。我想先弄清楚图层的数量。

如果你至少建立10个模型,需要8-10个小时来计算(()

有3个公式可以计算,找到最小 和最大,计算它们,然后在它们之间有2-3个,外面有2-3个。然后从所有这些中选择最好的模型,如果它们已经被计算出来了--就把它们集合起来。

PS 嗯,那是在有2个隐藏层的情况下,而在有1个层的情况下也是同样的数量。

一般来说,24小时将确定模型。

最好是尝试用这些数据建立一个基于分形分析原理的模型。当使用几个时间框架进行输入时。马克西姆给我们看了一段关于世界分形的好视频。
一般来说,我可以建议你使用i7 3-4Ghz和ssd的专用服务器,每月只需7-8美元。数目还可以,电脑也不会那么忙。
 

我有个想法,输入(可能还有输出)可以用一定深度的报价分布,或分布的矩来喂养

这将得到一些平滑和概率的图片,也许,某些变体的数量有限,这很重要。但我还没有做到这一点--为此我需要抽出时间进行方差分析。

如果我们把分形考虑在内,那么mb.不同tf之间的分布关系。但这个话题需要认真琢磨,要画出一个图来

 
Mihail Marchukajtes:

从优化的角度来看,在多维数据空间中找到一个可归纳的模型并不是一个快速的过程,因为为了减少过度学习效应,越来越多的要求和越来越严格的模型建立规则的引入将增加找到这样一个模型的时间。因此,数据需要彻底摇出来....。

为什么同样的文件在AWS上和Reshetny's上的处理时间不同?AWS 2-5分钟,Reshetov 3小时,他的模型比AWS模型好两倍/为什么?

雷舍托夫的模型不是一个基准。例如,在其中寻找一组预测器是通过尝试不同的变体来完成的--模型采取随机的一组预测器,它被训练,并记住了结果。这将在一个循环中重复大量的次数,最好的结果将被用作最终模型。如果你首先用一种特殊的算法对预测器进行选择,然后在这个特定的集合上只训练一次Reshetov模型,那么这个过程就可以明显加快了。而且你能以与AWS相当的速度获得Reshetov模型的质量。这种模式的 "成本 "将大幅下降,但质量将保持不变。

 
阿列克谢-特伦特夫
我认为你应该尝试用这种数据建立一个基于分形分析原理的模型。当需要输入几个时间段时。马克西姆展示了一个关于世界分崩离析的好视频。
一般来说,我可以建议你使用i7 3-4Ghz和ssd的专用服务器,每月只需7-8美元。数目还可以,电脑也不会那么忙。
几个TFs和我用)只是每分钟都在分析。不需要服务器,谢谢!