交易中的机器学习:理论、模型、实践和算法交易 - 页 391

 
Dr. Trader:

这是在雷舍托夫的RNN,即概率模型。

然后是米哈伊尔使用的jPredictor。Reshetov的神经元,有大量的输入,和某种训练,而不是梯度下降。


试图解决Alglib在NS上的第一个帖子中的问题。该网络是20-5-1。成功。但是非常长,你有大约2秒的解决方案。我的计算平均为10-20分钟,从1个周期看,2分钟内有变体,但显然它是偶然绊倒的,我必须设置20个周期的学习才可靠......或100000次迭代,如下面的变体

提醒:训练中的平均误差(60.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
提醒:验证中的平均误差(20.0%)部分=0。000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
提示:测试的平均误差(20.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2

计算时间=22.30分钟
0 总重量=3.2260
1 总重量=0.0000
2 总重量=3.2258
3 总重量=0.0000
4 总重量=8.7035
5 总重量=0.0000
6 总重量=3.2253
7 总重量=0.0000
8 总重量=3.2258
9 总重量=0。0000
10 权重之和=3.2251
11 权重之和=0.0000
12 权重之和=0.0000
13 权重之和=0.0000
14 权重之和=0.0000
15 权重之和=0.0000
16 权重之和=0.0000
17 权重之和=0.0000
18 权重之和=0.0000
19 权重之和=0.0000

我希望能更快地...
如果问题不是出在20个输入上,而是出在200个输入上,那就得花上几十个小时。
筛选出与产出相关度低或与其他输入相关度高的,就会去掉重要的输入,甚至试过费雪的 LDA--也会去掉重要的输入。所以用这些方法进行筛选并没有帮助,相反,它阻碍了。

显然,一次解决所有的输入,通过权重之和筛选出输入,得到一个模型供将来使用,仍然是一个漫长的解决方案。然后每周重新训练一次,例如,在截断的输入数量上。

我在想,也许是为了速度,把这个任务交给MS Azure来获得输入的总权重,然后在我的模型中使用它们。我做了一些实验,但我没有看到权重是从哪里来的......。

 
这就对了,兄弟们!!!。这是正确的,使用Resolute的优化器。所以我想在GPU上运行计算。有人做过这样的事吗?由于JPrediction是并行化的,所以只需在GPU上运行程序即可。有没有人知道如何在GPU上运行JAVA程序?我认为有用的知识是....
 
Mihail Marchukajtes:
这就对了,兄弟们!!。我有,我使用Resolute的优化器。所以我想在GPU上运行计算。谁会这样做呢?由于JPrediction是并行化的,所以只需在GPU上运行程序即可。有没有人知道如何在GPU上运行JAVA程序?我认为有用的知识是....

你能给我一个工作版本的链接和说明吗?
 
Mihail Marchukajtes:
大家好!!!!我很高兴这个话题没有死,还活着,所以我有一个问题要问公众。我有一个用于训练的数据集,但不幸的是,它变得如此之大,训练时间太长。谁能用自己的作品建立一个模型,然后我们一起看看它的效果如何!!!!!。
相反,你的作品集非常小,只有111个特征,452个点。但如果数据是正确的(目标定位不与筹码混淆),那么就有3-4%的优势(准确率-53.5%),如果对于大型投资基金或银行来说,在中期交易中这就足够了,对于具有巨大杠杆和几千美元存款的内部交易来说,当然不够。
 
阿利奥沙
有3-4%的优势(准确性-53.5%)。
使用的是什么型号,以什么方式配置?为什么决定这不是一个随机的结果,我不同意这个数据集,然后47%,然后50,然后53
 
阿利奥沙
相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对大型投资基金或银行来说,中期交易就足够了,对具有巨大杠杆和几千美元存款的内部交易来说,当然不是。

我认为这对于日内交易也是足够的,如果我比信号好50个点进入。我认为如果我们进入比信号好50个点就足够了。你会赚到比价差更好的钱。
 
马克西姆-德米特里耶夫斯基

你能给我一个工作版本的链接和说明吗?

什么意思?与JPrediction的链接?
 
阿利奥沙
相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对于大型投资基金或银行来说,中期交易就足够了,对于具有巨大杠杆和几千美元存款的日内交易来说,当然不是。

我不知道小的情况。这就像3个月内的整个期货合约。问题是别的东西。我还有两个星期没有进入网络。所以我想我要建立一个模型,并在这个样本上运行它。但用JPrediction进行培训将需要数周时间,这并不理想。这就是为什么我想用其他算法得到模型,看看模型是如何工作的。
 
同样,这组数据是用来分类的。也就是说,输出变量已经带有一个预测。如果我们使用弹性模型,我们不需要预测输出变量,我们只需要将模型代理给它,因为输出已经在未来了。就是这样,如果你能正确理解我的话。
 

另一件事是在GPU上运行程序,将计算速度至少提高10-20倍。我认为这里会有进展....但互联网上的信息非常陈旧,我无法弄清楚如何去做。我不太擅长编程。我是一只鸡 :-)

所有这些大惊小怪的想法如下。使用哪种算法并不重要(尽管是谎言,当然很重要。重要的是,要尽量减少对它的再培训)重要的是数据的类型,它们是如何被收集和准备用于培训的。这就是我想检查的内容。我想检查一下我收集的数据中是否真的有鱼。下面是一个例子。