交易中的机器学习:理论、模型、实践和算法交易 - 页 681

 
我正在我所在的论坛上发起一个关于在培训中使用Python的话题。它将描述一个交易商可能需要开发一个MTS的一切。不会有现成的战略。任务是找到一种创造有利可图的MTS的 "算法"。而且,将使用什么方法并不重要。最主要的是,它们必须是有用的。链接将出现在我的新闻联播 中。
 
格里戈里-乔宁
在MT中使用神经网络,一切都很简单。有一个由微软CNTK提供的库。它是为Python、C#和C++实现的。所有的网络分析和训练都是在Python中完成的,而C++被用来编写一个DLL,加载训练好的网络并使用它进行计算。在我看来,这是最好的选择。第二个选项,Python与MT的连接。我已经为此写了一个简单的库。图书馆。我们把它连接起来,可以使用Python中可用的一切。而且有很多东西可用。我在想,我是否应该在我的博客中开始写机器学习。
能否请你解释一下,在初始化脚本后,它在内存中挂起?也就是说,由python脚本加载的模块也应该挂在内存中,对吗?
 
是的,MQL代码应该在每一个刻度上调用 Python脚本函数
 
马克西姆-德米特里耶夫斯基

阅读有关战略和个人想法/经验的文章会很有趣......对我个人而言。

因为他们在这里写的大部分东西都是废话,说要翻阅一堆图书馆,什么东西比较好写......这是一种流行病,一切都被浪费了。

虽然fxsaber很久以前就提出了这个基本想法--用同样的方法,这个主题可能会被关闭,因为它从一开始就是错误的。

我同意。

这个话题已经变成了一个完全的垃圾,没有具体的例子和理论。

让我们来纠正这种情况。

首先--我建议大家阅读如何定义预测的样本量(见附件文件)。

附加的文件:
 
亚历山大_K2

我同意。

这个话题已经变成了完全的垃圾,没有具体的例子或理论。

让我们来解决这个问题。

首先--我建议大家阅读如何确定预测的样本量(见附件文件)。

谢谢你,亚历山大,也许你会从中得到一些有用的东西,我会读的。

 
亚历山大_K2

我同意。

这个话题已经变成了完全的垃圾,没有具体的例子或理论。

让我们来解决这个问题。

首先--我建议大家阅读如何确定预测的样本量(见附件文件)。

一篇精彩的文章,其本质是。文章中概述的结果是非常缺乏的。正是由于缺乏这样的工作,才为 "垃圾进,垃圾出 "的分支提供了蓬勃发展的基础。


但这篇文章是以soveticus的条件性传统提出的--美丽的理论,没有实际用途: 没有代码

 

目前,有一个稳定的模式。仍需努力,但忙于其他任务。

输入=价格+13,26耶马。

预处理,输出 = sigmoid (max, min, close), delta (open-close), derivative (max, min, close), logarithm of derivative (max, min, close), detrend (close-eme13, close-eme26), yema(13, 26), derivative yema(13, 26); 将数据集转换成数据集时间序列(1蜡烛+5最后)。总共16 x 6 = 96个参数。

建筑。
BatchNormalization(96)。
GRU(96, L2, Dropout=0.5, 'elu')。
GRU(64, L2, Dropout=0.5, 'elu')。
BatchNormalization(64, Dropout=0.3)。
Dense(32, Dropout=0.3, 'elu')。
Dense(16, 'elu')。
Dense(8, 'elu')。
Dense(3, 'softmax')。
优化器=Nadam。
损失=分类交叉熵。

BouncedMA信号退出前方的蜡烛(在分支的上方)。

估计:损失~0.7-0.8;精确度~0.55。
但对模型的这种估计并不能说明其信号的质量。它们更低,由于信号是训练=1.0, 0.95, 0.0, -0.95, -1.0, 而买/卖类预测波动~abs(0.45, 0.7)。
另外,在5000行的数据集中,训练运行在0.8部分,这意味着模型甚至没有看到最新的报价数据(约1000行)。预测是根据最后100个蜡烛图进行的。

棱镜

模型

损失累计

正如你所看到的,训练可以在~45 epochs时停止。

预测

代码指示器

 
Vizard_

)))

有强化的学习=没有老师的学习。一个非常贪婪的算法。

昏昏沉沉的马克西姆卡走进一家赌场。在他面前的是一堆 "独臂强盗 "机器。他开始玩弄每个人,并记录结果。

事实证明,其中一台机器更好,快乐的马克西姆开始只用它来玩。但他的幸福并没有持续很久......。

http://www.machinelearning.ru/wiki/index.php?title=Reinforcement_learning


是的,我已经通过了土匪:)可以使Epsilon贪婪,并定期从一个人跑到另一个人。

 
 

这是个非常好的帖子。谢谢你,我从来没有想过这个问题。

它是这样的 --

I )我们采取一个神经元,使其在现场交易,同时捡起其配置。庄家为其利润而疯狂,庄家开始对其进行价格调动,但它不知何故准备好了,仍然进行有利可图的交易,庄家将交易复制到银行间,这使交易所 的交易机器人疯狂,它们开始变得缓慢,全球市场走向架空和毁灭。代理人与环境进行互动。这是有强化作用的交易。我想在最近的一个星期一,一些谷歌正在用增援部队测试他们的新交易机器人,这正好适合。

二)我们取一个神经元,让它在历史上进行交易。找到理想的权重和神经元的配置,使其能够在历史上完美交易。强化并不奏效,它是没有老师的学习。而最有可能的是,它将被过度喂养而失败。


简而言之,计划是有一百个美分的真实账户,每个账户有一个神经元,交易几天。遗传学收集了神经元的结果,并拿起它们的新配置,每隔几天就会生成新的机器人,然后等待结果,再次创建新的机器人。