交易中的机器学习:理论、模型、实践和算法交易 - 页 408 1...401402403404405406407408409410411412413414415...3399 新评论 Aleksey Terentev 2017.06.13 13:59 #4071 大家下午好。 让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成? Mihail Marchukajtes 2017.06.13 15:02 #4072 令人惊讶的是,该文件是可读的,模型的质量很差,谁愿意在验证....。 附加的文件: dummy_set_features.mqh 6 kb Forester 2017.06.13 15:09 #4073 Mihail Marchukajtes:令人惊讶的是,文件是可读的,模型的质量很弱,谁愿意在验证....。在一个文件中,它被写成* 真正的积极因素:853* 真负数:1098* 假阳性率:732* 假阴性率:985即几乎是50/50。 我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入真的会扰乱RNN的结果。 Mihail Marchukajtes 2017.06.13 15:15 #4074 elibrarius。该文件说* 真正的积极因素:853* 真负数:1098* 假阳性率:732* 假阴性率:985即几乎是50/50。 我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。 这是正确的,该模型的通用性是52%,所以... Vladimir Perervenko 2017.06.13 15:16 #4075 Aleksey Terentev: 大家下午好。 让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成?通常情况下,除了少数爱好者试图用MQL重写一些模型外,一切都在R中完成。关于软件包--这取决于人们使用哪种模型--树、神经网络、深度神经网络 等。你对哪个型号感兴趣?祝好运 Mihail Marchukajtes 2017.06.13 15:17 #4076 弗拉基米尔-佩雷文科。通常情况下,除了一些爱好者试图用MCL重写一些模型外,一切都在R中完成。至于包,这取决于人们使用哪种模型--树、神经网络、深度神经网络等。你对哪个型号感兴趣?祝好运 你忘了雷舍托夫的优化器,这里也用了....。 Forester 2017.06.13 15:18 #4077 elibrarius。该文件说* 真正的积极因素:853* 真负数:1098* 假阳性率:732* 假阴性率:985即几乎是50/50。 我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。 一个正常的MLP 20-5-1可以对同样的问题做到这一点。训练的平均误差(60.0%)情节=0.116(11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 计算时间=0.77分钟。虽然有时也会给出50%,但我想我需要2个以上的再培训周期。---------------------------------网络nnet 20-1-1的R : 预测的 实际 0 1 误差 0 0.41 0.09 0.18 1 0.24 0.26 0.48稍微差一点,但只需几秒钟就能解决。但在训练部分,RNN的误差=0。这也很酷。我可能会把我的实验写进博客 Machine learning in trading: 静态数组 ? static array ? Mihail Marchukajtes 2017.06.13 15:22 #4078 elibrarius。 一个普通的MLP 20-5-1可以产生这样的相同问题。训练中的平均误差(60.0%)情节=0.116(11.6%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 计算时间=0.77分钟---------------------------------网络nnet 20-1-1来自R : 预测的 实际 0 1 误差 0 0.41 0.09 0.18 1 0.24 0.26 0.48 稍微差一点,但只需几秒钟就能解决。 我们在这里要有一点不同的理解,解决一个问题并不是一件难事,但模型将以何种方式进一步表现,这才是问题所在。我们可以快速学习,没有错误。但有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO Forester 2017.06.13 15:23 #4079 Mihail Marchukajtes: 我们必须认识到,解决问题并不是一件难事,但模型之后的表现方式才是问题所在。我们可以快速学习,没有错误。而有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO因此,这里是新的数据。验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 测试时的平均误差(20.0%)现场=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 Mihail Marchukajtes 2017.06.13 15:25 #4080 elibrarius。因此,这里是新的数据。验证的平均误差(20.0%)情节=0.111(11.1%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 测试的平均误差(20.0%)情节=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 我不是在争论,可能是...:-) 1...401402403404405406407408409410411412413414415...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
大家下午好。
让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成?
令人惊讶的是,该文件是可读的,模型的质量很差,谁愿意在验证....。
令人惊讶的是,文件是可读的,模型的质量很弱,谁愿意在验证....。
在一个文件中,它被写成
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985
即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入真的会扰乱RNN的结果。
该文件说
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985
即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。
这是正确的,该模型的通用性是52%,所以...
大家下午好。
让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成?
通常情况下,除了少数爱好者试图用MQL重写一些模型外,一切都在R中完成。关于软件包--这取决于人们使用哪种模型--树、神经网络、深度神经网络 等。
你对哪个型号感兴趣?
祝好运
通常情况下,除了一些爱好者试图用MCL重写一些模型外,一切都在R中完成。至于包,这取决于人们使用哪种模型--树、神经网络、深度神经网络等。
你对哪个型号感兴趣?
祝好运
你忘了雷舍托夫的优化器,这里也用了....。
该文件说
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985
即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。
一个正常的MLP 20-5-1可以对同样的问题做到这一点。
训练的平均误差(60.0%)情节=0.116(11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
计算时间=0.77分钟。
虽然有时也会给出50%,但我想我需要2个以上的再培训周期。
---------------------------------
网络nnet 20-1-1的R :
预测的
实际 0 1 误差
0 0.41 0.09 0.18
1 0.24 0.26 0.48
稍微差一点,但只需几秒钟就能解决。
但在训练部分,RNN的误差=0。这也很酷。我可能会把我的实验写进博客
一个普通的MLP 20-5-1可以产生这样的相同问题。
训练中的平均误差(60.0%)情节=0.116(11.6%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
计算时间=0.77分钟
---------------------------------
网络nnet 20-1-1来自R :
稍微差一点,但只需几秒钟就能解决。预测的
实际 0 1 误差
0 0.41 0.09 0.18
1 0.24 0.26 0.48
我们在这里要有一点不同的理解,解决一个问题并不是一件难事,但模型将以何种方式进一步表现,这才是问题所在。我们可以快速学习,没有错误。但有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO
我们必须认识到,解决问题并不是一件难事,但模型之后的表现方式才是问题所在。我们可以快速学习,没有错误。而有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO
因此,这里是新的数据。
验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试时的平均误差(20.0%)现场=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
因此,这里是新的数据。
验证的平均误差(20.0%)情节=0.111(11.1%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)情节=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
我不是在争论,可能是...:-)