交易中的机器学习:理论、模型、实践和算法交易 - 页 391 1...384385386387388389390391392393394395396397398...3399 新评论 Forester 2017.06.10 11:31 #3901 Dr. Trader: 这是在雷舍托夫的RNN,即概率模型。然后是米哈伊尔使用的jPredictor。Reshetov的神经元,有大量的输入,和某种训练,而不是梯度下降。试图解决Alglib在NS上的第一个帖子中的问题。该网络是20-5-1。成功。但是非常长,你有大约2秒的解决方案。我的计算平均为10-20分钟,从1个周期看,2分钟内有变体,但显然它是偶然绊倒的,我必须设置20个周期的学习才可靠......或100000次迭代,如下面的变体提醒:训练中的平均误差(60.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2 提醒:验证中的平均误差(20.0%)部分=0。000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2 提示:测试的平均误差(20.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2 计算时间=22.30分钟 0 总重量=3.2260 1 总重量=0.0000 2 总重量=3.2258 3 总重量=0.0000 4 总重量=8.7035 5 总重量=0.0000 6 总重量=3.2253 7 总重量=0.0000 8 总重量=3.2258 9 总重量=0。0000 10 权重之和=3.2251 11 权重之和=0.0000 12 权重之和=0.0000 13 权重之和=0.0000 14 权重之和=0.0000 15 权重之和=0.0000 16 权重之和=0.0000 17 权重之和=0.0000 18 权重之和=0.0000 19 权重之和=0.0000我希望能更快地... 如果问题不是出在20个输入上,而是出在200个输入上,那就得花上几十个小时。 筛选出与产出相关度低或与其他输入相关度高的,就会去掉重要的输入,甚至试过费雪的 LDA--也会去掉重要的输入。所以用这些方法进行筛选并没有帮助,相反,它阻碍了。 显然,一次解决所有的输入,通过权重之和筛选出输入,得到一个模型供将来使用,仍然是一个漫长的解决方案。然后每周重新训练一次,例如,在截断的输入数量上。 我在想,也许是为了速度,把这个任务交给MS Azure来获得输入的总权重,然后在我的模型中使用它们。我做了一些实验,但我没有看到权重是从哪里来的......。 Mihail Marchukajtes 2017.06.10 11:50 #3902 这就对了,兄弟们!!!。这是正确的,使用Resolute的优化器。所以我想在GPU上运行计算。有人做过这样的事吗?由于JPrediction是并行化的,所以只需在GPU上运行程序即可。有没有人知道如何在GPU上运行JAVA程序?我认为有用的知识是.... Maxim Dmitrievsky 2017.06.10 14:09 #3903 Mihail Marchukajtes: 这就对了,兄弟们!!。我有,我使用Resolute的优化器。所以我想在GPU上运行计算。谁会这样做呢?由于JPrediction是并行化的,所以只需在GPU上运行程序即可。有没有人知道如何在GPU上运行JAVA程序?我认为有用的知识是.... 你能给我一个工作版本的链接和说明吗? Алёша 2017.06.10 14:38 #3904 Mihail Marchukajtes: 大家好!!!!我很高兴这个话题没有死,还活着,所以我有一个问题要问公众。我有一个用于训练的数据集,但不幸的是,它变得如此之大,训练时间太长。谁能用自己的作品建立一个模型,然后我们一起看看它的效果如何!!!!!。 相反,你的作品集非常小,只有111个特征,452个点。但如果数据是正确的(目标定位不与筹码混淆),那么就有3-4%的优势(准确率-53.5%),如果对于大型投资基金或银行来说,在中期交易中这就足够了,对于具有巨大杠杆和几千美元存款的内部交易来说,当然不够。 pantural 2017.06.10 15:23 #3905 阿利奥沙。 有3-4%的优势(准确性-53.5%)。 使用的是什么型号,以什么方式配置?为什么决定这不是一个随机的结果,我不同意这个数据集,然后47%,然后50,然后53 Mihail Marchukajtes 2017.06.10 15:45 #3906 阿利奥沙。 相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对大型投资基金或银行来说,中期交易就足够了,对具有巨大杠杆和几千美元存款的内部交易来说,当然不是。 我认为这对于日内交易也是足够的,如果我比信号好50个点进入。我认为如果我们进入比信号好50个点就足够了。你会赚到比价差更好的钱。 Mihail Marchukajtes 2017.06.10 15:46 #3907 马克西姆-德米特里耶夫斯基。 你能给我一个工作版本的链接和说明吗? 什么意思?与JPrediction的链接? Mihail Marchukajtes 2017.06.10 15:48 #3908 阿利奥沙。 相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对于大型投资基金或银行来说,中期交易就足够了,对于具有巨大杠杆和几千美元存款的日内交易来说,当然不是。 我不知道小的情况。这就像3个月内的整个期货合约。问题是别的东西。我还有两个星期没有进入网络。所以我想我要建立一个模型,并在这个样本上运行它。但用JPrediction进行培训将需要数周时间,这并不理想。这就是为什么我想用其他算法得到模型,看看模型是如何工作的。 Mihail Marchukajtes 2017.06.10 15:51 #3909 同样,这组数据是用来分类的。也就是说,输出变量已经带有一个预测。如果我们使用弹性模型,我们不需要预测输出变量,我们只需要将模型代理给它,因为输出已经在未来了。就是这样,如果你能正确理解我的话。 Mihail Marchukajtes 2017.06.10 15:57 #3910 另一件事是在GPU上运行程序,将计算速度至少提高10-20倍。我认为这里会有进展....但互联网上的信息非常陈旧,我无法弄清楚如何去做。我不太擅长编程。我是一只鸡 :-)所有这些大惊小怪的想法如下。使用哪种算法并不重要(尽管是谎言,当然很重要。重要的是,要尽量减少对它的再培训)重要的是数据的类型,它们是如何被收集和准备用于培训的。这就是我想检查的内容。我想检查一下我收集的数据中是否真的有鱼。下面是一个例子。 1...384385386387388389390391392393394395396397398...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这是在雷舍托夫的RNN,即概率模型。
然后是米哈伊尔使用的jPredictor。Reshetov的神经元,有大量的输入,和某种训练,而不是梯度下降。
试图解决Alglib在NS上的第一个帖子中的问题。该网络是20-5-1。成功。但是非常长,你有大约2秒的解决方案。我的计算平均为10-20分钟,从1个周期看,2分钟内有变体,但显然它是偶然绊倒的,我必须设置20个周期的学习才可靠......或100000次迭代,如下面的变体
提醒:训练中的平均误差(60.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
提醒:验证中的平均误差(20.0%)部分=0。000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
提示:测试的平均误差(20.0%)部分=0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
计算时间=22.30分钟
0 总重量=3.2260
1 总重量=0.0000
2 总重量=3.2258
3 总重量=0.0000
4 总重量=8.7035
5 总重量=0.0000
6 总重量=3.2253
7 总重量=0.0000
8 总重量=3.2258
9 总重量=0。0000
10 权重之和=3.2251
11 权重之和=0.0000
12 权重之和=0.0000
13 权重之和=0.0000
14 权重之和=0.0000
15 权重之和=0.0000
16 权重之和=0.0000
17 权重之和=0.0000
18 权重之和=0.0000
19 权重之和=0.0000
我希望能更快地...
如果问题不是出在20个输入上,而是出在200个输入上,那就得花上几十个小时。
筛选出与产出相关度低或与其他输入相关度高的,就会去掉重要的输入,甚至试过费雪的 LDA--也会去掉重要的输入。所以用这些方法进行筛选并没有帮助,相反,它阻碍了。
显然,一次解决所有的输入,通过权重之和筛选出输入,得到一个模型供将来使用,仍然是一个漫长的解决方案。然后每周重新训练一次,例如,在截断的输入数量上。
我在想,也许是为了速度,把这个任务交给MS Azure来获得输入的总权重,然后在我的模型中使用它们。我做了一些实验,但我没有看到权重是从哪里来的......。
这就对了,兄弟们!!。我有,我使用Resolute的优化器。所以我想在GPU上运行计算。谁会这样做呢?由于JPrediction是并行化的,所以只需在GPU上运行程序即可。有没有人知道如何在GPU上运行JAVA程序?我认为有用的知识是....
你能给我一个工作版本的链接和说明吗?
大家好!!!!我很高兴这个话题没有死,还活着,所以我有一个问题要问公众。我有一个用于训练的数据集,但不幸的是,它变得如此之大,训练时间太长。谁能用自己的作品建立一个模型,然后我们一起看看它的效果如何!!!!!。
有3-4%的优势(准确性-53.5%)。
相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对大型投资基金或银行来说,中期交易就足够了,对具有巨大杠杆和几千美元存款的内部交易来说,当然不是。
我认为这对于日内交易也是足够的,如果我比信号好50个点进入。我认为如果我们进入比信号好50个点就足够了。你会赚到比价差更好的钱。
你能给我一个工作版本的链接和说明吗?
什么意思?与JPrediction的链接?
相反,你的作品集非常小,只有111个特征,452个点。但如果合理地收集数据(目标定位不与筹码混淆),则有3-4%的优势(准确率-53.5%),如果对于大型投资基金或银行来说,中期交易就足够了,对于具有巨大杠杆和几千美元存款的日内交易来说,当然不是。
我不知道小的情况。这就像3个月内的整个期货合约。问题是别的东西。我还有两个星期没有进入网络。所以我想我要建立一个模型,并在这个样本上运行它。但用JPrediction进行培训将需要数周时间,这并不理想。这就是为什么我想用其他算法得到模型,看看模型是如何工作的。
另一件事是在GPU上运行程序,将计算速度至少提高10-20倍。我认为这里会有进展....但互联网上的信息非常陈旧,我无法弄清楚如何去做。我不太擅长编程。我是一只鸡 :-)
所有这些大惊小怪的想法如下。使用哪种算法并不重要(尽管是谎言,当然很重要。重要的是,要尽量减少对它的再培训)重要的是数据的类型,它们是如何被收集和准备用于培训的。这就是我想检查的内容。我想检查一下我收集的数据中是否真的有鱼。下面是一个例子。