交易中的机器学习:理论、模型、实践和算法交易 - 页 608 1...601602603604605606607608609610611612613614615...3399 新评论 [删除] 2018.01.24 23:26 #6071 交易员博士。听起来就像来自NS的合奏如果我没弄错的话 Aleksei Kuznetsov 2018.01.24 23:33 #6072 交易员博士。然后我们选择模型参数(激活函数、层数及其大小等),每次我们做所有这些步骤(训练5个模型,预测每个模型独有的5个块,结合它们,R2),实现越来越好的估计。那是数以百计的网络需要建立和培训!"。但到目前为止,我没有看到任何其他选择( [删除] 2018.01.24 23:44 #6073 我 现在得去睡觉了。我想,如果你写信给他,给他每小时一千英镑,你就可以从佩尔奇克那里学到个别课程,佩雷佩尔金的费用会高一点,但这是值得的。伙计,你对佩奇克的看法是认真的吗? 这很粗糙)。向雇佣的司机支付1000美元。我对另一个人一无所知......而且我也不想知道)。总之,这一切都很有趣,但我要去睡觉了,这周要完成我的书。 Dr. Trader 2018.01.24 23:47 #6074 马克西姆-德米特里耶夫斯基。 听起来就像一个来自NS的合奏如果我没记错的话。最后你会得到一个正常的合奏,是的。但结果会比 "只对整个电子表格训练5个神经元 "好得多。Vizard_。嗯,是的,标准选项,虽然我更喜欢没有qv,我以前写过......。 医生,试着用不同的参数固定陡度并进行测试。我有LibreOffice,那个神经元在它里面不起作用。elibrarius。那是数以百计的网络需要建立和培训!"。但到目前为止,还没有看到其他选择(这就是为什么我喜欢R中的gbm包,它的学习速度要快上几个数量级。这不是神经元学,而是支架和提升。同样有趣的是,即使是少量的神经网络训练的epochs,k-fold交叉验证对我来说也很正常。epochs的数量是我选择的训练参数之一。小数量的 epochs = 快速学习,这是一个优点。但模型的可能准确性较低,这是一个减分项。 Dr. Trader 2018.01.25 00:06 #6075 交易员博士。我建议你学习如何进行k-fold交叉验证。...还有一个细微的差别是,神经元卡的初始权重是随机设置的,而训练的最终结果可能在很大程度上取决于它,包括对森林和其他模型。 每次在训练模型之前,我都把随机数发生器 的值设置为相同的状态。set.seed(12345)这样我就能得到可重复的结果和稳定性。gpsch谷物值也可以取而代之的是12345,虽然这听起来比较滑稽,但有时是必要的。 Sergey Chalyshev 2018.01.25 00:15 #6076 交易员博士。 另一个细微差别是,神经元卡的初始权重是随机设置的,它可能在很大程度上取决于训练的最终结果,包括对于森林和其他模型。 每次在训练模型之前,我都会将随机数发生器 的值设置为相同的状态。通过这种方式,我得到了可重复性和稳定性。你也可以调整gpsh谷物值,而不是12345,这听起来相当有趣,但有时是必要的。如果你想得到一个好主意,你应该把你的网络扔进垃圾桶,因为它对gpsh值的反应是这样的。 一个正常的网络在任何初始值下都能工作和学习,甚至在零值下也能工作和学习。 Dr. Trader 2018.01.25 00:52 #6077 谢尔盖-查尔舍夫。如果你给这个神经元大量的神经元和层,并进行无限次的训练,那么它在任何初始颗粒的情况下训练到所需的精确度都没有问题。例如,我正在学习预测每条的价格上涨。问题是,价格中有很多噪音(实际价格+-一些随机转变),而且不可能预测噪音。但我们可以使用交叉验证来挑选参数,在这些参数中,模型还不会记住噪声,但会以某种方式编译这些数据,至少在一小部分情况下做出正确的预测。而有了一些初始的权重值后,模型立即开始记忆噪音,而不是试图归纳这些数据,这很糟糕,那么你应该寻找另一个初始颗粒来初始化权重。 [删除] 2018.01.25 04:12 #6078 谢尔盖-查尔舍夫。 如果你的网络对gpsh值反应这么大,就把它扔进垃圾桶吧。 一个正常的网络可以在任何初始值下工作和学习,甚至是零。这只是另一种阐释,你不能在动态系统中使用静态方法。这只是对动态系统不应该使用静态方法这一事实的又一次阐释。 [删除] 2018.01.25 06:46 #6079 好吧,我们现在来看看在时间线上学习的架构,而不是海豹突击队的图片,选项一。 [删除] 2018.01.25 08:04 #6080 选项2。我的意思是,结合NS和自动机似乎是一个很好的解决方案,有积极和消极的电路,但谁和如何实现它是另一个问题。对我个人来说,这种方法是最明显的 1...601602603604605606607608609610611612613614615...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
听起来就像来自NS的合奏
如果我没弄错的话
然后我们选择模型参数(激活函数、层数及其大小等),每次我们做所有这些步骤(训练5个模型,预测每个模型独有的5个块,结合它们,R2),实现越来越好的估计。
那是数以百计的网络需要建立和培训!"。但到目前为止,我没有看到任何其他选择(
我想,如果你写信给他,给他每小时一千英镑,你就可以从佩尔奇克那里学到个别课程,佩雷佩尔金的费用会高一点,但这是值得的。
伙计,你对佩奇克的看法是认真的吗? 这很粗糙)。
向雇佣的司机支付1000美元。
我对另一个人一无所知......而且我也不想知道)。
总之,这一切都很有趣,但我要去睡觉了,这周要完成我的书。
听起来就像一个来自NS的合奏
如果我没记错的话。
最后你会得到一个正常的合奏,是的。但结果会比 "只对整个电子表格训练5个神经元 "好得多。
嗯,是的,标准选项,虽然我更喜欢没有qv,我以前写过......。
医生,试着用不同的参数固定陡度并进行测试。
我有LibreOffice,那个神经元在它里面不起作用。
那是数以百计的网络需要建立和培训!"。但到目前为止,还没有看到其他选择(
这就是为什么我喜欢R中的gbm包,它的学习速度要快上几个数量级。这不是神经元学,而是支架和提升。
同样有趣的是,即使是少量的神经网络训练的epochs,k-fold交叉验证对我来说也很正常。epochs的数量是我选择的训练参数之一。小数量的 epochs = 快速学习,这是一个优点。但模型的可能准确性较低,这是一个减分项。
我建议你学习如何进行k-fold交叉验证。
...
还有一个细微的差别是,神经元卡的初始权重是随机设置的,而训练的最终结果可能在很大程度上取决于它,包括对森林和其他模型。
每次在训练模型之前,我都把随机数发生器 的值设置为相同的状态。
set.seed(12345)这样我就能得到可重复的结果和稳定性。gpsch谷物值也可以取而代之的是12345,虽然这听起来比较滑稽,但有时是必要的。
另一个细微差别是,神经元卡的初始权重是随机设置的,它可能在很大程度上取决于训练的最终结果,包括对于森林和其他模型。
每次在训练模型之前,我都会将随机数发生器 的值设置为相同的状态。
通过这种方式,我得到了可重复性和稳定性。你也可以调整gpsh谷物值,而不是12345,这听起来相当有趣,但有时是必要的。
如果你想得到一个好主意,你应该把你的网络扔进垃圾桶,因为它对gpsh值的反应是这样的。 一个正常的网络在任何初始值下都能工作和学习,甚至在零值下也能工作和学习。
如果你给这个神经元大量的神经元和层,并进行无限次的训练,那么它在任何初始颗粒的情况下训练到所需的精确度都没有问题。
例如,我正在学习预测每条的价格上涨。问题是,价格中有很多噪音(实际价格+-一些随机转变),而且不可能预测噪音。但我们可以使用交叉验证来挑选参数,在这些参数中,模型还不会记住噪声,但会以某种方式编译这些数据,至少在一小部分情况下做出正确的预测。而有了一些初始的权重值后,模型立即开始记忆噪音,而不是试图归纳这些数据,这很糟糕,那么你应该寻找另一个初始颗粒来初始化权重。
如果你的网络对gpsh值反应这么大,就把它扔进垃圾桶吧。 一个正常的网络可以在任何初始值下工作和学习,甚至是零。
这只是另一种阐释,你不能在动态系统中使用静态方法。
这只是对动态系统不应该使用静态方法这一事实的又一次阐释。
好吧,我们现在来看看在时间线上学习的架构,而不是海豹突击队的图片,选项一。
选项2。
我的意思是,结合NS和自动机似乎是一个很好的解决方案,有积极和消极的电路,但谁和如何实现它是另一个问题。对我个人来说,这种方法是最明显的