交易中的机器学习:理论、模型、实践和算法交易 - 页 605 1...598599600601602603604605606607608609610611612...3399 新评论 Maxim Dmitrievsky 2018.01.24 19:42 #6041 elibrarius。 我想自动确定网络中神经元的数量。计算的公式是什么?我在某处读到,输入层应该是输入层的一半大小,最多两层,再多就没有意义了。为MLP Maxim Dmitrievsky 2018.01.24 19:43 #6042 他不再教书了。 他得到了足够多的傻瓜,于是开了一家经纪公司。如果你对教育投资是认真的,你应该去找Gerchik或者直接去找Perepelkin。佩雷佩尔金不再教书了,他得到了足够的吸食者,并开了一家dc。 Yuriy Asaulenko 2018.01.24 20:45 #6043 马克西姆-德米特里耶夫斯基。我在某处读到,inlayer应该是输入层的一半大小,最多2层,再多就没有意义了。这是为了MLP 绝对是胡说八道。要么更少,要么更多,而神经元或层--这一切都取决于任务。Heikin(我想你有)描述了如何以及为什么。 Maxim Dmitrievsky 2018.01.24 20:53 #6044 尤里-阿索连科。 绝对是胡说八道。它可能更少或更多 - 这取决于任务。Heikin(我想你有一个)描述了如何和为什么。我没有看到他的这些信息,也许我没有仔细阅读。 Yuriy Asaulenko 2018.01.24 21:05 #6045 马克西姆-德米特里耶夫斯基。我没有看到他的这些信息,也许我没有仔细阅读。第2层通常比输入层大,因为它开始提取特征,而且可能有很多这样的特征,即使你有一个是/否分类。海金肯定有,而且写得比我好得多)。 Forester 2018.01.24 21:05 #6046 尤里-阿索连科。 绝对是胡说八道。可能有更少或更多的神经元和层 - 这取决于任务。海金(我想你有)描述了如何以及为什么。我见过一个关于输入数/2和其他的变体。 如何自动计算出最佳变体? Yuriy Asaulenko 2018.01.24 21:08 #6047 elibrarius。我见过输入的数量/2的选项和其他的。 我如何自动计算出最佳方案? 我可能是错的,但在我看来--不可能。你从一般的考虑中选择,然后根据训练的结果,你在层中添加/删除神经元,甚至添加/删除额外的层。 Maxim Dmitrievsky 2018.01.24 21:11 #6048 尤里-阿索连科。第2层通常比输入层大,因为它开始提取特征,而且可能有很多这样的特征,即使你有一个是/否分类。海金肯定有,而且比我的写得好得多)。经验法则是,这个[隐藏]层的大小介于输入层的大小之间 ...和输出层的大小....为了计算隐藏节点的数量,我们使用一般规则:(输入数+输出数)x 2/3这是最常见的建议......但一般来说,有一些确定的方法,你必须阅读谷歌,但那里很复杂NS不提取任何特征,特征被送入输入。它对所有组合进行降采样或切分(随着神经元数量的增加)。 Forester 2018.01.24 21:18 #6049 关于选择层数的一句话。一个有三层的网络(numLayers=3:一个输入,一个隐藏和一个输出)通常在绝大多数情况下是足够的。根据Tsybenko定理,具有一个隐藏层的网络能够接近任何连续的多维函数,达到任何所需的精确程度。一个有两个隐藏层的网络能够逼近任何离散的多维函数。我不知道条形分析是指连续的还是离散的函数。 Forester 2018.01.24 21:25 #6050 马克西姆-德米特里耶夫斯基。 NS不提取任何特征,特征被送入输入。它或缩小或缺口所有组合(随着神经元数量的增加)。 有!因此高估神经元的数量也是有害的。它将与噪音一起记住,而不是一概而论。 1...598599600601602603604605606607608609610611612...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我想自动确定网络中神经元的数量。计算的公式是什么?
我在某处读到,输入层应该是输入层的一半大小,最多两层,再多就没有意义了。
为MLP
如果你对教育投资是认真的,你应该去找Gerchik或者直接去找Perepelkin。
佩雷佩尔金不再教书了,他得到了足够的吸食者,并开了一家dc。
我在某处读到,inlayer应该是输入层的一半大小,最多2层,再多就没有意义了。
这是为了MLP
绝对是胡说八道。它可能更少或更多 - 这取决于任务。Heikin(我想你有一个)描述了如何和为什么。
我没有看到他的这些信息,也许我没有仔细阅读。
我没有看到他的这些信息,也许我没有仔细阅读。
第2层通常比输入层大,因为它开始提取特征,而且可能有很多这样的特征,即使你有一个是/否分类。
海金肯定有,而且写得比我好得多)。
绝对是胡说八道。可能有更少或更多的神经元和层 - 这取决于任务。海金(我想你有)描述了如何以及为什么。
我见过一个关于输入数/2和其他的变体。
如何自动计算出最佳变体?
我见过输入的数量/2的选项和其他的。
我如何自动计算出最佳方案?
第2层通常比输入层大,因为它开始提取特征,而且可能有很多这样的特征,即使你有一个是/否分类。
海金肯定有,而且比我的写得好得多)。
经验法则是,这个[隐藏]层的大小介于输入层的大小之间 ...和输出层的大小....
为了计算隐藏节点的数量,我们使用一般规则:(输入数+输出数)x 2/3
这是最常见的建议......但一般来说,有一些确定的方法,你必须阅读谷歌,但那里很复杂
NS不提取任何特征,特征被送入输入。它对所有组合进行降采样或切分(随着神经元数量的增加)。
关于选择层数的一句话。
一个有三层的网络(numLayers=3:一个输入,一个隐藏和一个输出)通常在绝大多数情况下是足够的。根据Tsybenko定理,具有一个隐藏层的网络能够接近任何连续的多维函数,达到任何所需的精确程度。一个有两个隐藏层的网络能够逼近任何离散的多维函数。
我不知道条形分析是指连续的还是离散的函数。
NS不提取任何特征,特征被送入输入。它或缩小或缺口所有组合(随着神经元数量的增加)。