神经网络,如何掌握它们,从哪里开始? - 页 6 12345678910111213...19 新评论 Dmitriy 2009.01.14 06:15 #51 nord >> : 但Better有非常好的结果,这意味着一些东西可以通过适当的使用而存活。 从2008年CHAMPI的结果来看,Better先生和其他CHAMPI参与者使用了NS,他们的顾问在什么地方? 正如我们在2008年看到的那样,锦标赛的领导人是任何类型的顾问,但不是那些有NS的人!他们的工作是为了让人们了解他们的工作。 这导致了另一个问题:Better`s先生在2007年被枪杀不是一个意外吗? Aleksandr Pak 2009.01.14 07:17 #52 TS中的NS是一种具有冗余性的配合。 但即使是神经网络的冗余可能也不足以使其盈利。 Neutron 2009.01.14 07:25 #53 TheXpert писал(а)>> 胡说八道。 在许多问题上,4层的Perspectron显示出更好的结果和收敛性。 而在一些地方,使用的是5层的。它的中间隐藏层捕捉中间数据以进行额外的分析。 顺便说一句,就这一点而言,部署的再循环网络不过是一个perseptron。而部署的非线性RNS只是一个5层的perseptron。 对于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时保持沉默。 这有点复杂。 我知道,不久前有两个定理被证明。根据第一种,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的逼近器,进一步增加层数并不增加网络功率。根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,原则上存在非线性,具体是什么并不重要--sigmoid或arctangent。这使我们不必再试图寻找同等条件下的最佳选择。 这两个定理从根本上简化了我们对NS架构的选择,明显减少了可能的研究工作量。 此外,我们证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在没有参与网络训练的数据上,预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。在现有的MS能力下,它明显地节省了时间和力量。 Владислав 2009.01.14 07:28 #54 Andrey4-min >> : 亲爱的论坛成员,这个主题是神经网络,如何掌握它,从哪里开始? 让我们走近这个话题.... 更贴近主题?没问题!从写一个神经元开始,然后把它们组合成一个网络。而先进的软件是为以后准备的。所有其他建议都是垃圾。 Борис 2009.01.14 07:30 #55 Korey >> : TS中的NS是一个有多余的配件。 tc中的任何矩阵装置都是一种拟合。 以古代的拟合方式为例--双参数指数平滑法,一点也不比AI和NS差。 Neutron 2009.01.14 07:39 #56 PraVedNiK писал(а)>> 双参数指数平滑法,不比AI和NS差。 这是正确的:双参数指数平滑并不比双输入NS差。 另一方面,在实际的NS中,我们可以自由选择输入的维度。对于价格类型的BP,典型的维度在10-100之间。在这里,要建立一个有如此多参数的穆夫是很困难的,当然也不可能在合理的时间内优化它们。为此,NS采用了错误反向传播的方法,这比测试器中的遗传算法快得多,比愚蠢的参数搜索更快。 Aleksandr Pak 2009.01.14 07:43 #57 与TS中的NS一起工作让我感到恐惧--我不必思考,没有必要。 即所有的担心都像对女孩一样:什么收费,什么时候喂食,什么与什么比较=某种罪过。 我已经下定决心,进行了测试,并把我的手放在裤子里(玩球)),期待着结果。 计算机工作 - 交易员rests)))),没有任何个人因素。 Neutron 2009.01.14 07:48 #58 不,如果你有足够的毅力和知识,可以将理论框架与在科蒂尔上发现的规律性结合起来,那么请你--利用它来发挥你的优势吧!你会发现,在科蒂尔上发现的规律性有很多。但这种模式会持续多久呢?这些都不是力学定律,力学定律是永恒的。明天,市场趋势将发生变化,你将不得不拿着一张纸,数着...让有NS的TS来做吧。愚蠢,但铁定的。 Борис 2009.01.14 07:54 #59 Neutron >> : ... 使用反向传播方法,明显比测试器中的遗传算法快,更不用说哑巴参数枚举了。 反向传播法并不能保证找到误差函数的全局最小值,对于10-100个输入来说 在网络的输入端...实际上,目前还没有人取消网络的缩减;如果事先对主成分进行分析,两个输入就足够了,但麻烦的是,这种分析以及训练也是在历史上进行的。 Neutron 2009.01.14 08:05 #60 好了,不要对自己那么苛刻。毕竟,网络有时会被重新训练(我在分析的每一个BP上都会这样做),而平均法会找到一个最小值。至于降维,不幸的是,它对像价格BPs这样的BPs不起作用,没有达到你所提出的程度。 12345678910111213...19 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
但Better有非常好的结果,这意味着一些东西可以通过适当的使用而存活。
从2008年CHAMPI的结果来看,Better先生和其他CHAMPI参与者使用了NS,他们的顾问在什么地方?
正如我们在2008年看到的那样,锦标赛的领导人是任何类型的顾问,但不是那些有NS的人!他们的工作是为了让人们了解他们的工作。
这导致了另一个问题:Better`s先生在2007年被枪杀不是一个意外吗?
但即使是神经网络的冗余可能也不足以使其盈利。
胡说八道。
在许多问题上,4层的Perspectron显示出更好的结果和收敛性。
而在一些地方,使用的是5层的。它的中间隐藏层捕捉中间数据以进行额外的分析。
顺便说一句,就这一点而言,部署的再循环网络不过是一个perseptron。而部署的非线性RNS只是一个5层的perseptron。
对于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时保持沉默。
这有点复杂。
我知道,不久前有两个定理被证明。根据第一种,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的逼近器,进一步增加层数并不增加网络功率。根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,原则上存在非线性,具体是什么并不重要--sigmoid或arctangent。这使我们不必再试图寻找同等条件下的最佳选择。
这两个定理从根本上简化了我们对NS架构的选择,明显减少了可能的研究工作量。
此外,我们证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在没有参与网络训练的数据上,预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。在现有的MS能力下,它明显地节省了时间和力量。
亲爱的论坛成员,这个主题是神经网络,如何掌握它,从哪里开始?
让我们走近这个话题....
更贴近主题?没问题!从写一个神经元开始,然后把它们组合成一个网络。而先进的软件是为以后准备的。所有其他建议都是垃圾。
TS中的NS是一个有多余的配件。
tc中的任何矩阵装置都是一种拟合。
以古代的拟合方式为例--双参数指数平滑法,一点也不比AI和NS差。
双参数指数平滑法,不比AI和NS差。
这是正确的:双参数指数平滑并不比双输入NS差。
另一方面,在实际的NS中,我们可以自由选择输入的维度。对于价格类型的BP,典型的维度在10-100之间。在这里,要建立一个有如此多参数的穆夫是很困难的,当然也不可能在合理的时间内优化它们。为此,NS采用了错误反向传播的方法,这比测试器中的遗传算法快得多,比愚蠢的参数搜索更快。
即所有的担心都像对女孩一样:什么收费,什么时候喂食,什么与什么比较=某种罪过。
我已经下定决心,进行了测试,并把我的手放在裤子里(玩球)),期待着结果。
计算机工作 - 交易员rests)))),没有任何个人因素。
...
使用反向传播方法,明显比测试器中的遗传算法快,更不用说哑巴参数枚举了。
反向传播法并不能保证找到误差函数的全局最小值,对于10-100个输入来说
在网络的输入端...实际上,目前还没有人取消网络的缩减;如果事先对主成分进行分析,两个输入就足够了,但麻烦的是,这种分析以及训练也是在历史上进行的。