脚本形式的神经网络 - 页 12

 
TheXpert писал (а)>>

然而,许多问题是用5层perseptron解决的,该定理的存在并不意味着3层perseptron就是万能的。

它简单地说,所有(除了极少数例外)的问题都是由带有一个隐藏层的2层perseptron来解决的!这也是一个很好的例子。是的,关于术语,似乎你把NS的输入节点(那些不包含神经元的节点)算作一个层,而我没有。

哪个更好 -- 使用5-6-6-2网络或5-25-2的3层替代?这么大的数字很可能是为了确保适当的非线性。

我会使用X-Y-1架构--它解决了这个问题。我将通过实验调整隐藏层Y的神经元数量,从2开始,一直到网络的泛化特性不能改善为止。根据我微薄的经验,对于许多实际的实现,这一层有两个神经元就足够了。进一步增加神经元的数量,训练时间就会增加,而且由于突触数量的增加,我们必须增加训练样本或输入维度的大小,这导致 "处理 "无关紧要的信息或恶化NS的近似属性(根据Ezhov,这些属性下降为1/d,其中d是输入的数量)等等,这不是好事。

当然,建立一个十层的perseptron也是可能的,它将会工作......但这有什么意义?

 
Neutron писал (а)>>

简单地说,所有(除了极少数例外)的问题都可以由一个隐藏层的2层perseptron来解决!这就是为什么我们要把所有的问题都放在一个隐藏层上。是的,关于术语,似乎你把NS的输入节点(那些不包含神经元的节点)算作一个层,而我没有。

我会使用X-Y-1架构--它解决了这个问题。我将通过实验选择隐藏层Y的神经元数量,从2开始,直到网络的泛化特性不会改善。根据我微薄的经验,对于许多实际的实现,这一层有两个神经元就足够了。进一步增加神经元的数量,训练的时间就会增加,由于突触数量的增加,我们必须增加训练样本的大小或输入的维度,这导致 "处理 "无关紧要的信息或NS的近似特性的恶化(根据Ezhov,这些特性下降为1/d,其中d是输入的数量),等等,这不是好事。

比方说,我们的输入有10个。隐蔽层中有2个就够了吗?我不相信,这并不是一个相当简单的任务。

关于输入层。有时值得做一个有阈值的输入层,所以最好把它当作另一个层,作为整个系统的一个组成部分。

 
sergeev писал (а)>>


嗯......有什么办法可以总结出这个最佳方案吗。而关于5层和3层的,我也想知道。理论在哪里?



关于最佳状态--我个人的,也许是错误的经验。关于层数的问题--我在实践中遇到过。这取决于输入-输出转换的非线性,大多数问题可以用3层网络解决。关于理论,对不起,那是很久以前的事了......

 
TheXpert писал (а)>>

然而,许多问题可以通过5层perseptron来解决,该定理的存在并不意味着3层perseptron是万能的。


5-6-6-2网络和3层的5-25-2替换,哪个更好?这样一个大的数字很可能对适当的非线性起作用。

顺便问一下,你知道XORa最相似的架构吗?


4个神经中枢-乙状结节


对XOR-a有一个分析解决方案。


outXOR = in1 + in2 - 2*in1*in2


其中:in1和in2的输入值从0到1。


收敛是瞬间的。

 
Reshetov писал (а)>>


对于XOR-a,有一个分析解决方案。


outXOR = in1 + in2 - 2*in1*in2


其中:in1和in2的输入值从0到1。


收敛是瞬间的。

大笑,任何函数都有一个分析解决方案,但找到它...有时候,这非常非常困难。

我举这个例子是为了再次说明,3层的perseptron并不总是最佳选择。

 
TheXpert писал (а)>>

我举这个例子是为了再次说明,3层的perseptron并不总是最佳选择。

这个问题也可以由3层的perseptron解决,神经元中有一个阈值,基于径向函数的NS可以处理这个问题。

一般来说,有许多变体,任务是找到一个适当的变体。

 
Neutron писал (а)>>

这个问题也可以由3层感知器解决,神经元中带有阈值,基于径向函数的NS可以处理。

一般来说,有许多变体,任务是找到一个适当的变体。

>> 谢谢你的照片。

 
请给我这些书。或者作者是谁。
 
这是海金公司提供的。详细情况见本专题的前一页。
 

然后有必要确定具体的最小网络配置和所需的最小输入数量。这意味着有必要确定职权范围,然后整个世界都应该认识到,要有一个具体的产品,准备附在图表上,看到结果。我曾在Klot网站上看到过类似的神经指标形式的东西

http://www.fxreal.ru/forums/topic.php?forum=2&topic=1