神经网络 - 页 4

 
joo писал(а)>> 唯一正确的解决方案是 "没有老师的学习"。

绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。

 
LeoV >> :

绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。

正是如此!有了老师,才有可能在我们已经知道的函数上教授一个网格,比如正弦波。在这里,我们可以毫不犹豫地将以下内容反馈给网友,为

的训练点作为教师。这一招对市场不起作用。

 
joo писал(а)>> 正是如此!你可以和老师一起只在我们已经知道的函数上训练网格,例如正弦波。在这里,我们可以凭良心说,把电网喂给旁边的受训点当老师。这在市场上是行不通 的。

是的,在这种情况下,训练样本的误差越小,对网络越有利。这在市场上是行不通 的。

 

严格按照老师的训练来建立网络是不可取的,用代码手动描述所有的模式更容易,错误会更少。

神经网络的真正目的是在没有老师的情况下进行教学,教授老师不知道的东西。

你将能够识别你个人没有看到的模式(其他人也没有看到,这是一个优势)。

金发女郎对朋友说:你知道 "我不知道 "是什么意思。

女朋友。 "我不知道"。

金发:嗯,没人知道。

 
LeoV >> :
gpwr 写道(a)>> 到处都写着,网络需要训练,直到被测样本的误差停止减少。

实际上比这要复杂得多。当你把它训练到被测样本的最小误差时,你很可能会得到一个过度训练的网络......。

不太可能,是这样的。真相。而减少主电源以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。
 
muallch писал(а)>>
不太可能,但它确实如此。真相。而减少主电源以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。

同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。

 
muallch >> :
这不可能,这是真的。>> 真相。而降低网络功率以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。

你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。

所有的教科书都说,用老师训练网络是通过将数据分成训练样本和测试样本来完成的。网络的训练方法是使训练样本的误差最小化,而测试样本上存在误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。而训练样本的误差可能会继续减少,如该图所示


你声称网络训练必须比图片中的虚线更早停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有一个肯定的冲洗。

 
LeoV >> :

同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。

正是如此。这就是问题所在,有时候。MAs上的格拉尔有时也会给远期头寸带来利润。没有(至少我没有摸索过)前瞻性结果对训练过的网格的力量(浮肿、神经性等)的明确系统依赖。我不是说网格的类型不影响什么--它只是标准之一。但是,测试样本之外的利润大小对学习程度有明显的依赖性(非线性)--众多 "端到端 "测试的实验证实了这一点。

 
gpwr >> :

你认为,网络培训必须在图片中的虚线之前就停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有正确的排水。

不,我不知道。


这一点很难说得通...

 
gpwr >> :

你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。

在所有的教科书中都写到,用教师训练网络是通过将数据分为训练样本和测试样本来进行的。该网络通过最小化训练样本的误差来学习,同时观察测试样本的误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。同样的道理,训练样本的误差可能会继续减少,如图所示

首先是样本外--调整网格。然后就没有了--真正的未来在前面,必须预测。停止训练的标准是什么--一定的误差还是训练运行的次数?还是别的什么?

原因: