神经网络 - 页 4 1234567891011...14 新评论 Леонид 2009.08.03 18:41 #31 joo писал(а)>> 唯一正确的解决方案是 "没有老师的学习"。 绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。 Andrey Dik 2009.08.03 19:19 #32 LeoV >> : 绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。 正是如此!有了老师,才有可能在我们已经知道的函数上教授一个网格,比如正弦波。在这里,我们可以毫不犹豫地将以下内容反馈给网友,为 的训练点作为教师。这一招对市场不起作用。 Леонид 2009.08.03 19:23 #33 joo писал(а)>> 正是如此!你可以和老师一起只在我们已经知道的函数上训练网格,例如正弦波。在这里,我们可以凭良心说,把电网喂给旁边的受训点当老师。这在市场上是行不通 的。 是的,在这种情况下,训练样本的误差越小,对网络越有利。这在市场上是行不通 的。 Mykola Demko 2009.08.03 19:30 #34 严格按照老师的训练来建立网络是不可取的,用代码手动描述所有的模式更容易,错误会更少。 神经网络的真正目的是在没有老师的情况下进行教学,教授老师不知道的东西。 你将能够识别你个人没有看到的模式(其他人也没有看到,这是一个优势)。 金发女郎对朋友说:你知道 "我不知道 "是什么意思。 女朋友。 "我不知道"。 金发:嗯,没人知道。 Igor Maslov 2009.08.04 07:04 #35 LeoV >> : gpwr 写道(a)>> 到处都写着,网络需要训练,直到被测样本的误差停止减少。 实际上比这要复杂得多。当你把它训练到被测样本的最小误差时,你很可能会得到一个过度训练的网络......。 不太可能,是这样的。真相。而减少主电源以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。 Леонид 2009.08.04 07:46 #36 muallch писал(а)>> 不太可能,但它确实如此。真相。而减少主电源以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。 同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。 Vladimir 2009.08.04 08:10 #37 muallch >> : 这不可能,这是真的。>> 真相。而降低网络功率以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。 你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。 所有的教科书都说,用老师训练网络是通过将数据分成训练样本和测试样本来完成的。网络的训练方法是使训练样本的误差最小化,而测试样本上存在误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。而训练样本的误差可能会继续减少,如该图所示 你声称网络训练必须比图片中的虚线更早停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有一个肯定的冲洗。 Igor Maslov 2009.08.04 08:13 #38 LeoV >> : 同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。 正是如此。这就是问题所在,有时候。MAs上的格拉尔有时也会给远期头寸带来利润。没有(至少我没有摸索过)前瞻性结果对训练过的网格的力量(浮肿、神经性等)的明确系统依赖。我不是说网格的类型不影响什么--它只是标准之一。但是,测试样本之外的利润大小对学习程度有明显的依赖性(非线性)--众多 "端到端 "测试的实验证实了这一点。 Igor Maslov 2009.08.04 08:18 #39 gpwr >> : 你认为,网络培训必须在图片中的虚线之前就停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有正确的排水。 不,我不知道。 这一点很难说得通... Igor Maslov 2009.08.04 08:30 #40 gpwr >> : 你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。 在所有的教科书中都写到,用教师训练网络是通过将数据分为训练样本和测试样本来进行的。该网络通过最小化训练样本的误差来学习,同时观察测试样本的误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。同样的道理,训练样本的误差可能会继续减少,如图所示 首先是样本外--调整网格。然后就没有了--真正的未来在前面,必须预测。停止训练的标准是什么--一定的误差还是训练运行的次数?还是别的什么? 1234567891011...14 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。
绝对的。因为对于网络来说,没有完美的老师。或者说,我们无法知道网络的完美教师可能是什么.....))))。
正是如此!有了老师,才有可能在我们已经知道的函数上教授一个网格,比如正弦波。在这里,我们可以毫不犹豫地将以下内容反馈给网友,为
的训练点作为教师。这一招对市场不起作用。
是的,在这种情况下,训练样本的误差越小,对网络越有利。这在市场上是行不通 的。
严格按照老师的训练来建立网络是不可取的,用代码手动描述所有的模式更容易,错误会更少。
神经网络的真正目的是在没有老师的情况下进行教学,教授老师不知道的东西。
你将能够识别你个人没有看到的模式(其他人也没有看到,这是一个优势)。
金发女郎对朋友说:你知道 "我不知道 "是什么意思。
女朋友。 "我不知道"。
金发:嗯,没人知道。
实际上比这要复杂得多。当你把它训练到被测样本的最小误差时,你很可能会得到一个过度训练的网络......。
不太可能,但它确实如此。真相。而减少主电源以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。
同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。
这不可能,这是真的。>> 真相。而降低网络功率以获得更好的概括性并没有帮助。测试中的最小错误是前进中的失败。
你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。
所有的教科书都说,用老师训练网络是通过将数据分成训练样本和测试样本来完成的。网络的训练方法是使训练样本的误差最小化,而测试样本上存在误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。而训练样本的误差可能会继续减少,如该图所示
你声称网络训练必须比图片中的虚线更早停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有一个肯定的冲洗。
同意。我在毫不含糊的过度训练的意义上应用了 "很可能 "这个短语.....))))而减少主电源有时确实有帮助,虽然......。
正是如此。这就是问题所在,有时候。MAs上的格拉尔有时也会给远期头寸带来利润。没有(至少我没有摸索过)前瞻性结果对训练过的网格的力量(浮肿、神经性等)的明确系统依赖。我不是说网格的类型不影响什么--它只是标准之一。但是,测试样本之外的利润大小对学习程度有明显的依赖性(非线性)--众多 "端到端 "测试的实验证实了这一点。
你认为,网络培训必须在图片中的虚线之前就停止。具体在哪里?那为什么还要训练网络呢?按照你的逻辑,选择任何的权重值,然后继续使用网络进行交易。这时你就会有正确的排水。
不,我不知道。
这一点很难说得通...
你们这些公民对一些事情越来越明智了。要么你发明了新东西,要么我们不理解对方。
在所有的教科书中都写到,用教师训练网络是通过将数据分为训练样本和测试样本来进行的。该网络通过最小化训练样本的误差来学习,同时观察测试样本的误差(样本外测试或验证)。当测试样本的误差停止减少时,学习就会停止(下面用虚线表示)。同样的道理,训练样本的误差可能会继续减少,如图所示
首先是样本外--调整网格。然后就没有了--真正的未来在前面,必须预测。停止训练的标准是什么--一定的误差还是训练运行的次数?还是别的什么?