市场礼仪或雷区中的良好风度 - 页 30 1...232425262728293031323334353637...104 新评论 paralocus 2009.05.20 16:45 #291 FION >> : 在你的代码中 - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), 比较不工作。 谢谢你,但我的代码中也没有 "除以0 "的错误。 Сергей 2009.05.20 16:53 #292 Neutron >> : 嗨,谢尔盖! 但是Grasn说,第14个版本已经损坏,引擎已经死亡,并且在二维码中存在错误。主要的是,你不能在生活中第一次使用它。马特卡德发行套件的价格为100卢布。 它并不完全是 "搔痒"。我想说的是,在14年,引擎更便宜,这一切都归结于老的争论,哪个引擎更好滑铁卢 Maple vsSciFace Software。在现实中,有的更好,有的更差--你必须看你需要什么。这里有一个例子,有这样一个关于3颗行星运动的经典问题。在某些初始条件下,一颗行星会捕捉到另一颗行星的轨迹。 以下是13 Mathcadet中的解决方案(捕获)。 这里是14号矩阵图的解决方案(去他妈的)。 但是14版有很多优点,很多。我可能不得不改用它,因为13版在Vista中只是崩溃了。但13版的错误也够多了,所以对老版本有什么可说的。 Neutron 2009.05.20 17:12 #293 嗨,谢尔盖! 你提出的这些问题都很好。它们很美。也许这是关于数字方法的准确性。获得更高的精度,解决方案将收敛... paralocus 2009.05.20 19:02 #294 中子,如果我输入这个调整系数 (1-J/N),我是否应该把它用于所有的权重,或者我可以把它用于隐藏层的权重,比如说,不用于输出神经元的权重?现在,我只把它用于隐藏层的权重。砝码已经或多或少地稳定在+/-50。我把历时的数量作为N。 Сергей 2009.05.20 20:35 #295 Neutron писал(а)>> 嗨,谢尔盖! 你提出的这些问题都很好。它们很美。也许这是关于数字方法的准确性。如果你把精度设置得更高,并且解决方案收敛了... 不,这与准确性无关。 Neutron 2009.05.21 03:02 #296 paralocus писал(а)>> 中子,如果我输入这个调节因子 (1-J/N),我是否应该把它用于所有的尺度,或者我可以把它用于隐藏层的尺度,例如,不用于输出神经元的尺度?现在,我只把它用于隐藏层的权重。砝码已经或多或少地稳定在+/-50。我把历时的数量作为N。 以这种方式和那种方式进行尝试。我无一例外地将它应用于我所有的天平。但这是由于我对所有事物的简单性的喜爱,对同一性的渴望。也许它对你有用。N 是时代的数量。 paralocus 2009.05.21 13:29 #297 有一件事让我感到困惑。 这个系统中的纠正一直在发生,无论你是否需要它。对于二进制输入网格来说,这就更加停滞不前了。 也就是说,如果符号猜对了,但电网输出的振幅与测试信号之间存在差异,无论如何都要进行校正。但这真的有必要吗? 毕竟,网格,在这种情况下,并没有错... rsi 2009.05.21 13:53 #298 Neutron >> : ...但是,这与我对所有事物的简化的喜爱有关,即同一性的干系....。 不是一个分支,而是一个大师级的课程!谢谢你提供了很多有用的东西!我不做ORO,但训练建议在PNN上也很有效。再次感谢:感谢Neutron! Neutron 2009.05.21 18:34 #299 谢谢你,rsi,谢谢你的好意。总是乐于分享知识! paralocus писал(а)>> 有一件事让我感到困惑。 这个系统中的纠正一直在发生,无论你是否需要它。对于一个有二进制输入的电网来说,更多的是停滞不前。 也就是说,如果符号猜对了,但电网输出的振幅与测试信号之间存在差异,无论如何都要进行校正。但这真的有必要吗? 毕竟,网格,在这种情况下,并没有错... 我也有同样的行为。 它是正确的,因为网格不断锐化预测的准确性,不仅是标志。 paralocus 2009.05.22 10:36 #300 嗨,Neurton!总之,还没有找到双层的运气。 我用ORO写了一个单层感知器,昨天运行了一整天。它的行为很奇怪。它学习和不学习,并且灾难性地依赖于历时的数量。 所以我的结果如下。8个历时--网格不学习,12个历时--网格学习,13个历时--网格不学习。 简而言之,结果夸张,我还不能。 无论如何,我将描述一个我已经实现的算法。看看我是否错过了什么。 1.该感知器有D个 二进制输入,其中一个是常数+1。 2.所使用的BP是在若干个Open 中连续的cotier递增。 3.在开始之前,所有的权重都以+/-1范围内的小随机值初始化。 4.训练向量的长度计算为P= 4*D*D/D =4*D。 5.训练矢量被送入网格输入,网格误差被计算为Qs = Test - OUT,其中Test是BP在n+1, 即下一次读出时的值,OUT 是n次 读出时的网格输出。 6.为了得到输入端Q 的误差值,网格误差Qs 乘以挤压函数的导数(1-OUT+OUT):Q=Qs*(1-OUT*OUT)。 7.进入神经元的每个权重的修正向量COR[i] += Q*D[i] 被计算并在历时中累积。 8.SQR[i]+= COR[i]*COR[i] 是单独计算的,并在整个历时中为每个权重累积,包含在神经元中。 9.在一个纪元结束时,对每个权重计算个人修正并加到该权重上W[i] += COR[i]/SQR[i] 尝试使用(1-j/N) 的系数,以及随机化绝对值 已经超过20的权重。随机化的帮助更好。 P.S 纠正了文中的一个错误 Market etiquette or good 深度神经网络(第八部分)。 提高袋封融合的分类品质 采用栈式 RBM 的深度神经网络。自训练, 自控制 1...232425262728293031323334353637...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
在你的代码中 - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), 比较不工作。
谢谢你,但我的代码中也没有 "除以0 "的错误。
嗨,谢尔盖!
但是Grasn说,第14个版本已经损坏,引擎已经死亡,并且在二维码中存在错误。主要的是,你不能在生活中第一次使用它。马特卡德发行套件的价格为100卢布。
它并不完全是 "搔痒"。我想说的是,在14年,引擎更便宜,这一切都归结于老的争论,哪个引擎更好滑铁卢 Maple vsSciFace Software。在现实中,有的更好,有的更差--你必须看你需要什么。这里有一个例子,有这样一个关于3颗行星运动的经典问题。在某些初始条件下,一颗行星会捕捉到另一颗行星的轨迹。
以下是13 Mathcadet中的解决方案(捕获)。
这里是14号矩阵图的解决方案(去他妈的)。
但是14版有很多优点,很多。我可能不得不改用它,因为13版在Vista中只是崩溃了。但13版的错误也够多了,所以对老版本有什么可说的。
嗨,谢尔盖!
你提出的这些问题都很好。它们很美。也许这是关于数字方法的准确性。获得更高的精度,解决方案将收敛...
嗨,谢尔盖!
你提出的这些问题都很好。它们很美。也许这是关于数字方法的准确性。如果你把精度设置得更高,并且解决方案收敛了...
不,这与准确性无关。
中子,如果我输入这个调节因子 (1-J/N),我是否应该把它用于所有的尺度,或者我可以把它用于隐藏层的尺度,例如,不用于输出神经元的尺度?现在,我只把它用于隐藏层的权重。砝码已经或多或少地稳定在+/-50。我把历时的数量作为N。
以这种方式和那种方式进行尝试。我无一例外地将它应用于我所有的天平。但这是由于我对所有事物的简单性的喜爱,对同一性的渴望。也许它对你有用。N 是时代的数量。
有一件事让我感到困惑。
这个系统中的纠正一直在发生,无论你是否需要它。对于二进制输入网格来说,这就更加停滞不前了。
也就是说,如果符号猜对了,但电网输出的振幅与测试信号之间存在差异,无论如何都要进行校正。但这真的有必要吗?
毕竟,网格,在这种情况下,并没有错...
...但是,这与我对所有事物的简化的喜爱有关,即同一性的干系....。
不是一个分支,而是一个大师级的课程!谢谢你提供了很多有用的东西!我不做ORO,但训练建议在PNN上也很有效。再次感谢:感谢Neutron!
谢谢你,rsi,谢谢你的好意。总是乐于分享知识!
有一件事让我感到困惑。
这个系统中的纠正一直在发生,无论你是否需要它。对于一个有二进制输入的电网来说,更多的是停滞不前。
也就是说,如果符号猜对了,但电网输出的振幅与测试信号之间存在差异,无论如何都要进行校正。但这真的有必要吗?
毕竟,网格,在这种情况下,并没有错...
我也有同样的行为。
它是正确的,因为网格不断锐化预测的准确性,不仅是标志。
嗨,Neurton!总之,还没有找到双层的运气。
我用ORO写了一个单层感知器,昨天运行了一整天。它的行为很奇怪。它学习和不学习,并且灾难性地依赖于历时的数量。
所以我的结果如下。8个历时--网格不学习,12个历时--网格学习,13个历时--网格不学习。
简而言之,结果夸张,我还不能。
无论如何,我将描述一个我已经实现的算法。看看我是否错过了什么。
1.该感知器有D个 二进制输入,其中一个是常数+1。
2.所使用的BP是在若干个Open 中连续的cotier递增。
3.在开始之前,所有的权重都以+/-1范围内的小随机值初始化。
4.训练向量的长度计算为P= 4*D*D/D =4*D。
5.训练矢量被送入网格输入,网格误差被计算为Qs = Test - OUT,其中Test是BP在n+1, 即下一次读出时的值,OUT 是n次 读出时的网格输出。
6.为了得到输入端Q 的误差值,网格误差Qs 乘以挤压函数的导数(1-OUT+OUT):Q=Qs*(1-OUT*OUT)。
7.进入神经元的每个权重的修正向量COR[i] += Q*D[i] 被计算并在历时中累积。
8.SQR[i]+= COR[i]*COR[i] 是单独计算的,并在整个历时中为每个权重累积,包含在神经元中。
9.在一个纪元结束时,对每个权重计算个人修正并加到该权重上W[i] += COR[i]/SQR[i]
尝试使用(1-j/N) 的系数,以及随机化绝对值 已经超过20的权重。随机化的帮助更好。
P.S 纠正了文中的一个错误