如何正确形成NS的输入值。 - 页 24 1...171819202122232425262728293031 新评论 TheXpert 2008.07.14 10:54 #231 Reshetov писал (а)>> 最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然,交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。 这是无稽之谈...重绘指标与插值和未来预测有什么关系? Candid 2008.07.14 11:09 #232 Reshetov писал (а)>> 最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。 你只是不太明白被近似的是什么。有一个维数为N的输入向量X和一个维数为M的输出向量Y。NS建立了它们之间的关系,即它近似于依赖关系Y=F(X)。Y可以是任何东西,甚至是三叉戟,NS不在乎,它解决的正是训练样本上的近似F(X)问题。 Леонид 2008.07.14 11:14 #233 重绘是人民的鸦片!!!。)))) Neutron 2008.07.14 12:04 #234 Mathemat писал (а)>> 我甚至会加强这个建议:除以10。出于某种原因,我想到了关于随机共振的话题。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的思考... 在我看来,人们对NS状态的性质存在误解,可以说是 "过度训练 "和 "训练不足"。这些术语指的是与训练样本的长度、特定NS的自由参数(突触)的数量以及测试集上泛化误差的大小有关的性状。如果样本长度与可调权重的数量相当(在极限范围内小于或等于),那么在训练样本上,我们将得到NS响应与输入向量的任何精确匹配,但在测试样本上,我们将得到完全的胡说八道!这是一个过度训练网络的例子。如果训练样本长度太长(多长是一个单独的问题),我们将在训练样本上得到一个糟糕的匹配(在极限情况下,我们将只确定样本的平均值)。在测试样本上,我们将得到同样的东西--平均值。 可以看出,训练纪元的数量是没有问题的。此外,为了实现全局最小值(学习NS),我们需要在重新定义的非线性方程组的所有可能的解决方案中(NS是做什么的),选择一个将给我们带来最低的累积误差(将至少满足系统的所有方程)。当然,这个条件是由趋向于极限值的解决方案(发现突触的权重)来满足的--当训练历时数趋向于无穷大时得到。 因此,我们不应该把NS的过度训练或训练不足与训练历时的数量混为一谈--后者应该总是合理的大(具体数量应该通过实验来确定)。 我在文献中遇到了关于 "早期停止问题 "的讨论,但我的印象是,作者并不十分了解他们所写的东西的性质。事实上,如果我们采取训练样本长度小于最佳长度的情况,那么在训练过程中会出现这样一种情况,即测试集上的误差首先会减少,然后随着训练周期数的进一步增加,又会开始增长......。嗯,那是另一个故事,同志们!"。 Sceptic Philozoff 2008.07.14 12:47 #235 既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。 我甚至没有谈及输入与自由度的比例,假设它至少是理论所建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎对这一点描述得很清楚。 TheXpert 2008.07.14 13:01 #236 Mathemat писал (а)>> 既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。 我甚至没有谈到输入与自由度的比例,假设它至少是理论建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎也对它进行了相当生动的描述。 数学成绩优异也无妨,请不要被吓倒:) 。我想其他人也会加入这个请求。 Yury Reshetov 2008.07.14 13:22 #237 Mathemat писал (а)>> 我想进一步加强这个建议:除以10。由于某些原因,我想到了一个关于随机共振的分支。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的反思...... 嗯,我的意思是同样的事情。只是使用了 "稳态 "一词,而不是流行的 "稳态 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。 只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。根据经验,其他人有可能只需要接受10%的培训。 TheXpert 2008.07.14 13:32 #238 Reshetov писал (а)>> 嗯,这也是我的意思。只是使用了 "稳态 "一词,而不是流行的 "稳定 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。 只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。其他人有可能根据经验只需要训练10%。 根据Haikin的说法,只有在模式数量不够多的情况下,在训练和测试样本上的完全训练结果才可能不同。 如果有足够的模式,完全训练对测试样本产生的结果比上述早期断点的结果更好。 根据我的经验,我倾向于相信这些结果。 至于线性神经网络,如果它成功地获得了具有足够可靠性的积极结果,那么只能有一个结论:神经网络是无用的。 Yury Reshetov 2008.07.14 13:33 #239 TheXpert писал (а)>> 这是无稽之谈...重绘指标与插值和未来预测有什么关系? 亲爱的先生,我在哪里宣称内插法与未来有关?去看看眼科医生,仔细阅读帖子,而不是乱扔表达。我已经报告并为特别有天赋的人重申,推断对未来是必要的。 我的帖子是对rip 的帖子的回应: ------------------ 报价 ------------------------ 撕裂 14.07.2008 00:01 雷舍托夫 写道(a)>> 对。架构,有了适当的投入,就不再是问题了。你可以说:输入是一切,架构是什么。 在这里,先生们拿起正常的输入,用MTS "Sombo " 得到适当的结果。 我在某种程度上同意你的观点。但是,网络结构起着很大的作用......例如,RBF-网络在解决一些插值任务方面要好得多。 Yury Reshetov 2008.07.14 13:43 #240 TheXpert писал (а)>> 根据Heikin的说法,只有在模式数量不够多的情况下,才会出现对训练和测试样本进行充分训练的结果差异。 书呆子先生,正常人有自己的大脑和经验,而书呆子引用其他书呆子的话是因为没有自己的大脑,也不可能有。 海金很可能是在一个固定的环境中训练网络,因此他的结论。在非稳态环境中,如果给它太多的模式,网络可能根本无法学习,因为,例如在交易中,今天一个模式指向买入,下一次它指向卖出。因为任何进场都有一定概率的虚假信号。 1...171819202122232425262728293031 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然,交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。
这是无稽之谈...重绘指标与插值和未来预测有什么关系?
最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。
你只是不太明白被近似的是什么。有一个维数为N的输入向量X和一个维数为M的输出向量Y。NS建立了它们之间的关系,即它近似于依赖关系Y=F(X)。Y可以是任何东西,甚至是三叉戟,NS不在乎,它解决的正是训练样本上的近似F(X)问题。
重绘是人民的鸦片!!!。))))
我甚至会加强这个建议:除以10。出于某种原因,我想到了关于随机共振的话题。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的思考...
在我看来,人们对NS状态的性质存在误解,可以说是 "过度训练 "和 "训练不足"。这些术语指的是与训练样本的长度、特定NS的自由参数(突触)的数量以及测试集上泛化误差的大小有关的性状。如果样本长度与可调权重的数量相当(在极限范围内小于或等于),那么在训练样本上,我们将得到NS响应与输入向量的任何精确匹配,但在测试样本上,我们将得到完全的胡说八道!这是一个过度训练网络的例子。如果训练样本长度太长(多长是一个单独的问题),我们将在训练样本上得到一个糟糕的匹配(在极限情况下,我们将只确定样本的平均值)。在测试样本上,我们将得到同样的东西--平均值。
可以看出,训练纪元的数量是没有问题的。此外,为了实现全局最小值(学习NS),我们需要在重新定义的非线性方程组的所有可能的解决方案中(NS是做什么的),选择一个将给我们带来最低的累积误差(将至少满足系统的所有方程)。当然,这个条件是由趋向于极限值的解决方案(发现突触的权重)来满足的--当训练历时数趋向于无穷大时得到。
因此,我们不应该把NS的过度训练或训练不足与训练历时的数量混为一谈--后者应该总是合理的大(具体数量应该通过实验来确定)。
我在文献中遇到了关于 "早期停止问题 "的讨论,但我的印象是,作者并不十分了解他们所写的东西的性质。事实上,如果我们采取训练样本长度小于最佳长度的情况,那么在训练过程中会出现这样一种情况,即测试集上的误差首先会减少,然后随着训练周期数的进一步增加,又会开始增长......。嗯,那是另一个故事,同志们!"。
既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。
我甚至没有谈及输入与自由度的比例,假设它至少是理论所建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎对这一点描述得很清楚。
既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。
我甚至没有谈到输入与自由度的比例,假设它至少是理论建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎也对它进行了相当生动的描述。
数学成绩优异也无妨,请不要被吓倒:) 。我想其他人也会加入这个请求。
我想进一步加强这个建议:除以10。由于某些原因,我想到了一个关于随机共振的分支。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的反思......
嗯,我的意思是同样的事情。只是使用了 "稳态 "一词,而不是流行的 "稳态 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。
只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。根据经验,其他人有可能只需要接受10%的培训。
嗯,这也是我的意思。只是使用了 "稳态 "一词,而不是流行的 "稳定 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。
只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。其他人有可能根据经验只需要训练10%。
根据Haikin的说法,只有在模式数量不够多的情况下,在训练和测试样本上的完全训练结果才可能不同。
如果有足够的模式,完全训练对测试样本产生的结果比上述早期断点的结果更好。
根据我的经验,我倾向于相信这些结果。
至于线性神经网络,如果它成功地获得了具有足够可靠性的积极结果,那么只能有一个结论:神经网络是无用的。
这是无稽之谈...重绘指标与插值和未来预测有什么关系?
亲爱的先生,我在哪里宣称内插法与未来有关?去看看眼科医生,仔细阅读帖子,而不是乱扔表达。我已经报告并为特别有天赋的人重申,推断对未来是必要的。
我的帖子是对rip 的帖子的回应:
------------------ 报价 ------------------------
撕裂 14.07.2008 00:01
对。架构,有了适当的投入,就不再是问题了。你可以说:输入是一切,架构是什么。
在这里,先生们拿起正常的输入,用MTS "Sombo " 得到适当的结果。
我在某种程度上同意你的观点。但是,网络结构起着很大的作用......例如,RBF-网络在解决一些插值任务方面要好得多。
根据Heikin的说法,只有在模式数量不够多的情况下,才会出现对训练和测试样本进行充分训练的结果差异。
书呆子先生,正常人有自己的大脑和经验,而书呆子引用其他书呆子的话是因为没有自己的大脑,也不可能有。
海金很可能是在一个固定的环境中训练网络,因此他的结论。在非稳态环境中,如果给它太多的模式,网络可能根本无法学习,因为,例如在交易中,今天一个模式指向买入,下一次它指向卖出。因为任何进场都有一定概率的虚假信号。