FR H-波动性 - 页 10 1...34567891011121314151617...42 新评论 Yurixx 2007.12.03 16:12 #91 我不知道如何抓住,特别是在早期阶段,任意性的出现。 网络的输入应该是WP的倒数第N段,而输出应该是WP的最后一段。那么,在合适的网络配置、合适的激活函数选择和成功的训练下,如果只有N个最后的片段被送入输入,网络将恢复这N个片段和下一个(即即将到来的)片段。没有任何东西可以摆弄它的方向--它是清晰的,但尺寸......。 也许会有什么结果。 Victor Nikolaev 2007.12.03 16:17 #92 Yurixx: 我不知道如何抓住,特别是在早期阶段,任意性的出现。 网络的输入应该是WP的倒数第N段,而输出应该是WP的最后一段。那么,在一个合适的网络配置下,在一个合适的激活函数选择下,在成功的训练下,如果只有N个最后的片段被送入输入,网络将恢复这N个片段和下一个(即即将到来的)片段。没有任何东西可以摆弄它的方向--它是清晰的,但尺寸......。 也许会有什么结果。 而之字形的形式更好,绝对的还是相对的? 它是否需要规范化? 我想我想要一个科霍宁层和格罗斯伯格的星。虽然我可能是错的。 Neutron 2007.12.03 17:22 #93 Vinin: ...我认为它需要一个科霍宁层和一个格罗斯伯格星。 还有荣誉勋章)。 维宁, 什么是格罗斯伯格星? Yurixx,为这种情况建议一个NS框图。 我想考虑一下。 Victor Nikolaev 2007.12.03 17:35 #94 Neutron: 维宁。 ...我认为科霍宁层和格罗斯伯格星是自找的。 还有荣誉勋章 :-) 维宁, 这是一个什么样的明星? Yurixx, 建议你酌情为这种情况提供一个NS框图。 我想考虑一下。 就在这里http://ann.hotmail.ru/vs03.htm 但我还是要重复一下(虽然这已经不是我了),只是引用一下。 在反传播网络的训练过程中,输入向量与相应的输出向量相关联。 这些向量可以是二进制或连续的。经过训练后,网络产生与输入信号相对应的输出信号。 网络的通用性使其在输入矢量不完整或扭曲的情况下也能获得正确的输出。 在学习模式下,输入信号被送入网络,权重被修正,以便网络产生所需的输出信号。 科霍宁层按照 "赢家通吃 "的规则运作。对于一个给定的输入向量,该层只有一个神经元产生逻辑1,其他都产生0。每个Kohonen神经元的输出只是输入信号的加权元素之和。 Grossberg层神经元的输出也是Kohonen层神经元输出的加权和。但是Grossberg层的每个神经元都会产生一个权重,将这个神经元与唯一一个输出为非零的Kohonen神经元相连。 在预处理阶段,输入信号被归一化为输入向量。 在学习阶段,Kohonen层将输入向量分类为相似的一组。这是通过调整Kohonen层的权重,使类似的输入向量激活该层的同一个神经元来实现的。由于Kohonen层在没有老师的情况下学习,哪个神经元|将被一个特定的输入信号激活是很难提前预测的。 然后,格罗斯伯格层的任务是产生预期的输出。格罗斯伯格层的训练是教师协助的学习。 神经元的输出是按正常操作计算的。 然后,每个权重只有在它连接到具有非零输出的Kohonen神经元时才会被修正。权重修正量与权重和格罗斯伯格神经元的期望输出之间的差异成正比。 在网络运行模式下,输入信号被提出,输出信号被产生。 在完整的反传播网络模型中,有可能从输入信号产生输出信号,反之亦然。这两个动作对应于信号的前向和后向传播。 Yurixx 2007.12.03 18:34 #95 Vinin: 而人字形在什么形式下喂养更好,绝对还是相对? 是否需要规范化?我认为这需要科霍宁层和格罗斯伯格星。虽然我可能是错的。 中子。 Yurixx,请你酌情提出这种情况的NS框图。 我想考虑一下。 我不能提供一个流程图。这一思想的历史如下。 起初,我真的认为NS应该由2层组成--科霍宁和格罗斯伯格。问题是,对于kaga来说,每个段可以是任何,从1到......假设我想输入N个WP段,并限制段的大小从1到50。那么Kohonen层的最大神经元数量(聚类前)为50^N。这是一个很大的问题。这就是为什么我在考虑Renko的问题。在H=10时,ZZ的相似段的大小从1到5不等。这只是5^N个神经元--对于N的小值来说已经可以接受了。而所有大于5H的片段都可以用5H进行剪接。 接下来,Kohonen层会识别出该模式并激发相应的神经元。ZZ的最后一段(不包括在这个N中)被送入Grosberg层。Grosberg层包含,比如说,100个神经元,每个神经元对应于最后一个ZZ段的大小,从1到100。因此,Grosberg层的一个神经元被激发。在学习过程中,从受激的Kohonen神经元到Grosberg层的受激神经元的连接权重增加了1,所以它不是一个反传播网络。但这是我的 "计划":-)) 然后我意识到,经过训练,当输入WP时,Grosberg层只会在输出端向我展示一个未来WP段的分布函数。这基本上就是我的目标。然而,这里有两个 "但是"。 1.我可以在没有任何NS的情况下更快地建立这样一个分布。 2.近两年的细枝末节的历史包含约630000条。参数H=10的Kagi ZZ在该历史上有大约17400个片段。而N=6的Kohonen层的神经元数量将是15625个,也就是说,每个图案将有平均1.1个实验值。那是什么样的分配?:-) 因此,与过渡到仁科分区有关的聚类是灾难性的不足。我们要么需要使用科霍宁层对FP进行分组,要么(这更有可能)转向更有建设性的想法。 PS 不要因为我的天真而苛责我。我对网络的经验是读了1.5本书,没有实施。 Neutron 2007.12.04 06:37 #96 我建议我们从最简单的一个开始。让我们把ZZ分成由一个顶点组成的基本结构。在这种情况下,我们有17400个结构,根据 "长宽比 "分为50/2H*10=25组(大约)(对于步骤H=10)。也就是说,在每组中,我们有几百种模式--已经有了统计数字。 现在我们只需要把它写进NS,并找出,预测运动长度的FR(绿色矢量减去H)是如何取决于左边缘的值的。除了,同事们,这个问题其实不需要NS。还是我错过了什么? P.S. 右图显示了ZZ长宽比在一个顶点的PD。这些是欧元兑美元的H=5,10,15和20点的结构(点)。看起来归一化的想法是合理的,它可以使输入数据的维度明显降低。 Yurixx 2007.12.04 10:14 #97 Neutron: 剩下的就是把这个塞进NS,并弄清楚预测的运动长度(绿色矢量减去H)的FR如何取决于左手边的值。除了,同事们,这个问题其实不需要NS。还是我错过了什么? P.S. 右图显示了ZZ侧比率在一个顶点的PD。它是H=5,10,15和20点的欧元兑美元(ticks)。看起来归一化的想法是合理的,它可以使输入数据的维度明显降低。 我认为这也不需要NS。而规范化选项似乎是有效的,我还没有想到。 Prival 2007.12.04 10:28 #98 中子 我搞不清楚你建了什么。FR(分布函数)看起来应该有点不同https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9 也许它是SP(概率密度函数)?如果是这样,你能不能更详细地重复一下,右图上是什么(X和Y轴上是什么)? Neutron 2007.12.04 12:04 #99 到私人公司 我们进行了一系列的N次计算(Zig-Zag右边的长度以左边的长度为单位表示),得到了一些集合的值x1,...,xi,...,xn。这就是所谓的样本。我们将x的值xi绘制在标轴上。将x轴分割成相等的区间dx,计算导致x值位于区间xk+-1/2dx的计算次数nk(这里xk是区间中心在x轴上的坐标)。在每个区间,构建一个高度为nk、宽度为dx的矩形。这样得到的图被称为直方图。它显示了计算结果沿X轴分布的密度。 如果计算的数量很大,那么区间的宽度就可以做得很小(每个区间有很多的样本)。然后,我们将得到一个图形,在这个图形上,一个与落在每个区间的nk/n样本的比例的值被绘制在纵轴上,而不是直方图。这个图形被称为分布曲线或分布函数;函数本身被称为概率密度函数。 P.S. PDF可以被规范化,在这种情况下,它在整个范围内的积分是相同的1。 Prival 2007.12.04 15:39 #100 中子 谢谢你。我现在看到了。只有你构建了概率密度函数(PDF)而不是PDF(分布函数),因为PDF有3个属性。1.它(PDF)是不递减的。2.如果x趋向于无穷大,那么PDF趋向于1。自然,如果一切都正常化了。SP和PDF通过一个积分联系起来(PDF是SP的一个积分)。 这个图形被称为分布曲线或分布函数,而函数本身被称为概率密度函数。" 不太正确 1...34567891011121314151617...42 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我不知道如何抓住,特别是在早期阶段,任意性的出现。
网络的输入应该是WP的倒数第N段,而输出应该是WP的最后一段。那么,在合适的网络配置、合适的激活函数选择和成功的训练下,如果只有N个最后的片段被送入输入,网络将恢复这N个片段和下一个(即即将到来的)片段。没有任何东西可以摆弄它的方向--它是清晰的,但尺寸......。
也许会有什么结果。
我不知道如何抓住,特别是在早期阶段,任意性的出现。
网络的输入应该是WP的倒数第N段,而输出应该是WP的最后一段。那么,在一个合适的网络配置下,在一个合适的激活函数选择下,在成功的训练下,如果只有N个最后的片段被送入输入,网络将恢复这N个片段和下一个(即即将到来的)片段。没有任何东西可以摆弄它的方向--它是清晰的,但尺寸......。
也许会有什么结果。
而之字形的形式更好,绝对的还是相对的? 它是否需要规范化? 我想我想要一个科霍宁层和格罗斯伯格的星。虽然我可能是错的。
...我认为它需要一个科霍宁层和一个格罗斯伯格星。
还有荣誉勋章)。
维宁, 什么是格罗斯伯格星?
Yurixx,为这种情况建议一个NS框图。 我想考虑一下。
...我认为科霍宁层和格罗斯伯格星是自找的。
还有荣誉勋章 :-)
维宁, 这是一个什么样的明星?
Yurixx, 建议你酌情为这种情况提供一个NS框图。 我想考虑一下。
就在这里http://ann.hotmail.ru/vs03.htm
但我还是要重复一下(虽然这已经不是我了),只是引用一下。
在反传播网络的训练过程中,输入向量与相应的输出向量相关联。 这些向量可以是二进制或连续的。经过训练后,网络产生与输入信号相对应的输出信号。 网络的通用性使其在输入矢量不完整或扭曲的情况下也能获得正确的输出。
在学习模式下,输入信号被送入网络,权重被修正,以便网络产生所需的输出信号。
科霍宁层按照 "赢家通吃 "的规则运作。对于一个给定的输入向量,该层只有一个神经元产生逻辑1,其他都产生0。每个Kohonen神经元的输出只是输入信号的加权元素之和。
Grossberg层神经元的输出也是Kohonen层神经元输出的加权和。但是Grossberg层的每个神经元都会产生一个权重,将这个神经元与唯一一个输出为非零的Kohonen神经元相连。
在预处理阶段,输入信号被归一化为输入向量。
在学习阶段,Kohonen层将输入向量分类为相似的一组。这是通过调整Kohonen层的权重,使类似的输入向量激活该层的同一个神经元来实现的。由于Kohonen层在没有老师的情况下学习,哪个神经元|将被一个特定的输入信号激活是很难提前预测的。
然后,格罗斯伯格层的任务是产生预期的输出。格罗斯伯格层的训练是教师协助的学习。 神经元的输出是按正常操作计算的。 然后,每个权重只有在它连接到具有非零输出的Kohonen神经元时才会被修正。权重修正量与权重和格罗斯伯格神经元的期望输出之间的差异成正比。
在网络运行模式下,输入信号被提出,输出信号被产生。
在完整的反传播网络模型中,有可能从输入信号产生输出信号,反之亦然。这两个动作对应于信号的前向和后向传播。
而人字形在什么形式下喂养更好,绝对还是相对? 是否需要规范化?我认为这需要科霍宁层和格罗斯伯格星。虽然我可能是错的。
Yurixx,请你酌情提出这种情况的NS框图。 我想考虑一下。
我不能提供一个流程图。这一思想的历史如下。
起初,我真的认为NS应该由2层组成--科霍宁和格罗斯伯格。问题是,对于kaga来说,每个段可以是任何,从1到......假设我想输入N个WP段,并限制段的大小从1到50。那么Kohonen层的最大神经元数量(聚类前)为50^N。这是一个很大的问题。这就是为什么我在考虑Renko的问题。在H=10时,ZZ的相似段的大小从1到5不等。这只是5^N个神经元--对于N的小值来说已经可以接受了。而所有大于5H的片段都可以用5H进行剪接。
接下来,Kohonen层会识别出该模式并激发相应的神经元。ZZ的最后一段(不包括在这个N中)被送入Grosberg层。Grosberg层包含,比如说,100个神经元,每个神经元对应于最后一个ZZ段的大小,从1到100。因此,Grosberg层的一个神经元被激发。在学习过程中,从受激的Kohonen神经元到Grosberg层的受激神经元的连接权重增加了1,所以它不是一个反传播网络。但这是我的 "计划":-))
然后我意识到,经过训练,当输入WP时,Grosberg层只会在输出端向我展示一个未来WP段的分布函数。这基本上就是我的目标。然而,这里有两个 "但是"。
1.我可以在没有任何NS的情况下更快地建立这样一个分布。
2.近两年的细枝末节的历史包含约630000条。参数H=10的Kagi ZZ在该历史上有大约17400个片段。而N=6的Kohonen层的神经元数量将是15625个,也就是说,每个图案将有平均1.1个实验值。那是什么样的分配?:-)
因此,与过渡到仁科分区有关的聚类是灾难性的不足。我们要么需要使用科霍宁层对FP进行分组,要么(这更有可能)转向更有建设性的想法。
PS
不要因为我的天真而苛责我。我对网络的经验是读了1.5本书,没有实施。
我建议我们从最简单的一个开始。让我们把ZZ分成由一个顶点组成的基本结构。在这种情况下,我们有17400个结构,根据 "长宽比 "分为50/2H*10=25组(大约)(对于步骤H=10)。也就是说,在每组中,我们有几百种模式--已经有了统计数字。
现在我们只需要把它写进NS,并找出,预测运动长度的FR(绿色矢量减去H)是如何取决于左边缘的值的。除了,同事们,这个问题其实不需要NS。还是我错过了什么?
P.S. 右图显示了ZZ长宽比在一个顶点的PD。这些是欧元兑美元的H=5,10,15和20点的结构(点)。看起来归一化的想法是合理的,它可以使输入数据的维度明显降低。
剩下的就是把这个塞进NS,并弄清楚预测的运动长度(绿色矢量减去H)的FR如何取决于左手边的值。除了,同事们,这个问题其实不需要NS。还是我错过了什么?
P.S. 右图显示了ZZ侧比率在一个顶点的PD。它是H=5,10,15和20点的欧元兑美元(ticks)。看起来归一化的想法是合理的,它可以使输入数据的维度明显降低。
我认为这也不需要NS。而规范化选项似乎是有效的,我还没有想到。
中子
我搞不清楚你建了什么。FR(分布函数)看起来应该有点不同https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9
也许它是SP(概率密度函数)?如果是这样,你能不能更详细地重复一下,右图上是什么(X和Y轴上是什么)?
到私人公司
我们进行了一系列的N次计算(Zig-Zag右边的长度以左边的长度为单位表示),得到了一些集合的值x1,...,xi,...,xn。这就是所谓的样本。我们将x的值xi绘制在标轴上。将x轴分割成相等的区间dx,计算导致x值位于区间xk+-1/2dx的计算次数nk(这里xk是区间中心在x轴上的坐标)。在每个区间,构建一个高度为nk、宽度为dx的矩形。这样得到的图被称为直方图。它显示了计算结果沿X轴分布的密度。
如果计算的数量很大,那么区间的宽度就可以做得很小(每个区间有很多的样本)。然后,我们将得到一个图形,在这个图形上,一个与落在每个区间的nk/n样本的比例的值被绘制在纵轴上,而不是直方图。这个图形被称为分布曲线或分布函数;函数本身被称为概率密度函数。
P.S. PDF可以被规范化,在这种情况下,它在整个范围内的积分是相同的1。
中子
谢谢你。我现在看到了。只有你构建了概率密度函数(PDF)而不是PDF(分布函数),因为PDF有3个属性。1.它(PDF)是不递减的。2.如果x趋向于无穷大,那么PDF趋向于1。自然,如果一切都正常化了。SP和PDF通过一个积分联系起来(PDF是SP的一个积分)。
这个图形被称为分布曲线或分布函数,而函数本身被称为概率密度函数。" 不太正确