不关马什卡的事! - 页 5 123456789101112 新评论 Sceptic Philozoff 2008.04.11 13:41 #41 Neutron: 这就是你得到的结果,如果加法器的输入浸润不是到滞后的混杂物,而是到它自己:-)即到理想MA的一阶导数。 剩下的事情就是找到一个理想的MA。试试真正的朱里奇。不是很理想,但还是很接近。而且它也相当平稳。 Candid 2008.04.11 14:10 #42 Neutron: 哦,多么有趣啊! 这就是你得到的结果,如果你不把加法器的输入浸到滞后的混合器上,而是浸到它本身:-)即浸到理想MA的一导数上。 为什么没有人要求说明呢?:)大家都清楚了吗? 目前的酒吧里没有完美的混搭。有可能真的是他们的预测。我们是在谈论他们吗? Victor Nikolaev 2008.04.11 17:01 #43 Neutron: 到维宁 把你的想法告诉我--会有一个续集的! 遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。 但这个主题真的很有趣。请您原谅。 Neutron 2008.04.11 17:27 #44 lna01: 中子。 哦,多么有趣啊! 这就是你得到的结果,如果你把加法器的输入不是指向滞后的泥浆,而是指向它自己:-)即指向理想MA的一阶导数。 为什么没有人要求说明呢?:)大家都清楚了吗? 目前的酒吧里没有理想的马氏。可能确实有他们的预言。我们是在谈论他们吗? 不,我说的是对完美波的平滑窗口宽度的预测。让我提醒你,它在BP的右边缘摇晃得非常厉害,典型的平滑区就在那个窗口的宽度上。 我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果预测是使用为后向窗口计算的权重乘以理想Ma的当前 值来建立的。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。 这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加2个以上的方程数(我最多检查了100个)并没有带来明显的改善。 P.S. 我松了一口气! 到维宁 不幸的是,我在很久以前就成了一名读者。这就是为什么我不能给你提供任何东西。而且这个主题真的很有趣。请您原谅。 那么,对于这种情况,如何加载神经元。这不是很弱吗? 突然间,在至少两个隐藏层中诞生的NS的先验非线性将创造一个奇迹...... Victor Nikolaev 2008.04.11 17:36 #45 Neutron: 给维宁。 遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。但这个主题真的很有趣。请原谅我。 那么,对于这种情况,如何加载神经元。这不是很弱吗? 如果NS的先验非线性,至少在两个隐藏层中诞生,可以创造一个奇迹......。 当然有可能做出一个神经元。但这不仅仅是一个神经元的问题。有必要对输入进行定义,而我还没有看到它。 Dmitrii 2008.04.11 17:43 #46 条目没有任何问题。最主要的是确定交易的置信区间。 有时该系统交易了六个月,然后突然亏损,但有时甚至更早....。 Сергей 2008.04.12 08:46 #47 Neutron: 我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果,预测是基于一个窗口前计算的权重,乘以理想MA的当前 值。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。 这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加方程的数量超过2个(我检查到100个)并没有带来任何明显的改善。 Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍微好一点。当你去找BP时,你会有巨大的错误 Neutron 2008.04.12 10:47 #48 grasn: Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。 如果你指的是形式的线性自回归模型。 那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。 关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数被存储,这就是为什么当水平线增加到2-3条以上时,系列开始崩溃的原因。 Сергей 2008.04.12 17:33 #49 Neutron:格拉斯恩。 Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。如果你指的是形式为的线性自回归模型。 那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。 关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数是守恒的,这就是为什么当水平线超过2-3条时,系列开始崩溃。 Serega,而且只用了带系数的加法器,没有使用。因此,人们可以说你有一个神经网络,尽管是一个小的神经网络。让我们比较一下你的模型和我的模型,我们只需要思考一下标准。我在MatCAD 中使用predict(),而你则使用你的系统。我们有相同的开发环境,所以让我们定义数据文件(报价,被测试的过程--收盘,平均或任何...,测试区域)。我们只测试MA 预测,MA 本身是自适应选择的--如何选择并不重要,只有最后的结果是重要的。我们在每个样本上都进行测试,从而提高统计有效性(似乎有足够的数据)。 但我的预测范围是自适应选择的,并在先前指定的范围内取值。下面是我对未来四个读数的MA 预测的例子。 [没有错误]。 我们要不要试着比较一下?如果是这样,你对标准有什么建议,最好是一个数字对应一个计数,这样我想比较起来会比较容易。 PS:我们把测试的时间定得不要太死板,我想你也有很多不同的事情要做。 PS2: 为了测试,你可以通过邮件交换文件,或者你可以相信你的话 :o) Neutron 2008.04.12 18:14 #50 好的! 我没有理解错,我们都是相对于平滑曲线(MA)打印一个文件,并对未来N个读数进行预测?如果是这样,我们可以用以下方式评估结果:收集未来10个读数(例如)的预测统计数据(1000个结果),并在笛卡尔坐标中建立一个预测域,将MA真值放在横轴上,预测值放在纵轴上。 在获得的云层上,通过最小二乘法,我们画出一条直线,该方法与这条直线的切线的斜率将更接近于1--更陡峭! P.S. 关于小神经元,你一如既往地击中了靶心 :-) 123456789101112 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这就是你得到的结果,如果加法器的输入浸润不是到滞后的混杂物,而是到它自己:-)即到理想MA的一阶导数。
剩下的事情就是找到一个理想的MA。试试真正的朱里奇。不是很理想,但还是很接近。而且它也相当平稳。
哦,多么有趣啊!
这就是你得到的结果,如果你不把加法器的输入浸到滞后的混合器上,而是浸到它本身:-)即浸到理想MA的一导数上。
为什么没有人要求说明呢?:)大家都清楚了吗?
目前的酒吧里没有完美的混搭。有可能真的是他们的预测。我们是在谈论他们吗?
到维宁
把你的想法告诉我--会有一个续集的!
遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。 但这个主题真的很有趣。请您原谅。
哦,多么有趣啊!
这就是你得到的结果,如果你把加法器的输入不是指向滞后的泥浆,而是指向它自己:-)即指向理想MA的一阶导数。
为什么没有人要求说明呢?:)大家都清楚了吗?
目前的酒吧里没有理想的马氏。可能确实有他们的预言。我们是在谈论他们吗?
不,我说的是对完美波的平滑窗口宽度的预测。让我提醒你,它在BP的右边缘摇晃得非常厉害,典型的平滑区就在那个窗口的宽度上。
我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果预测是使用为后向窗口计算的权重乘以理想Ma的当前 值来建立的。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。
这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加2个以上的方程数(我最多检查了100个)并没有带来明显的改善。
P.S. 我松了一口气!
到维宁
不幸的是,我在很久以前就成了一名读者。这就是为什么我不能给你提供任何东西。而且这个主题真的很有趣。请您原谅。
那么,对于这种情况,如何加载神经元。这不是很弱吗?
突然间,在至少两个隐藏层中诞生的NS的先验非线性将创造一个奇迹......
给维宁。
遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。但这个主题真的很有趣。请原谅我。
那么,对于这种情况,如何加载神经元。这不是很弱吗?
如果NS的先验非线性,至少在两个隐藏层中诞生,可以创造一个奇迹......。
当然有可能做出一个神经元。但这不仅仅是一个神经元的问题。有必要对输入进行定义,而我还没有看到它。
条目没有任何问题。最主要的是确定交易的置信区间。
有时该系统交易了六个月,然后突然亏损,但有时甚至更早....。
我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果,预测是基于一个窗口前计算的权重,乘以理想MA的当前 值。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。
这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加方程的数量超过2个(我检查到100个)并没有带来任何明显的改善。
Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍微好一点。当你去找BP时,你会有巨大的错误
Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。
如果你指的是形式的线性自回归模型。
那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。
关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数被存储,这就是为什么当水平线增加到2-3条以上时,系列开始崩溃的原因。
Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。
如果你指的是形式为的线性自回归模型。
那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。
关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数是守恒的,这就是为什么当水平线超过2-3条时,系列开始崩溃。
Serega,而且只用了带系数的加法器,没有使用。因此,人们可以说你有一个神经网络,尽管是一个小的神经网络。让我们比较一下你的模型和我的模型,我们只需要思考一下标准。我在MatCAD 中使用predict(),而你则使用你的系统。我们有相同的开发环境,所以让我们定义数据文件(报价,被测试的过程--收盘,平均或任何...,测试区域)。我们只测试MA 预测,MA 本身是自适应选择的--如何选择并不重要,只有最后的结果是重要的。我们在每个样本上都进行测试,从而提高统计有效性(似乎有足够的数据)。
但我的预测范围是自适应选择的,并在先前指定的范围内取值。下面是我对未来四个读数的MA 预测的例子。
[没有错误]。
我们要不要试着比较一下?如果是这样,你对标准有什么建议,最好是一个数字对应一个计数,这样我想比较起来会比较容易。
PS:我们把测试的时间定得不要太死板,我想你也有很多不同的事情要做。
PS2: 为了测试,你可以通过邮件交换文件,或者你可以相信你的话 :o)
好的!
我没有理解错,我们都是相对于平滑曲线(MA)打印一个文件,并对未来N个读数进行预测?如果是这样,我们可以用以下方式评估结果:收集未来10个读数(例如)的预测统计数据(1000个结果),并在笛卡尔坐标中建立一个预测域,将MA真值放在横轴上,预测值放在纵轴上。
在获得的云层上,通过最小二乘法,我们画出一条直线,该方法与这条直线的切线的斜率将更接近于1--更陡峭!
P.S. 关于小神经元,你一如既往地击中了靶心 :-)