不关马什卡的事! - 页 5

 
Neutron:

这就是你得到的结果,如果加法器的输入浸润不是到滞后的混杂物,而是到它自己:-)即到理想MA的一阶导数。

剩下的事情就是找到一个理想的MA。试试真正的朱里奇。不是很理想,但还是很接近。而且它也相当平稳。

 
Neutron:

哦,多么有趣啊!

这就是你得到的结果,如果你不把加法器的输入浸到滞后的混合器上,而是浸到它本身:-)即浸到理想MA的一导数上。

为什么没有人要求说明呢?:)大家都清楚了吗?

目前的酒吧里没有完美的混搭。有可能真的是他们的预测。我们是在谈论他们吗?

 
Neutron:

维宁

把你的想法告诉我--会有一个续集的!


遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。 但这个主题真的很有趣。请您原谅。

 
lna01:
中子

哦,多么有趣啊!

这就是你得到的结果,如果你把加法器的输入不是指向滞后的泥浆,而是指向它自己:-)即指向理想MA的一阶导数。

为什么没有人要求说明呢?:)大家都清楚了吗?

目前的酒吧里没有理想的马氏。可能确实有他们的预言。我们是在谈论他们吗?

不,我说的是对完美波的平滑窗口宽度的预测。让我提醒你,它在BP的右边缘摇晃得非常厉害,典型的平滑区就在那个窗口的宽度上。


我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果预测是使用为后向窗口计算的权重乘以理想Ma的当前 值来建立的。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。


这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加2个以上的方程数(我最多检查了100个)并没有带来明显的改善。


P.S. 我松了一口气!


维宁

不幸的是,我在很久以前就成了一名读者。这就是为什么我不能给你提供任何东西。而且这个主题真的很有趣。请您原谅。

那么,对于这种情况,如何加载神经元。这不是很弱吗?

突然间,在至少两个隐藏层中诞生的NS的先验非线性将创造一个奇迹......

 
Neutron:

维宁

遗憾的是,我已经做了很长时间的读者了。这就是为什么我不能给你提供任何东西。但这个主题真的很有趣。请原谅我。

那么,对于这种情况,如何加载神经元。这不是很弱吗?

如果NS的先验非线性,至少在两个隐藏层中诞生,可以创造一个奇迹......。

当然有可能做出一个神经元。但这不仅仅是一个神经元的问题。有必要对输入进行定义,而我还没有看到它。

 

条目没有任何问题。最主要的是确定交易的置信区间

有时该系统交易了六个月,然后突然亏损,但有时甚至更早....。

 
Neutron:

我确实发现了代码中的一个错误--我漏掉了一行,没有纠正指数,结果,预测是基于一个窗口前计算的权重,乘以理想MA的当前 值。下面是修正后的结果(见图)。权重乘以一个窗口前的МАWA(我指它的导数)。


这是对未来5条的预测。正如人们所期望的那样,预测曲线已经在开始时成功地崩溃了。增加方程的数量超过2个(我检查到100个)并没有带来任何明显的改善。


Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍微好一点。当你去找BP时,你会有巨大的错误

 
grasn:

Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。

如果你指的是形式的线性自回归模型。

那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。

关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数被存储,这就是为什么当水平线增加到2-3条以上时,系列开始崩溃的原因。

 
Neutron:
格拉斯恩

Seryoga,这是一个非常糟糕的预测,autocorr-i方法做出的预测稍好一些。当你去找BP时,你会有巨大的错误。

如果你指的是形式为的线性自回归模型。

那么我不敢苟同。关键是我在解决几乎相同的问题(比较:x[n+1]=SUM{w[i]*x[n-i]},其中i=0...P-1),唯一的区别是和号下的权重是在深度P上自适应确定的,而在经典形式中--在更大的范围内综合确定(计算相关系数时用于统计集)。事实上,没有结果,所以只能加强我的愿望,转向用非线性方法进行分析,特别是使用NS。

关于完美马赫外推的情况(你引用了一个图表),我认为可以通过LPF的n阶导数守恒来大大增加预测范围,其中n应该大于2。在我的例子中,只有第一个导数是守恒的,这就是为什么当水平线超过2-3条时,系列开始崩溃。




Serega,而且只用了带系数的加法器,没有使用。因此,人们可以说你有一个神经网络,尽管是一个小的神经网络。让我们比较一下你的模型和我的模型,我们只需要思考一下标准。我在MatCAD 中使用predict(),而你则使用你的系统。我们有相同的开发环境,所以让我们定义数据文件(报价,被测试的过程--收盘,平均或任何...,测试区域)。我们只测试MA 预测,MA 本身是自适应选择的--如何选择并不重要,只有最后的结果是重要的。我们在每个样本上都进行测试,从而提高统计有效性(似乎有足够的数据)。


但我的预测范围是自适应选择的,并在先前指定的范围内取值。下面是我对未来四个读数的MA 预测的例子。


[没有错误]。


我们要不要试着比较一下?如果是这样,你对标准有什么建议,最好是一个数字对应一个计数,这样我想比较起来会比较容易。


PS:我们把测试的时间定得不要太死板,我想你也有很多不同的事情要做。

PS2: 为了测试,你可以通过邮件交换文件,或者你可以相信你的话 :o)

 

好的!

我没有理解错,我们都是相对于平滑曲线(MA)打印一个文件,并对未来N个读数进行预测?如果是这样,我们可以用以下方式评估结果:收集未来10个读数(例如)的预测统计数据(1000个结果),并在笛卡尔坐标中建立一个预测域,将MA真值放在横轴上,预测值放在纵轴上。


在获得的云层上,通过最小二乘法,我们画出一条直线,该方法与这条直线的切线的斜率将更接近于1--更陡峭!


P.S. 关于小神经元,你一如既往地击中了靶心 :-)