在交易中使用神经网络。 - 页 12

 
registred >> :

...什么,没有人解决过外汇中的神经网络 问题?

为什么没有人?

那些已经决定的人,请保持沉默 :)

1.

2.

而其余的人则必须与蛋白质神经元一起工作:(

[删除]  
goldtrader >> :

为什么没有人?

那些已经下定决心的人保持沉默 :)

1.

2.

而其余的人则必须与蛋白质神经元一起工作:(

所以你在这里讨论的东西是没有用的,事实证明...我个人没有在外汇中使用过神经元,我曾在其他事项上与他们打过交道。我想试试他们的交易,可以这么说,但我还没有时间。这就是为什么我不能说任何与外汇有关的事情。训练一个网络是一件非常复杂的事情。我的意思是,通常很难找到一个定性的概括,当然,我们必须进行大量的实验,增加隐藏层的神经元数量,增加样本量,看看网络是如何被困在一个浅的局部最小值,并试图让它离开那里。而在这一切之后,可能会发生什么都没有发生。一般来说,他们其实有很多困难。

 
registred >> :

所以你在这里讨论的东西是没有用的,事实证明真的...

在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。

神经网络顾问正在那里交易。

NS不是在金融市场上获利的最简单的工具,但在正确的人手中效果很好。

[删除]  
goldtrader >> :

在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。

这就是神经网络顾问的交易地点。

NS不是在金融市场上获利的最简单的工具,但它在娴熟的手中运作良好。

我是,我经常在那里的euroflood上闲逛。我有自己的预测系统,它们不是基于神经网络的。其实神经网络只是一个有趣的话题。我知道我对网络的要求大概是什么,只是,就像我说的,我还没有时间去做这些节目。更重要的是,到目前为止,我对我的系统很满意。困难在于建立这整个神经网络。就像我说的,要花太长时间来学习。我将应用梯度法以外的其他优化方法。

 
registred писал(а)>>

除了梯度法的优化,我还会应用其他东西。

如果不是秘密,是哪一个?

 
registred писал(а)>> 网络培训是一个非常复杂的事情。你可以使一个网络过度训练,训练不足,也就是说,往往很难找到一个定性的概括,你必须做大量的实验,增加隐藏层的神经元数量,增加样本量本身,看看网络如何进入一个浅的局部最小值,并试图让它离开那里。而在这一切之后,可能会发生什么都没有发生。一般来说,它们实际上有很多复杂性。

这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,增加神经元的数量会对未来的神经网络运行产生负面影响。

 
LeoV писал(а)>>

这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它不是过度学习就是学习不足。过度学习的可能性更大。因此,增加神经元的数量会对未来的神经元网络运行产生负面影响。

作为一个有经验的从业者,你想出了限制吗?在你看来,训练集的最佳规模、结构和输入数量是什么?

[删除]  
StatBars >> :

如果这不是一个秘密,那是哪一个?

如果你采取神经网络,核近似神经网络更好,它们学习得很快。

[删除]  
LeoV >> :

这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致采样大小的增加--采样大小的增加导致网络训练不足,因为更大的历史采样有太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,神经元数量的增加对未来的神经网络运行产生了负面影响。

网络几乎总是能找到一个局部最小值,它通常足够深,而且对解决一个给定的任务来说是最小必要的。至于隐藏层,它完全取决于输入参数的维度,这基本上代表了要解决的问题的复杂性。也就是说,隐藏层中可能没有足够的神经元,或者对于给定维度的输入,可能没有足够的例子。总之,有必要进行测试,从第1个神经元开始逐渐增加隐藏层的神经元数量,以此类推,直到达到所需的泛化误差。

 

假设我们有一些单参数的依赖关系,如 y(x)=F(x), 其中这种依赖关系的一般形式 F 对我们来说是未知的,它产生了价格序列,或者说,预期价格增量对我们一些指标的读数的依赖。在这种情况下,我们可以假设依赖关系是线性的,例如,知道价格增量y[i] 和指标读数x[i] 的几个先前值,我们可以很容易地解决寻找未知规律 F 的最佳(在最小偏差的意义上)线性近似值的问题,即一阶多项式y(x)=a*x+b 。然后,用最小二乘法搜索系数ab,结果是相等的。

我们可以更进一步,用二度多项式y(x)=a2*x^2+a1*x+a0 甚至n次 多项式来近似未知的依赖关系(规律)。但所有这些都是针对一个变量的功能,或者在我们的例子中,一个指标的功能。如果我们期望使用两个指标,那么用平面(两个变量的函数)来获得输入数据的近似的分析解就已经比较困难了,在多项式的度数增加的情况下,我们已经无法找到与F(x1,x2) 最近的九阶 曲面的分析表达。但这个问题很容易被NS解决,它有两个输入x1,x2,一个隐藏层和足够的神经元。此外,我们将输入的数量增加到10-20个,并在10-20维的特征空间 中拥有一个任意顺序的gipper-surface--这是一个梦想!

事实上,我们对周围世界的感知也是基于同样的原则--我们无意识地在脑海中建立一些吉普赛表面,这些表面以最佳方式反映现实--我们的经验。这种假想片面上的每一个点都是一个负责任的决定,在这样或那样的生活情况下,不一定是准确的,但几乎总是最佳的...。

对!我有点忘乎所以了。简而言之,除了内幕信息,很难,甚至不可能想到有什么比Neuronka更好的价格分析方法。