在交易中使用神经网络。 - 页 12 1...567891011121314151617181920 新评论 Alexander Sevastyanov 2009.03.27 23:39 #111 registred >> : ...什么,没有人解决过外汇中的神经网络 问题? 为什么没有人? 那些已经决定的人,请保持沉默 :) 1. 2. 而其余的人则必须与蛋白质神经元一起工作:( [删除] 2009.03.28 06:12 #112 goldtrader >> : 为什么没有人? 那些已经下定决心的人保持沉默 :) 1. 2. 而其余的人则必须与蛋白质神经元一起工作:( 所以你在这里讨论的东西是没有用的,事实证明...我个人没有在外汇中使用过神经元,我曾在其他事项上与他们打过交道。我想试试他们的交易,可以这么说,但我还没有时间。这就是为什么我不能说任何与外汇有关的事情。训练一个网络是一件非常复杂的事情。我的意思是,通常很难找到一个定性的概括,当然,我们必须进行大量的实验,增加隐藏层的神经元数量,增加样本量,看看网络是如何被困在一个浅的局部最小值,并试图让它离开那里。而在这一切之后,可能会发生什么都没有发生。一般来说,他们其实有很多困难。 Alexander Sevastyanov 2009.03.28 12:35 #113 registred >> : 所以你在这里讨论的东西是没有用的,事实证明真的... 在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。 神经网络顾问正在那里交易。 NS不是在金融市场上获利的最简单的工具,但在正确的人手中效果很好。 [删除] 2009.03.28 13:19 #114 goldtrader >> : 在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。 这就是神经网络顾问的交易地点。 NS不是在金融市场上获利的最简单的工具,但它在娴熟的手中运作良好。 我是,我经常在那里的euroflood上闲逛。我有自己的预测系统,它们不是基于神经网络的。其实神经网络只是一个有趣的话题。我知道我对网络的要求大概是什么,只是,就像我说的,我还没有时间去做这些节目。更重要的是,到目前为止,我对我的系统很满意。困难在于建立这整个神经网络。就像我说的,要花太长时间来学习。我将应用梯度法以外的其他优化方法。 Artem Titarenko 2009.03.28 17:56 #115 registred писал(а)>> 除了梯度法的优化,我还会应用其他东西。 如果不是秘密,是哪一个? Леонид 2009.03.28 18:25 #116 registred писал(а)>> 网络培训是一个非常复杂的事情。你可以使一个网络过度训练,训练不足,也就是说,往往很难找到一个定性的概括,你必须做大量的实验,增加隐藏层的神经元数量,增加样本量本身,看看网络如何进入一个浅的局部最小值,并试图让它离开那里。而在这一切之后,可能会发生什么都没有发生。一般来说,它们实际上有很多复杂性。 这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,增加神经元的数量会对未来的神经网络运行产生负面影响。 Sergey Fionin 2009.03.28 19:08 #117 LeoV писал(а)>> 这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它不是过度学习就是学习不足。过度学习的可能性更大。因此,增加神经元的数量会对未来的神经元网络运行产生负面影响。 作为一个有经验的从业者,你想出了限制吗?在你看来,训练集的最佳规模、结构和输入数量是什么? [删除] 2009.03.31 05:09 #118 StatBars >> : 如果这不是一个秘密,那是哪一个? 如果你采取神经网络,核近似神经网络更好,它们学习得很快。 [删除] 2009.03.31 05:19 #119 LeoV >> : 这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致采样大小的增加--采样大小的增加导致网络训练不足,因为更大的历史采样有太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,神经元数量的增加对未来的神经网络运行产生了负面影响。 网络几乎总是能找到一个局部最小值,它通常足够深,而且对解决一个给定的任务来说是最小必要的。至于隐藏层,它完全取决于输入参数的维度,这基本上代表了要解决的问题的复杂性。也就是说,隐藏层中可能没有足够的神经元,或者对于给定维度的输入,可能没有足够的例子。总之,有必要进行测试,从第1个神经元开始逐渐增加隐藏层的神经元数量,以此类推,直到达到所需的泛化误差。 Neutron 2009.03.31 10:09 #120 假设我们有一些单参数的依赖关系,如 y(x)=F(x), 其中这种依赖关系的一般形式 F 对我们来说是未知的,它产生了价格序列,或者说,预期价格增量对我们一些指标的读数的依赖。在这种情况下,我们可以假设依赖关系是线性的,例如,知道价格增量y[i] 和指标读数x[i] 的几个先前值,我们可以很容易地解决寻找未知规律 F 的最佳(在最小偏差的意义上)线性近似值的问题,即一阶多项式y(x)=a*x+b 。然后,用最小二乘法搜索系数a 和b,结果是相等的。 我们可以更进一步,用二度多项式y(x)=a2*x^2+a1*x+a0 甚至n次 多项式来近似未知的依赖关系(规律)。但所有这些都是针对一个变量的功能,或者在我们的例子中,一个指标的功能。如果我们期望使用两个指标,那么用平面(两个变量的函数)来获得输入数据的近似的分析解就已经比较困难了,在多项式的度数增加的情况下,我们已经无法找到与F(x1,x2) 最近的九阶 曲面的分析表达。但这个问题很容易被NS解决,它有两个输入x1,x2,一个隐藏层和足够的神经元。此外,我们将输入的数量增加到10-20个,并在10-20维的特征空间 中拥有一个任意顺序的gipper-surface--这是一个梦想! 事实上,我们对周围世界的感知也是基于同样的原则--我们无意识地在脑海中建立一些吉普赛表面,这些表面以最佳方式反映现实--我们的经验。这种假想片面上的每一个点都是一个负责任的决定,在这样或那样的生活情况下,不一定是准确的,但几乎总是最佳的...。 对!我有点忘乎所以了。简而言之,除了内幕信息,很难,甚至不可能想到有什么比Neuronka更好的价格分析方法。 1...567891011121314151617181920 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
...什么,没有人解决过外汇中的神经网络 问题?
为什么没有人?
那些已经决定的人,请保持沉默 :)
1.
2.
而其余的人则必须与蛋白质神经元一起工作:(
为什么没有人?
那些已经下定决心的人保持沉默 :)
1.
2.
而其余的人则必须与蛋白质神经元一起工作:(
所以你在这里讨论的东西是没有用的,事实证明...我个人没有在外汇中使用过神经元,我曾在其他事项上与他们打过交道。我想试试他们的交易,可以这么说,但我还没有时间。这就是为什么我不能说任何与外汇有关的事情。训练一个网络是一件非常复杂的事情。我的意思是,通常很难找到一个定性的概括,当然,我们必须进行大量的实验,增加隐藏层的神经元数量,增加样本量,看看网络是如何被困在一个浅的局部最小值,并试图让它离开那里。而在这一切之后,可能会发生什么都没有发生。一般来说,他们其实有很多困难。
所以你在这里讨论的东西是没有用的,事实证明真的...
在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。
神经网络顾问正在那里交易。
NS不是在金融市场上获利的最简单的工具,但在正确的人手中效果很好。
在我上面的帖子中,在数字1和2下,有一些链接,从你的反应来看,你没有遵循。
这就是神经网络顾问的交易地点。
NS不是在金融市场上获利的最简单的工具,但它在娴熟的手中运作良好。
我是,我经常在那里的euroflood上闲逛。我有自己的预测系统,它们不是基于神经网络的。其实神经网络只是一个有趣的话题。我知道我对网络的要求大概是什么,只是,就像我说的,我还没有时间去做这些节目。更重要的是,到目前为止,我对我的系统很满意。困难在于建立这整个神经网络。就像我说的,要花太长时间来学习。我将应用梯度法以外的其他优化方法。
除了梯度法的优化,我还会应用其他东西。
如果不是秘密,是哪一个?
这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,增加神经元的数量会对未来的神经网络运行产生负面影响。
这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致样本量的增加--样本量的增加导致网络训练不足,因为更多的历史样本包含太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它不是过度学习就是学习不足。过度学习的可能性更大。因此,增加神经元的数量会对未来的神经元网络运行产生负面影响。
作为一个有经验的从业者,你想出了限制吗?在你看来,训练集的最佳规模、结构和输入数量是什么?
如果这不是一个秘密,那是哪一个?
如果你采取神经网络,核近似神经网络更好,它们学习得很快。
这实际上是神经网络的一个基本事项。我试图提出这个问题,但事实证明,没有多少人对这个问题感兴趣。对神经网络的结构和复杂性更感兴趣,虽然只是这个问题早就解决了,而且事实证明没有必要去追问。隐蔽层中神经元的增加导致采样大小的增加--采样大小的增加导致网络训练不足,因为更大的历史采样有太多的规则,网络无法理解和学习。其结果是,它被卡在某个局部最小值中,无法脱身--它要么是过度学习,要么是学习不足。更有可能是训练过度。因此,神经元数量的增加对未来的神经网络运行产生了负面影响。
网络几乎总是能找到一个局部最小值,它通常足够深,而且对解决一个给定的任务来说是最小必要的。至于隐藏层,它完全取决于输入参数的维度,这基本上代表了要解决的问题的复杂性。也就是说,隐藏层中可能没有足够的神经元,或者对于给定维度的输入,可能没有足够的例子。总之,有必要进行测试,从第1个神经元开始逐渐增加隐藏层的神经元数量,以此类推,直到达到所需的泛化误差。
假设我们有一些单参数的依赖关系,如 y(x)=F(x), 其中这种依赖关系的一般形式 F 对我们来说是未知的,它产生了价格序列,或者说,预期价格增量对我们一些指标的读数的依赖。在这种情况下,我们可以假设依赖关系是线性的,例如,知道价格增量y[i] 和指标读数x[i] 的几个先前值,我们可以很容易地解决寻找未知规律 F 的最佳(在最小偏差的意义上)线性近似值的问题,即一阶多项式y(x)=a*x+b 。然后,用最小二乘法搜索系数a 和b,结果是相等的。
我们可以更进一步,用二度多项式y(x)=a2*x^2+a1*x+a0 甚至n次 多项式来近似未知的依赖关系(规律)。但所有这些都是针对一个变量的功能,或者在我们的例子中,一个指标的功能。如果我们期望使用两个指标,那么用平面(两个变量的函数)来获得输入数据的近似的分析解就已经比较困难了,在多项式的度数增加的情况下,我们已经无法找到与F(x1,x2) 最近的九阶 曲面的分析表达。但这个问题很容易被NS解决,它有两个输入x1,x2,一个隐藏层和足够的神经元。此外,我们将输入的数量增加到10-20个,并在10-20维的特征空间 中拥有一个任意顺序的gipper-surface--这是一个梦想!
事实上,我们对周围世界的感知也是基于同样的原则--我们无意识地在脑海中建立一些吉普赛表面,这些表面以最佳方式反映现实--我们的经验。这种假想片面上的每一个点都是一个负责任的决定,在这样或那样的生活情况下,不一定是准确的,但几乎总是最佳的...。
对!我有点忘乎所以了。简而言之,除了内幕信息,很难,甚至不可能想到有什么比Neuronka更好的价格分析方法。