混合神经网络。 - 页 7 1234567891011121314...22 新评论 ilyaa 2009.10.05 21:46 #61 joo >> : 实际上,我是在三四年级的时候发明的。你什么时候提取根部?在这里,我在做平方根、立方根......。但是在有方格的笔记本纸上。 测试了一下。其结果确实令人印象深刻。 声音(吹牛)。 Andrey Dik 2009.10.06 02:46 #62 IlyaA >> : 我描述的任务没有触动你吗?这有点像到处都是。不可能。大多数无线电电子设备都是根据这一原则建立的。 我们不进行推断或平均,而是进行隔离。噪声集成在这里起作用。 学习的意义不在于通过筛选出一些出现的特殊特征,然后记住它们来进行隔离。而且,这甚至不是说我们不能筛选出这些特征。 我在其中一个主题中概述了学习的原则。 学习是获得概括能力、分类能力、抽象能力、能够得出结论的过程。 通过什么方式是另一个问题。 IlyaA 写道(a)>>。 人们如何学习?:)他们先读一个主题,然后再读另一个。每个主题都是单独研究的。然后,他们进行了归纳。而这样一来,你的格子就会死记硬背,不会泛起什么。它将变得高度专业化。 阅读上文。 IlyaA 写道(a)>>。 不要读太多的书,你有什么建议?看电视,用头撞墙? 意义比它看起来更深,或者说,这些词中似乎根本没有意义。关键是要思考、推理、得出结论,而不是背诵。 IlyaA 写道(a)>>。 发出声音(吹牛)。 我不需要它。有一个问题,就有一个答案。 RIP 2009.10.06 11:15 #63 IlyaA >> : 哦,对了,第一阶段的网络是全绑定的,嗯,或者说像卷积网络,但有很多层)。而所有这些幸福都被乘以10,并开始交配。每个人都要进行处理,也就是说,我们有10倍。而如果你有一个想法,要教一个有利可图的技巧,那么我必须计算每一代的所有时间间隔,并在每个后代中运行。这个操作非常耗费资源,所以我又回到了我最初的问题。 为什么不使用RProp?在遗传学的情况下,它能显著加快计算速度。 ilyaa 2009.10.06 12:16 #64 joo >> : 学习的意义不在于孤立,通过筛选出一些出现的特殊特征,然后记住它们。甚至不是说我们不能筛选出这些特征。 我在其中一个主题中概述了学习的原则。 学习是获得归纳、分类、抽象、得出结论的能力的过程。 通过什么手段--这是另一个问题。 在我看来,我们已经开始了哲学思考,我建议以 "坚持我们的观点 "来结束对这个问题的讨论。 ilyaa 2009.10.06 12:29 #65 rip >> : 为什么不使用RProp?在遗传学的情况下,它使计算的速度大大加快。 我同意它更快,梯度下降也是如此。差异不大。使用遗传学的意义在于,找到一个全球极值的概率接近1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。 Sergey Fionin 2009.10.06 13:10 #66 IlyaA писал(а)>> 我同意它比较快,梯度下降法也是如此。差异不大。使用遗传学的意义在于,找到全球极值的概率接近于1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。 你有使用这个系统交易的具体结果吗?>> 这是否值得努力? RIP 2009.10.06 13:26 #67 IlyaA >> : 我同意它比较快,梯度下降法也是如此。差异不大。使用遗传学的意义在于,找到全球极值的概率接近于1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。 我同意梯度并不能提供学习算法的100%收敛性。 我只用GA来获得新的网络拓扑结构。平均来说,RProp显示在100-200个历时中达到局部最小值。 之后,最成功的个体被发现,并形成新的种群。突变。RProp。 ilyaa 2009.10.06 14:43 #68 rip >> : 我同意,梯度并不能提供学习算法的100%收敛。 我只用GA来获得新的网络拓扑结构。平均来说,RProp显示在100-200个历时中达到局部最小值。 之后,找到表现最好的个体,形成新的种群。突变。RProp。 这种组合意味着。先生们,让我向大家表示祝贺!我们只是公正地说明了支部的名称。这是个想法!以下是我想到的内容。遗传学中的突变以小幅度改变20-40%的尺度。子代返回父母栖息地的概率高吗? ilyaa 2009.10.06 14:48 #69 FION >> : 你有使用这个系统交易的具体结果吗?>> 这是否值得努力? 没有具体的结果。只有想法和预测。我所做的所有感知器都没有存活到指标阶段。我拒绝了他们。:( 目前最好的想法是克服该算法的资源密集性。但薇拉还活着(娜迪雅和柳芭也是如此 :)。 gumgum 2009.10.06 14:52 #70 问题。 谁实现了高木-菅野-康加的模糊网络? 1234567891011121314...22 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
实际上,我是在三四年级的时候发明的。你什么时候提取根部?在这里,我在做平方根、立方根......。但是在有方格的笔记本纸上。
测试了一下。其结果确实令人印象深刻。
声音(吹牛)。我描述的任务没有触动你吗?这有点像到处都是。不可能。大多数无线电电子设备都是根据这一原则建立的。
我们不进行推断或平均,而是进行隔离。噪声集成在这里起作用。
学习的意义不在于通过筛选出一些出现的特殊特征,然后记住它们来进行隔离。而且,这甚至不是说我们不能筛选出这些特征。
我在其中一个主题中概述了学习的原则。
学习是获得概括能力、分类能力、抽象能力、能够得出结论的过程。
通过什么方式是另一个问题。
IlyaA 写道(a)>>。
人们如何学习?:)他们先读一个主题,然后再读另一个。每个主题都是单独研究的。然后,他们进行了归纳。而这样一来,你的格子就会死记硬背,不会泛起什么。它将变得高度专业化。
阅读上文。
IlyaA 写道(a)>>。
不要读太多的书,你有什么建议?看电视,用头撞墙?
意义比它看起来更深,或者说,这些词中似乎根本没有意义。关键是要思考、推理、得出结论,而不是背诵。
IlyaA 写道(a)>>。
发出声音(吹牛)。
我不需要它。有一个问题,就有一个答案。
哦,对了,第一阶段的网络是全绑定的,嗯,或者说像卷积网络,但有很多层)。而所有这些幸福都被乘以10,并开始交配。每个人都要进行处理,也就是说,我们有10倍。而如果你有一个想法,要教一个有利可图的技巧,那么我必须计算每一代的所有时间间隔,并在每个后代中运行。这个操作非常耗费资源,所以我又回到了我最初的问题。为什么不使用RProp?在遗传学的情况下,它能显著加快计算速度。
学习的意义不在于孤立,通过筛选出一些出现的特殊特征,然后记住它们。甚至不是说我们不能筛选出这些特征。
我在其中一个主题中概述了学习的原则。
学习是获得归纳、分类、抽象、得出结论的能力的过程。
通过什么手段--这是另一个问题。
在我看来,我们已经开始了哲学思考,我建议以 "坚持我们的观点 "来结束对这个问题的讨论。为什么不使用RProp?在遗传学的情况下,它使计算的速度大大加快。
我同意它更快,梯度下降也是如此。差异不大。使用遗传学的意义在于,找到一个全球极值的概率接近1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。我同意它比较快,梯度下降法也是如此。差异不大。使用遗传学的意义在于,找到全球极值的概率接近于1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。
你有使用这个系统交易的具体结果吗?>> 这是否值得努力?
我同意它比较快,梯度下降法也是如此。差异不大。使用遗传学的意义在于,找到全球极值的概率接近于1。没有梯度会显示这一点(如果我错了请纠正我)。此外,一个优化的超平面的表面布满了无数个具有显著振幅的局部极值。但越来越多的神经元为火上浇油--超平面变得更加错综复杂。在这样的条件下,梯度会收敛,但正如我上面写的,找到全局极值的概率是50-80%。我同意梯度并不能提供学习算法的100%收敛性。
我只用GA来获得新的网络拓扑结构。平均来说,RProp显示在100-200个历时中达到局部最小值。
之后,最成功的个体被发现,并形成新的种群。突变。RProp。
我同意,梯度并不能提供学习算法的100%收敛。
我只用GA来获得新的网络拓扑结构。平均来说,RProp显示在100-200个历时中达到局部最小值。
之后,找到表现最好的个体,形成新的种群。突变。RProp。
这种组合意味着。先生们,让我向大家表示祝贺!我们只是公正地说明了支部的名称。这是个想法!以下是我想到的内容。遗传学中的突变以小幅度改变20-40%的尺度。子代返回父母栖息地的概率高吗?你有使用这个系统交易的具体结果吗?>> 这是否值得努力?
没有具体的结果。只有想法和预测。我所做的所有感知器都没有存活到指标阶段。我拒绝了他们。:( 目前最好的想法是克服该算法的资源密集性。但薇拉还活着(娜迪雅和柳芭也是如此 :)。问题。
谁实现了高木-菅野-康加的模糊网络?