"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 80 1...737475767778798081828384858687...100 新评论 Serj 2012.08.03 19:17 #791 Urain。关于稀疏性(我在上面写过),你可以根据掩码为每个神经元创建一个索引数组,在计数后,它将指示输出的位置。从哪里获取投入,让谁来获取产出,这似乎更符合逻辑。 Konstantin Grebenshikov 2012.08.03 19:55 #792 是的!!!这个话题非常有趣。我想介绍一下使用自然算法的神经网络优化主题,以蜜蜂群或粒子群为例。当我读到关于这个方法的文章时,我有一个想法,它看起来像什么,它不像OpenCL,但直接适用于neuronc,所以为什么不尝试用额外的图形DDL比如OpenGL来实现它,特别是在测试人员允许的情况下。如果有人感兴趣,我可以给一个有趣文章的链接,还有一个源代码的链接。 Vladimir 2012.08.03 20:06 #793 MetaDriver。 但是,这种方法甚至不包含试图在遗传上杂交拓扑结构 的萌芽。 我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗? Vladimir Gomonov 2012.08.03 20:10 #794 gpwr: 我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗? 骡子和马比驴子和马更适合某些活动。 这只是一个想法。 这个想法仍在进行中。 TheXpert 2012.08.03 20:11 #795 gpwr: 我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗? 它发生了。比如说,有一个perseptron的Cochonen。 Mykola Demko 2012.08.03 20:13 #796 她.人。从哪里获取投入,让谁来获取产出,这似乎更符合逻辑。你可以这样做,但这并不改变模型的本质。尽管有必要检查一下哪个选项的速度会更快。gpwr: 需要分层,因为在一些网络中,不同的层对输入有不同的处理,而且在一个层内神经元之间的连接也不同。 实际上,我不明白建立一个通用网络的目标是否实用。有许多网络有其细微差别(不同层的神经元的功能,它们的连接,权重的训练等)。在我看来,在一个模型中描述所有这些东西是不可能的,或者说是低效的。为什么不创建一个不同网络的图书馆呢?每个神经元都可以由它自己的类型来定义(更不用说层),这将由CProcessing基类后代的可扩展功能来设置。顺便说一下,我已经构思了这个想法,但实施时我是用膝盖做模型的。我想讨论它,然后实施已经想好的东西。我以为会很清楚,在CProcessing中应该有一个函数Trening,对于每种类型的神经元,它可能是不同的,取决于导数和天知道还有什么。而且可能有特宁的前向和后向传播。伴随着通用的拓扑结构,我们得到了一个通用的学习方案,一个神经元需要做什么来学习,在神经元本身就有描述,学习的处理是通过网状结构的单一标准化进展。你是否在某个地方看到过,例如在MLP中嵌入了基于径向的神经元,而一切都被正常学习了?它在这里是可以实现的。 Vladimir Gomonov 2012.08.03 20:29 #797 普遍描述的想法(包括对拓扑结构的全面描述)是有希望的,至少因为它将有可能(最终!)从非常 "网格类型 "中抽象出来--如果你理解的话,这是一个相当人为的概念。 我不反对给一些特定的拓扑结构起特定的名字(纯粹是为了方便)。但是,只要这些名字不开始催眠,不对本质的感知造成障碍,不干扰思想的相互交叉。 而且在生活活动的各个领域,每一步都可以观察到。 Konstantin Grebenshikov 2012.08.03 20:37 #798 读了你对这个话题的评论,得出的结论是--我想看看测试项目 什么时候会有? 和一篇有详细描述的文章。 Andrey Dik 2012.08.03 20:44 #799 Urain。... 因此,在某处可能存在一个反馈回路? Mykola Demko 2012.08.03 20:45 #800 GKS。读了你对这个话题的评论,得出了一个结论--我希望看到这个项目的测试版,当它将? 和一篇有详细描述的文章。在工作讨论的同时,时间会告诉我们。MetaDriver。 普遍描述的想法(包括对拓扑结构的全面描述)是有希望的,至少因为它将有可能(最终!)从 "网格类型 "中抽象出来--如果你理解的话,这是一个相当人为的概念。 我不反对给一些特定的拓扑结构起特定的名字(纯粹是为了方便)。但是,只要这些名字不开始催眠,不对本质的感知造成障碍,不干扰相互之间的思想交流。 而这一点在生活的各个领域的每一步都可以观察到。可以通过名称来制作引导模板,例如 "MLP "模板通过 "perseptrons "来拼出所有神经元的类型。 1...737475767778798081828384858687...100 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
关于稀疏性(我在上面写过),你可以根据掩码为每个神经元创建一个索引数组,在计数后,它将指示输出的位置。
是的!!!这个话题非常有趣。我想介绍一下使用自然算法的神经网络优化主题,以蜜蜂群或粒子群为例。当我读到关于这个方法的文章时,我有一个想法,它看起来像什么,它不像OpenCL,但直接适用于neuronc,所以为什么不尝试用额外的图形DDL比如OpenGL来实现它,特别是在测试人员允许的情况下。如果有人感兴趣,我可以给一个有趣文章的链接,还有一个源代码的链接。
但是,这种方法甚至不包含试图在遗传上杂交拓扑结构 的萌芽。
我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗?
我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗?
我没有听说过这样的事情。跨越不同的拓扑结构会导致比同一拓扑结构的演变更好的结果吗?
从哪里获取投入,让谁来获取产出,这似乎更符合逻辑。
你可以这样做,但这并不改变模型的本质。尽管有必要检查一下哪个选项的速度会更快。
需要分层,因为在一些网络中,不同的层对输入有不同的处理,而且在一个层内神经元之间的连接也不同。 实际上,我不明白建立一个通用网络的目标是否实用。有许多网络有其细微差别(不同层的神经元的功能,它们的连接,权重的训练等)。在我看来,在一个模型中描述所有这些东西是不可能的,或者说是低效的。为什么不创建一个不同网络的图书馆呢?
每个神经元都可以由它自己的类型来定义(更不用说层),这将由CProcessing基类后代的可扩展功能来设置。顺便说一下,我已经构思了这个想法,但实施时我是用膝盖做模型的。我想讨论它,然后实施已经想好的东西。我以为会很清楚,在CProcessing中应该有一个函数Trening,对于每种类型的神经元,它可能是不同的,取决于导数和天知道还有什么。而且可能有特宁的前向和后向传播。
伴随着通用的拓扑结构,我们得到了一个通用的学习方案,一个神经元需要做什么来学习,在神经元本身就有描述,学习的处理是通过网状结构的单一标准化进展。
你是否在某个地方看到过,例如在MLP中嵌入了基于径向的神经元,而一切都被正常学习了?它在这里是可以实现的。
普遍描述的想法(包括对拓扑结构的全面描述)是有希望的,至少因为它将有可能(最终!)从非常 "网格类型 "中抽象出来--如果你理解的话,这是一个相当人为的概念。
我不反对给一些特定的拓扑结构起特定的名字(纯粹是为了方便)。但是,只要这些名字不开始催眠,不对本质的感知造成障碍,不干扰思想的相互交叉。 而且在生活活动的各个领域,每一步都可以观察到。
读了你对这个话题的评论,得出的结论是--我想看看测试项目 什么时候会有? 和一篇有详细描述的文章。
...
读了你对这个话题的评论,得出了一个结论--我希望看到这个项目的测试版,当它将? 和一篇有详细描述的文章。
在工作讨论的同时,时间会告诉我们。
普遍描述的想法(包括对拓扑结构的全面描述)是有希望的,至少因为它将有可能(最终!)从 "网格类型 "中抽象出来--如果你理解的话,这是一个相当人为的概念。
我不反对给一些特定的拓扑结构起特定的名字(纯粹是为了方便)。但是,只要这些名字不开始催眠,不对本质的感知造成障碍,不干扰相互之间的思想交流。 而这一点在生活的各个领域的每一步都可以观察到。
可以通过名称来制作引导模板,例如 "MLP "模板通过 "perseptrons "来拼出所有神经元的类型。