"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 74 1...676869707172737475767778798081...100 新评论 yu-sha 2011.11.29 21:07 #731 Urain。 让我们做个实验,创建一个1000个神经元的网格,每个神经元有100个连接,并公布文件大小~6 MBytes网络100x1000x1 - 全网附上))。现在请告诉我,你打算如何训练它?我只知道有一种网络可以有类似的规模,但它们不需要训练和存储。 它们通过训练样本一次性形成并愚蠢地记住它。这样一个网络不可能由所有科幻电影中的所有计算机加在一起用GA来训练:搜索空间的维度为100 000或者说,我相信这样的网络会简单地记住训练样本,而你会得到整个故事的截图,而不是归纳。你必须更谨慎地选择建筑)) 附加的文件: UrainTask.zip 93 kb Mykola Demko 2011.11.29 21:17 #732 yu-sha:~6 MBytes。附上))。现在请告诉我,你打算怎么教它? 是的,教书只是没有问题,我在上面写到,对于UGA来说,10万个参数是可以接受的任务,我不能说是小事,但却是可行的。但尺寸很正常,你不必再担心了,因为他们说这个问题已经结束了。 yu-sha 2011.11.29 21:23 #733 Urain。训练不是问题,我在上面写到,对于UGA来说,10万个参数是一个相当可以接受的任务,我不能说这很容易,但它是可行的。但尺寸很正常,你不必再担心了,正如他们所说,问题已经解决了。即使你将每个参数的分辨率设置为0.1,完整搜索的所有可能组合的数量为10^100000你对GA有一个非常聪明的想法。 Mykola Demko 2011.11.29 21:36 #734 yu-sha: 即使你把每个参数的离散性设置为0.1,完整搜索的所有可能组合的数量也是10^100000你对GA有一个非常聪明的想法我没有彩虹的想法,我有使用这个算法的实际知识,UGA不是一个需要把搜索空间分成图的二进制算法。UGA在所有的测量中同时进行平行搜索,一步一步地自动减少步骤,这使他有可能在合理的时间内达到稳健的结果,而且更多的是用于训练网格,这是不需要的,进一步会有重新训练。通常在10000-50000FF中,不管参数的数量如何,都能达到这个结果。 Serj 2011.11.29 22:55 #735 yu-sha:~6 MBytes网络100x1000x1 - 全网附上))。现在请告诉我,你打算如何训练它?我只知道一种网络,它可以有类似的大小顺序,但它们不需要训练,也不需要存储。 它们是通过训练样本一次性形成的,并愚蠢地记住它。这样一个网络不可能由所有科幻电影中的所有计算机加在一起用GA来训练:搜索空间的维度为100 000或者说,我相信这样的网络会简单地记住训练样本,而你会得到整个故事的截图,而不是归纳。你必须更谨慎地选择建筑))很明显,没有人需要(是无用的)这样一个网络。这就是为什么我们谈论的是一个自由的架构(可扩展)。为了实验,我将在我的N450的小设备上尝试用GA来教它。教什么,有多少例子,错误,等等?P.S. 在学习的同时,我将研究你的代码。 Mykola Demko 2011.11.29 23:01 #736 她.人。很明显,没有人需要这样的网络(无用)。这就是为什么我们在谈论自由架构(可扩展)。为了实验,我将尝试在我的小铁上用N450进行GA教学。教什么,有多少例子,错误,等等? 你打算教什么GA? Andrey Dik 2011.11.29 23:01 #737 Urain。我没有彩虹的想法,但是关于使用这种算法的实际知识,UGA不是一个二进制算法,需要将搜索空间划分为图。UGA同时对所有的测量进行平行搜索,一步一步地自动减少步骤,这使它有机会在合理的时间内达到稳健的结果,而且对于训练网格也没有必要,进一步会有重新训练。 通常在10000-50000FF中,不管参数的数量如何,都能达到这个结果。鸣谢。黑体字强调的是一个有力的结果(不一定是绝对的最大值)。最主要的是,它可以训练巨大尺寸的网格。而是否需要这些巨大的网格则由每个特定的节点决定。:) Mykola Demko 2011.11.29 23:09 #738 joo:鸣谢。黑体字强调的是一个有力的结果(不一定是绝对的最大值)。最主要的是,它可以训练巨大尺寸的网格。而这些巨大的网格是否有必要,则取决于每个节点的良知。:)虽然 FF的运行次数几乎没有增长(为了得到稳健的解决方案),但我们应该补充说,找到结果的时间会增加,因为算法必须运行大很多倍的数组(实际上进行了更多的操作),但首先是线性增长,其次在测试期间,FF的速度,特别是作为FF一部分的NS速度一直是主要的绊脚石,预计在GPU上NS会严重加速,一般来说GA会加速找到解决方案。 Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования www.mql5.com Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5 Serj 2011.11.29 23:09 #739 Urain。 那你打算教什么GA?关键不在于哪一个。只是想知道,在如此薄弱的硬件条件下,GA是否会拉动它。joo算法的简化版。 Mykola Demko 2011.11.29 23:17 #740 她.人。问题不在于哪一个。只是想知道,在如此薄弱的硬件条件下,GA是否会拉动它。JOO算法的轻量级版本。 我曾经想写一个用GA学习小网格的测试器,就像我上面画的那个,6个权重,3个神经元,XOR问题,但是我没有时间去做:) 1...676869707172737475767778798081...100 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
让我们做个实验,创建一个1000个神经元的网格,每个神经元有100个连接,并公布文件大小
~6 MBytes
网络100x1000x1 - 全网
附上))。
现在请告诉我,你打算如何训练它?
我只知道有一种网络可以有类似的规模,但它们不需要训练和存储。 它们通过训练样本一次性形成并愚蠢地记住它。
这样一个网络不可能由所有科幻电影中的所有计算机加在一起用GA来训练:搜索空间的维度为100 000
或者说,我相信这样的网络会简单地记住训练样本,而你会得到整个故事的截图,而不是归纳。
你必须更谨慎地选择建筑))
~6 MBytes。
附上))。
现在请告诉我,你打算怎么教它?
是的,教书只是没有问题,我在上面写到,对于UGA来说,10万个参数是可以接受的任务,我不能说是小事,但却是可行的。
但尺寸很正常,你不必再担心了,因为他们说这个问题已经结束了。
训练不是问题,我在上面写到,对于UGA来说,10万个参数是一个相当可以接受的任务,我不能说这很容易,但它是可行的。
但尺寸很正常,你不必再担心了,正如他们所说,问题已经解决了。
即使你将每个参数的分辨率设置为0.1,完整搜索的所有可能组合的数量为10^100000
你对GA有一个非常聪明的想法。
即使你把每个参数的离散性设置为0.1,完整搜索的所有可能组合的数量也是10^100000
你对GA有一个非常聪明的想法
我没有彩虹的想法,我有使用这个算法的实际知识,UGA不是一个需要把搜索空间分成图的二进制算法。
UGA在所有的测量中同时进行平行搜索,一步一步地自动减少步骤,这使他有可能在合理的时间内达到稳健的结果,而且更多的是用于训练网格,这是不需要的,进一步会有重新训练。通常在10000-50000FF中,不管参数的数量如何,都能达到这个结果。
~6 MBytes
网络100x1000x1 - 全网
附上))。
现在请告诉我,你打算如何训练它?
我只知道一种网络,它可以有类似的大小顺序,但它们不需要训练,也不需要存储。 它们是通过训练样本一次性形成的,并愚蠢地记住它。
这样一个网络不可能由所有科幻电影中的所有计算机加在一起用GA来训练:搜索空间的维度为100 000
或者说,我相信这样的网络会简单地记住训练样本,而你会得到整个故事的截图,而不是归纳。
你必须更谨慎地选择建筑))
很明显,没有人需要(是无用的)这样一个网络。这就是为什么我们谈论的是一个自由的架构(可扩展)。
为了实验,我将在我的N450的小设备上尝试用GA来教它。教什么,有多少例子,错误,等等?
P.S. 在学习的同时,我将研究你的代码。
很明显,没有人需要这样的网络(无用)。这就是为什么我们在谈论自由架构(可扩展)。
为了实验,我将尝试在我的小铁上用N450进行GA教学。教什么,有多少例子,错误,等等?
我没有彩虹的想法,但是关于使用这种算法的实际知识,UGA不是一个二进制算法,需要将搜索空间划分为图。
UGA同时对所有的测量进行平行搜索,一步一步地自动减少步骤,这使它有机会在合理的时间内达到稳健的结果,而且对于训练网格也没有必要,进一步会有重新训练。 通常在10000-50000FF中,不管参数的数量如何,都能达到这个结果。
鸣谢。黑体字强调的是一个有力的结果(不一定是绝对的最大值)。
最主要的是,它可以训练巨大尺寸的网格。而是否需要这些巨大的网格则由每个特定的节点决定。:)
鸣谢。黑体字强调的是一个有力的结果(不一定是绝对的最大值)。
最主要的是,它可以训练巨大尺寸的网格。而这些巨大的网格是否有必要,则取决于每个节点的良知。:)
虽然 FF的运行次数几乎没有增长(为了得到稳健的解决方案),但我们应该补充说,找到结果的时间会增加,因为算法必须运行大很多倍的数组(实际上进行了更多的操作),但首先是线性增长,其次在测试期间,FF的速度,特别是作为FF一部分的NS速度一直是主要的绊脚石,预计在GPU上NS会严重加速,一般来说GA会加速找到解决方案。
那你打算教什么GA?
关键不在于哪一个。只是想知道,在如此薄弱的硬件条件下,GA是否会拉动它。
joo算法的简化版。
问题不在于哪一个。只是想知道,在如此薄弱的硬件条件下,GA是否会拉动它。
JOO算法的轻量级版本。