在交易中使用神经网络 - 页 39 1...323334353637383940 新评论 Дмитрий 2013.10.21 08:21 #381 可惜没有 "先驱者"。我将继续挖掘... Дмитрий 2013.12.15 10:47 #382 我尝试了哈特利变换,这是傅里叶变换的类似物。任务是使用一个在时间上移到 "过去 "的矩形窗口函数。将产生的向量分解成分量,并将其用于NS输入。作为一种预测--改变光谱成分,然后进行反变换。由此产生的预测光谱的反变换被用于指标中。这里 有更详细的描述。 Alexey Subbotin 2014.01.24 10:15 #383 我读过这样一篇娱乐性的文章。 我对把大脑构造成一个神经网络的原则感兴趣--首先招募大量的各种连接,而不太注意它们的质量,然后根据 "去掉一切不需要实现的结果 "的原则开始进行选择。 这种方法很可能有助于对抗过度训练和所谓的 "结构性失败"。 在这方面,有一个问题:难道没有人遇到过NS理论中类似原理的研究吗? Vladimir Gomonov 2014.01.24 11:29 #384 alsu: 我读过这样一篇娱乐性的文章。 我对把大脑构造成一个神经网络的原则感兴趣--首先招募大量的各种连接,而不太注意它们的质量,然后根据 "删除一切不需要实现的结果 "的原则开始进行选择。 这种方法很可能有助于对抗过度训练和所谓的 "结构性失败"。 在这方面,有一个问题:难道没有人遇到过NS理论中类似原理的研究吗? 当在系数中检测到一个小的绝对值时,见过一些 "净瘦 "的东西。 但我在几十次中没有看到这样的事情,作为一个基本原则,"大,大盈余,然后减少"。 你想做一个吗? 我很感兴趣。 只有计算资源是不够的。 // 我不知道如何适应GPU - 只计算同一类型的方案是有利可图的,而这里每次的网络拓扑结构都是不同的。 Alexey Subbotin 2014.01.24 11:49 #385 MetaDriver: 你想上钩吗? 我愿意。但现在我在想:我需要仔细思考,以弄清楚使用哪种还原算法。第一个想法是真正通过绝对值 进行瘦身,并使阈值取决于已经呈现的例子的数量:训练样本越大,链接应该越难生存。 Alexey Subbotin 2014.01.24 11:55 #386 MetaDriver: 我不知道如何适应GPU--只计算同一类型的方案是有利的,但这里每次的网络拓扑结构都不同。 单一类型和硬件实现的。一般来说,并行计算的 效率被大大夸大了,事实上(有真实的计算,甚至有关于它的博士论文),一般来说,它们甚至比顺序计算更慢;原因在于数据传输的时间消耗。 Vladimir Gomonov 2014.01.24 12:25 #387 alsu: 同样的类型,而且是硬件实现的类型。并行计算的效率被大大夸大了,实际上(有真实的计算,甚至博士论文也有关于它的辩护)在一般情况下,它甚至比顺序计算更慢;原因是在数据传输上花费的时间。 我不能立即同意。如果你对具体细节有很好的了解,你可以想办法把速度提高几百倍。 一些 的任务。因此,对于密集型计算,尝试将问题减少到那些"一些 " 的类别中总是有意义的。如果成功,收益可能是巨大的。如果没有,那么就没有--在普通处理器上按顺序计算。 -- 例如,具有大量训练实例的同类型(具有相同的拓扑结构)神经网络的遗传优化是非常有益的(执行速度提高数十倍或数百倍)。唯一的问题是,每个拓扑结构都需要一个新的OpenCL程序。这可以通过构建基本的ocl-模板和为给定的拓扑结构自动(编程)生成新的ocl-程序来解决。 顺便说一句,在这里。在写上面的内容时,我想到了一个想法,如何将你的问题减少到对GPU计算有利的类别。要一步一步地做:在每一步里面,我们要在一个OCL程序中读取所有的东西,但要把系数减少到零(本质上是模仿)。而对于一个新的步骤,生成一个新的程序,其中前一个步骤的减少量已经 "闪 "入程序。以此类推。但如果使用遗传 "学习",情况就会如此。 Alexey Subbotin 2014.01.24 12:46 #388 MetaDriver: 我不能马上同意这一点。如果你对细节有很好的理解,你可能会设法将速度提高数百倍。 一些 的任务。因此,对于复杂的计算,尝试将问题减少到那些"一些 " 类中总是有意义的。如果成功,收益可能是巨大的。如果没有,则没有--在普通处理器上按顺序计算。 在我的印象中,临界值是指主循环中并联任务 与非并联任务(数据准备、数据传输)的执行时间之比,并行度越高,对这个比例的要求就越严格。这就是为什么我们不仅要把算法减少到 "并行文件",而且要把非并行部分降到最低。 例如,在现在流行的(顺便说一下,在Five中实现的)云计算中,正是由于传输时间的原因,增益限制非常严重。为了公平起见,应该指出,这些限制只有在云计算网络的负载不低于几十个百分点时才会出现。 好吧,但现在不是这个问题了--在这项任务中,确实没有太多并行的方式。 Alexey Subbotin 2014.01.24 12:50 #389 MetaDriver:// 唯一的问题是,每个拓扑结构都需要一个新的OpenCL程序。 这可以通过构建基本的ocl-模板和为给定的拓扑结构自动(编程)生成新的ocl-程序来解决。 将不会有并行性:模板相互依次依赖,所以你必须提前生成所有的模板,但这样就会有数万亿的模板,大部分的时间都会花在寻找当下的正确模板上) Vladimir Gomonov 2014.01.24 12:57 #390 alsu: 不会有并行性:模板之间是相互依赖的,所以我们必须提前生成所有的模板,但这样就会有数万亿的模板,大部分的时间将花在寻找当前需要的模板上) 并非如此。我是为单一类型的神经网络做的。 我甚至可以给你发送一个代码生成器。 问题是不同的:如何将你的任务减少到一个有利可图的等级。 重读我以前的帖子--我在那里加的。 啊,好吧,我将重复这一点。 顺便说一句,在这里。 在写上述内容时,我想到了一个想法,如何将你的问题减少到一类有利的GPU计算中。 要一步一步地做:在每一步里面,我们要在一个OCL程序中读取所有的东西,但要把系数减少到零(本质上是模仿)。 而对于一个新的步骤,生成一个新的程序,其中前一个步骤的减少量已经 "闪 "入程序。 以此类推。 但如果使用遗传 "学习",情况就会如此。 1...323334353637383940 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
可惜没有 "先驱者"。我将继续挖掘...
我读过这样一篇娱乐性的文章。
我对把大脑构造成一个神经网络的原则感兴趣--首先招募大量的各种连接,而不太注意它们的质量,然后根据 "去掉一切不需要实现的结果 "的原则开始进行选择。
这种方法很可能有助于对抗过度训练和所谓的 "结构性失败"。
在这方面,有一个问题:难道没有人遇到过NS理论中类似原理的研究吗?
我读过这样一篇娱乐性的文章。
我对把大脑构造成一个神经网络的原则感兴趣--首先招募大量的各种连接,而不太注意它们的质量,然后根据 "删除一切不需要实现的结果 "的原则开始进行选择。
这种方法很可能有助于对抗过度训练和所谓的 "结构性失败"。
在这方面,有一个问题:难道没有人遇到过NS理论中类似原理的研究吗?
当在系数中检测到一个小的绝对值时,见过一些 "净瘦 "的东西。
但我在几十次中没有看到这样的事情,作为一个基本原则,"大,大盈余,然后减少"。 你想做一个吗?
我很感兴趣。 只有计算资源是不够的。 // 我不知道如何适应GPU - 只计算同一类型的方案是有利可图的,而这里每次的网络拓扑结构都是不同的。
MetaDriver:
你想上钩吗?
我愿意。但现在我在想:我需要仔细思考,以弄清楚使用哪种还原算法。第一个想法是真正通过绝对值 进行瘦身,并使阈值取决于已经呈现的例子的数量:训练样本越大,链接应该越难生存。
我不知道如何适应GPU--只计算同一类型的方案是有利的,但这里每次的网络拓扑结构都不同。
同样的类型,而且是硬件实现的类型。并行计算的效率被大大夸大了,实际上(有真实的计算,甚至博士论文也有关于它的辩护)在一般情况下,它甚至比顺序计算更慢;原因是在数据传输上花费的时间。
我不能立即同意。如果你对具体细节有很好的了解,你可以想办法把速度提高几百倍。 一些 的任务。因此,对于密集型计算,尝试将问题减少到那些"一些 " 的类别中总是有意义的。如果成功,收益可能是巨大的。如果没有,那么就没有--在普通处理器上按顺序计算。
--
例如,具有大量训练实例的同类型(具有相同的拓扑结构)神经网络的遗传优化是非常有益的(执行速度提高数十倍或数百倍)。唯一的问题是,每个拓扑结构都需要一个新的OpenCL程序。这可以通过构建基本的ocl-模板和为给定的拓扑结构自动(编程)生成新的ocl-程序来解决。
顺便说一句,在这里。在写上面的内容时,我想到了一个想法,如何将你的问题减少到对GPU计算有利的类别。要一步一步地做:在每一步里面,我们要在一个OCL程序中读取所有的东西,但要把系数减少到零(本质上是模仿)。而对于一个新的步骤,生成一个新的程序,其中前一个步骤的减少量已经 "闪 "入程序。以此类推。但如果使用遗传 "学习",情况就会如此。
我不能马上同意这一点。如果你对细节有很好的理解,你可能会设法将速度提高数百倍。 一些 的任务。因此,对于复杂的计算,尝试将问题减少到那些"一些 " 类中总是有意义的。如果成功,收益可能是巨大的。如果没有,则没有--在普通处理器上按顺序计算。
在我的印象中,临界值是指主循环中并联任务 与非并联任务(数据准备、数据传输)的执行时间之比,并行度越高,对这个比例的要求就越严格。这就是为什么我们不仅要把算法减少到 "并行文件",而且要把非并行部分降到最低。
例如,在现在流行的(顺便说一下,在Five中实现的)云计算中,正是由于传输时间的原因,增益限制非常严重。为了公平起见,应该指出,这些限制只有在云计算网络的负载不低于几十个百分点时才会出现。
好吧,但现在不是这个问题了--在这项任务中,确实没有太多并行的方式。
将不会有并行性:模板相互依次依赖,所以你必须提前生成所有的模板,但这样就会有数万亿的模板,大部分的时间都会花在寻找当下的正确模板上)
不会有并行性:模板之间是相互依赖的,所以我们必须提前生成所有的模板,但这样就会有数万亿的模板,大部分的时间将花在寻找当前需要的模板上)
啊,好吧,我将重复这一点。
顺便说一句,在这里。 在写上述内容时,我想到了一个想法,如何将你的问题减少到一类有利的GPU计算中。 要一步一步地做:在每一步里面,我们要在一个OCL程序中读取所有的东西,但要把系数减少到零(本质上是模仿)。 而对于一个新的步骤,生成一个新的程序,其中前一个步骤的减少量已经 "闪 "入程序。 以此类推。 但如果使用遗传 "学习",情况就会如此。