Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
那时我还在开始学习R,这个脚本几乎完全是在rattle(R中数据挖掘的可视化环境)中生成的,这就是为什么它如此复杂,并为各种场合定制。
这个人
应改为...
它应该是好的。
一般来说,这是一个糟糕的方法,你不应该以这种方式定义输入的重要性。由于某些原因,那次很有效,但它再也没有帮助过我。
又做了一些实验...
如果你在隐藏层中设置1-2个神经元,重要的输入就会有数倍的不同。
152.33, 7.82, 132.57, 12.19, 132.86, 10.54, 135.56, 19.16, 137.32, 14.84, 127.36, 7.43, 11.35, 6.66, 13.6, 10.18, 10.74, 10.66, 11.18, 8.95(1个神经元)
如果你设置为10(就像你的第二个实验),那么权重就会被涂抹在神经元上,你就无法区分重要的和噪音的神经元。
113963.27, 91026.57, 100833.22, 134980.44, 154190.05, 146455.03, 198703.01, 135775.2, 184353.78, 160766.79, 152433.73, 105753.11, 151673.83, 135421.64, 165343.94, 70277.93, 175038.87, 150342.56, 59153.02, 121012.76(10个神经元)
显然,对于该逻辑问题,1个神经元是最佳的。
再试试alglib中的决策树,它们计数更快,而且比mlp有更好的价值。Diplerning也更快,但不是在alglib中。
最主要的是速度/质量比,为了得到正确的组合而等待一个星期甚至一天甚至一个小时有什么意义呢,你永远不会得到它)。如果模型需要几秒钟的时间来学习,那么你可以用遗传学来进行参数或预测器的自动模拟,那么它就是纯人工智能,否则就是垃圾)
去掉第一栏后,不是5%,而是更差......
森林法给出的误差与MLP差不多(但计数更快)。
训练图的平均误差(60.0%)=0.264(26.4%) nTrees=100 codResp=1
验证的平均误差(20.0%)情节=0.828(82.8%)nTrees=100 codResp=1
测试的平均误差(20.0%)情节=0.818(81.8%)nTrees=100 codResp=1
去掉第1栏后,就不再是5%了,而是更差了......。
森林法给出的误差与MLP差不多(但计数更快)。
训练图的平均误差(60.0%)=0.264(26.4%) nTrees=100 codResp=1
验证的平均误差(20.0%)情节=0.828(82.8%)nTrees=100 codResp=1
测试的平均误差(20.0%)情节=0.818(81.8%)nTrees=100 codResp=1
是的,经典的MLP对森林没有任何优势,至少对我来说,森林在速度和质量方面总是赢家。
顺便说一下,diplerning可能也没有优势......因为在工作室的神经网络类似于diplerning--甚至没有层,但有几个卷积网络......像自动编码器,它们相互串联初始化(至少它是这样说的),但结果仍然比森林差
我不知道该说些什么。除了从报告中举出一个例子。优化结果 看起来是这样的,你可以用任何方式来解释它,但当优化完成后,结果看起来如下。
* 归纳能力的敏感度:55.12820512820513%。
* 归纳能力的特异性:55.5045871559633%。
* 归纳能力: 55.309734513274336%。
* 真正的积极因素:129
* 假阳性率:105
* 真负数:121
* 假阴性率:97
* 有统计的样本中的总模式:452个
在红色部分,我强调了概括能力的总体结果。第一个是猜中1的百分比,第二个是猜中0的百分比,第三个是总数。
Reshetov的分类器至少比mlp的结果要好,而且不会重新训练,这是它的优势......但用你的集子计数需要很长的时间,昨天我用了2个小时来计数,今天我在休眠后又继续......我在等它完成计数后,我可以比较错误:)
尽管如此,我还是想在mql5上重写它,并在这里把它转换为OpenCL,以便更有效地使用。然后租一个谷歌云,在特斯拉上几分钟(几秒钟)就能计算出一个神经网,或者花50万买下特斯拉 :)从3000个cuda核心
Reshetov的分类器至少比mlp的结果要好,而且不会重新训练,这是它的优势......但是用你的这组数据计算需要这么长时间,昨天我计算了2个小时,今天休眠后又继续计算......等它算完,我就可以比较错误了:)
尽管如此,我还是想在mql5上重写它,并在这里把它转换为OpenCL,以便更有效地使用。然后租一个谷歌云,在特斯拉上几分钟(几秒钟)就能计算出一个神经网,或者花50万买下特斯拉 :)对于3000个cuda核心
嗯,这是它最大的优势--它不会被重新训练,即使模型每次都变得更加复杂。所以,我们得到的是最复杂(大)的模型,没有被重新训练。因此,这个模型变成了更聪明的,类似tapka的东西。我已经在考虑英特尔至强数学协处理器,但它需要20万。有60个核心和120个逻辑核心。试想一下,你如何能在5秒钟内建立一个模型,即使像你说的那样处理这不是一个大的集合,并得到一个足以应对最复杂的非平稳过程的模型,如kotir currency????。为了得到一个适当的模型,有必要花足够的机器时间。然后,该模型将是充分的,它将持续更长时间。
我仍然想在GPU上运行它。至少10倍的性能,它将是好的....也许它终究会发挥作用?
重要性评估的结果如下。表中的预测指标越高越好。只有VVolum6、 VDel1、 VVolum9、 VQST10 通过测试。
在rattle中,我们可以在这4个预测器上一次建立6个模型,SVM在验证和测试数据上显示出约55%的准确率。不错。
很好,现在优化器正在计算,我甚至不知道它什么时候会完成,但我一定会把这些输入扔给他,看看他给出的结果,这个模型会是什么样子.....。谢谢你!
但用你的SETH计数需要很长的时间,昨天我花了2个小时,今天休眠后又继续......我在等待它完成计数,以便我可以比较错误:)
尽管如此,我还是想在mql5上重写它,并在这里把它转换为OpenCL,以便更有效地使用。然后租一个谷歌云,在特斯拉上几分钟(几秒钟)就能计算出一个神经网,或者花50万买下特斯拉 :)对于3000个cuda核心
同样,在计算中使用了多少个核心?我有4个核心以100%的速度加载,我没敢运行全套452行,因为我觉得这是一个星期,而不是少.....。
同样,在计算中使用了多少个核心?我有4个核心加载到100%,我不敢运行全套的452行,因为我觉得这是一个星期,而不是少于.....。
总之,我搞了一下最新版本的程序,其中有并行的,但最新版本的工作方式与第一个不同,委员会中已经有2个神经网络,mlp和作者,然后他们在得到结果时相互作用,很多代码,尊重作者:)是否有任何地方有关于最新版本的描述,理论?
特别是这个 被使用的东西,有一些非常硬核。必须花大量的时间来研究代码。
试着联系作者本人,给他打电话,也许他会自己并行化......因为有一种姿态
嗯,这是它最大的优势--它不会重新训练,而且模型每次都会变得更加复杂。因此,我们得到了最复杂(大)的模型,它没有被重新训练。因此,这个模型变成了更聪明的,类似tapka的东西。我已经在考虑英特尔至强数学协处理器,但它需要20万。有60个核心和120个逻辑核心。试想一下,你如何能在5秒钟内建立一个模型,即使像你说的那样处理这不是一个大的集合,并得到一个足以应对最复杂的非平稳过程的模型,如kotir currency????。为了得到一个适当的模型,有必要花足够的机器时间。然后,该模型将是充分的,并将工作更长的时间。
我仍然想在GPU上运行它。至少10倍的性能,它将是好的....它能起作用吗?
总之,我已经挖到了最后一个版本的程序,其中有并行的,但最后一个版本的工作方式与前几个不同,委员会中有2个神经网络,mlp和作者的一个,然后它们在得到结果时相互作用,有很多代码,尊重作者:)是否有任何地方有关于最新版本的描述,理论?
特别是这个 被使用的东西,有一些非常硬核。必须花大量的时间研究代码。
试着联系作者本人,给他打电话,也许他自己会并行......因为有一个手势
我想我无法与作者取得联系,我已经给他写了两封信。他什么也没说。但据我所知,他写道,他已经比照了其中的一切。是的,在委员会工作的两个网格确实正在接受培训。我在我的文章中这样写道。如果两者都显示是,则是,如果不是,则不是,如果两者都是混合,则是 "不知道"。我不知道最新的版本,但描述是基于谷歌,你给我的链接。 曾经在WWW服务器上运行过第三版,令我失望的是,优化器只加载一个核心,但最近的版本均匀地加载所有的核心,所以我认为不均衡现象还是存在的。只剩下一件小事要做。为了增加核心的数量 :-)