文章 "物美价廉的神经网络 - 链接 NeuroPro 与 MetaTrader 5" - 页 3

[删除]  

至于文章本身,不是一般的 NS。有什么问题?需要拟合的系数数量与历史数据的数量相当。

让我们把系数的数量与历史数据的数量相等。我想,这样的调整就会非常完美。它不会有一笔亏损的交易,而且会最大限度地利用历史数据。

如果我们将 NS 的构建视为对大量系数的选择,我们就不需要这样的好东西了。

这里还有另一个用处--压缩损失信息。有很多历史记录,那么能够近似描述历史记录的系数就会减少。另一方面,有许多压缩算法,即使没有损失,性能也要好得多。

 
zaskok:

至于文章本身,不是一般的 NS。有什么问题?需要拟合的系数数量与历史数据的数量相当。

让我们把系数的数量与历史数据的数量相等。我想,这样的调整就会非常完美。它不会有一笔亏损交易,而且会最大限度地利用历史数据。

如果你把 NS 的构建看作是对大量系数的选择,那还需要这么好的东西吗?

你可能只是没有(仔细)阅读这篇文章。输入数为 24(小时时间框架),每层神经元数为 20,层数为 3。

历史示例为 5k bars。如果设置为 10k 条,系数数量将保持不变。

如果你不明白我们在说什么,那么你真的不需要它。

[删除]  
elugovoy:

你可能只是没有(仔细)阅读这篇文章。输入数为 24(小时时间框架),每层神经元数为 20,层数为 3。

历史示例为 5k bars。如果设置为 10k 条,系数数量将保持不变。

如果你不明白我们在说什么,你真的不需要它。

你可以尽情自欺欺人!

看看源代码,数数调整后的系数数。在 NS 的描述中胡说八道,但本质就是源代码。

将历史数量增加一倍,看着比率崩溃。每次增加都是如此。

文章中对高潮的模拟就是所示结果。而事实上,它是以一种可怕的方式获得的,这并不是任何人所说的。

简单点说吧。我给你一个有一千个系数的顾问的源代码。我还会给你一段类似的历史。我不会说它是 NS 或其他什么东西。只给你源代码和一段历史。

一旦我告诉你这是 NS 或先进的科学方法,你是否也会改变对这一 cal 的看法?看看底线。

[删除]  

让我们以 unicum dimeon 为例。他的 "专家顾问 "包含的可调整系数不超过十几个。历史数据的数量是我们用来调整这些系数的数千倍。因此,内置在 dimeon 头中的 NS 有时会产生很好的结果。这就是他们不会怒斥所有 NS 的原因。但这篇文章在误导读者。

另一方面,我们酷酷的 pipsarian 完全没有使用神经原理来构建交易算法。它不像 NS 那样使用最愚蠢的加法和乘法原理。也许,这就是他的结果与 NS 形式的经典之间存在显著差异的原因。

 
faa1947:

有趣的名字:ENCOG - 机器学习...嗯,很火。

这里 列出的工具只是机器学习的一部分。

无缘无故大笑是愚蠢的表现 © 通俗说法

对于那些在机器学习方面特别有天赋的人来说:

  1. 我的这篇文章是在回答一个问题:如何通过 dll 连接 ANN。如果你有关于如何通过 dll 从 Cran 安装软件包的答案,那么你的反驳将是恰当的。
  2. 相当一部分机器学习工具不太可能在任何地方使用。也就是说,Cran 拥有大量软件包的事实并不会给它增添任何尊严,因为质量应该高于数量。你是要在所有这些软件包中都加盐还是怎么着?
  3. 对于每一项具体任务,最好选择最合适的工具。为此,您可以在计算机上安装 Weka(顺便说一句,它支持命令行中的 R 语言),然后使用界面中内置的 "实验器",在不同的机器学习方法上运行交叉验证样本。结果最好的方法将成为最适合当前任务的方法。至少,kaggle.com 的常客都是这么做的。毕竟,把最耗时、最不智能的工作交给计算机,总比猜测在这种或那种情况下什么方法最有效要好。
 
Reshetov:

没有理由的笑是愚蠢的表现 © 民间故事

送给特别有天赋的机器学习专家:

  1. 我的帖子是对问题 "如何通过 dll 连接 ANN "的回答。如果你有关于如何通过 dll 从 Cran 安装软件包的答案,那么你的反驳将是恰当的。
  2. 相当一部分机器学习工具不太可能在任何地方使用。也就是说,Cran 拥有大量软件包的事实并没有给它增添任何尊严,因为质量应该高于数量。你是要把所有这些软件包都放进盐里还是怎么着?
  3. 对于每一项具体任务,最好选择最合适的工具。为此,您可以在计算机上安装 Weka(顺便说一句,它支持命令行中的 R 语言),然后使用界面中内置的 "实验器",在不同的机器学习方法上运行交叉验证样本。结果最好的方法将成为最适合当前任务的方法。至少,kaggle.com 的常客们是这么做的。毕竟,把最耗时、最不智能的工作交给计算机,总比猜测在这种或那种情况下什么方法最有效要好。

1.使用 CRAN 没有任何问题,嗯,完全没有。两年多来,所有问题都在 codobase 中解决。

2.数量说明了方法的多样性和发展的迅速。CRAN 中软件包的质量非常好。

3.WEKA是....。如果我们谈论的是如何选择可用于交易的机器学习软件包,那么 Caret 就是其中之一。首先,我们选择 Rattle。如果从零开始,您可以在 15 分钟内启动并运行它。我在上面发布了 NS 和随机森林的比较结果。NS 的结果比随机森林要好。我甚至还写了一篇文章。试试 Rattle。最多选择 2-3 个软件包,你就会满意了。永远放弃 NS。首先,我可以推荐另一款附件。

附加的文件:
PredictTrend.zip  858 kb
 
faa1947:


2.数量之多表明了方法的多样性和发展之快。CRAN 中的软件包质量上乘。


相反,有些软件包只是重复了其他软件包的方法。例如,所有 SVM 都是从同一个台湾 libsvm 库移植过来的。因此,SVM 嵌入 Cran、Weka、Encog 或其他软件包中完全没有区别。在相同的设置下,结果是一样的。

faa1947:


如果我们谈论的是在交易中可以使用的机器学习软件包的选择,那么请注意。


还是那句话,你应该为特定的任务选择特定的工具。交易只是许多股市策略和战术的统称。这就是为什么不可能把所有东西都归到一把伞下。

faa1947:


我在上面发布了比较 NS 和随机森林的结果。


这些不是结果,而是一些废话,比如根据训练样本调整后的医院平均温度。


这些结果至少是将样本分为训练样本和测试样本时的结果,最多是交叉验证时的结果。

 

我想我会支持 NS。随机森林 突然成为一种时尚,但这并不意味着 NS 更糟糕。鸡蛋是一样的,只是外形不同而已。如果要做一个比较,可以选择一个网格委员会,打开 "bousting",就能得到相同的随机森林。众所周知,NS 可以让你实现几乎所有其他算法。

无论如何,99% 的成功都不在于工具,而在于数据的选择和准备。

 
marketeer:

我想我会支持 NS。随机森林突然变得时髦起来,并不意味着 NS 更糟糕。

随机森林并不是一种时髦现象,而是一种可以在首次尝试时就给出可接受结果的工具。初学者和有经验的用户都会使用这种分类器。初学者将其作为基本工具使用,因为方法非常简单。而更有经验的用户则开始使用射频来解决问题,以便了解进一步发展的方向。

营销人员

无论如何,99% 的成功不在于工具,而在于数据的选择和准备。

不能小题大做 © People's saying

我很想知道您将如何使用二元分类器解决多元回归 问题?

 
Reshetov:


这不是结果,而是一些废话,比如根据训练样本调整后的医院平均温度。


所谓结果,至少是将样本分为训练样本和测试样本,最多是进行交叉验证。

我不说废话。

证明。

发布的结果总是指 "样本外训练 "数据。在 Rattle 中,具体做法如下:

1. 原始数据集分为三部分:70-15-15%

2. 在 70% 的部分上进行训练,这部分称为训练。这里有一个非常重要的细微差别。从这 70% 中随机抽取约 2/3 的训练数据,即 = 70% * 2/3。训练就在这些数据上进行。模型性能信息则从剩下的 70% * 1/3 的训练样本数据中获取,当然这也是一组随机行。这部分数据被称为 OOB--袋外数据。也就是说,虽然在形式上训练和评估使用的是同一个数据集,但在训练和评估中使用的却是不同的行。

之后,您可以转到 "评估 "选项卡,在这里您可以将训练好的模型用于剩余的两次 15%,并与 OOB 进行比较。如果结果相同,那就有希望了。由此可见,虽然 Rattle 是一个测试想法的工具,但其测试质量远高于所讨论的文章(请作者见谅)。

个人认为:我的文章和这篇文章中得到的结果不可信,因为没有证据证明模型存在过度训练(过拟合),而我列出的训练样本之外的三组测试也不能证明这一点。也就是说,我们需要的是初始变量集所满足的标准,即使用这组变量的模型可以按照上述方案进行测试,而且测试结果是可信的。