交易中的机器学习:理论、模型、实践和算法交易 - 页 362

 
交易员博士

对前一百页的总结 :)

神经元和几乎所有其他流行的模型都离人工智能很远。他们可以简单地找到这样的预测值组合,以达到所需的学习精度,在未来的预测中,他们对过去的结果进行插值(或外推),以获得新的预测。

这意味着,如果我们以Ma、Rci和Stochastic为预测因子,并以人字形反转作为训练目标来训练神经网络--我们会对神经网络说 "这三个预测因子可以预测反转。而神经网络本身将无法弄清这些预测器是否真的适合。它将以可接受的精确度记住这些数据,在交易中,我们希望在反转之前保存Ma、Rci和随机指数的相同组合。但他们不会,而且会失败。

一个在无用的预测器上训练的模型会失败,即使它是gbm,即使它是神经网络,即使它是回归。你甚至可以生成随机数列并将其作为预测器,神经元会在其中找到重复的组合并记住它们。
选择预测器和训练的目的,使用其他工具,这是人类数据挖掘者的任务。而训练模型(神经元)是倒数第二步的小事。

预测器必须与训练数据上的目标保持相关性,包括过去和未来。这就是为什么SanSanych谈到要在不同的文件上测试模型,只是为了确保找到的依赖关系不会因为新的数据而消失。
也就是说,我们仔细研究并收集预测因素和目标,训练模型并测试它。然后我们在模型的全新数据上进行测试。如果这两种情况下的预测准确率不一致,那么预测者或目标就不合适。我们应该再找一个。


在我看来,神经元学不适合预测非平稳的时间序列。价格行为不断变化,发现的模式在下班后停止工作,一切都很混乱。然后有人拿着一个神经元库,给它几个月的价格,要求找到这段时间内重复的依赖关系。但没有重复的依赖性,神经元能找到并记住的东西将只是一个100%的随机巧合。

如果我们采取一个神经元,那么我们可以只给它加工过的价格(而不是纯粹的ohlc),比如说指标。


你为什么这么狭隘,每个人都在这里写,好像你从来没有见过比胡萝卜更甜的东西 ))不要去管预测器,教神经元去找这些预测器,教神经元去教神经元,实验 :) 显然,把简单的指标,按之字形送入输入和输出是非常愚蠢的,我不知道为什么大家都在讨论这个问题 :)当然这也不是人工智能,这只是分类,你根本不需要神经元!"。你可以用贝叶斯分类器来做
 
马克西姆-德米特里耶夫斯基

为什么要想得这么狭隘,这里的每个人都写得好像他从来没有见过比胡萝卜更甜的东西 ))去他妈的预测器,教神经元去找这些预测器,教神经元去教神经元,实验:)
我认为neuronka应该把无用的预测器设置为0--它们不会影响输出!我认为这一点很重要。唯一的区别将是所有预测因子之间的计算速度,以及最重要的预测因子中的一半。但这也很重要。
 
elibrarius
那么在我看来,神经元也应该把无用的预测器设置为0--它们不会影响输出!唯一的区别将是所有预测器和一半最重要的预测器之间的计算速度。

这就是为资源密集型任务创建的神经元,唯一的问题是,在mt5中它非常有限。你可以创建非常复杂的、原创的和非显而易见的模型,只有这样,应用NS的潜力才会被披露出来,但肯定不是那些技术,这里讨论的是这些技术,这就像初学者的基础知识:)如果你没有足够的能力,有服务器用于培训NS...在我看来,任何可以在普通PC上5-30分钟内完成训练的东西,根本不是神经元和原始的东西 :)
 
马克西姆-德米特里耶夫斯基

这就是为资源密集型任务创建的神经元,唯一的问题是,在mt5中,它非常糟糕。你可以创建非常复杂的、原创的、不显眼的模型,只有这样,NS应用的潜力才会显现出来,但肯定不是那些技术,这里讨论的是基础知识,就像初学者的基础知识 :)

我打算在纯MQL中使用神经元进行优化(选择指标的参数),并在网络或云中运行它。20000个代理可以计算 - 就速度而言,不可能与任何R相比。尽管R似乎也有任务分发到Azure云中

 
elibrarius

我打算在纯MQL中使用神经元进行优化(为指标选择参数),并在网络或云中运行。20000个代理可以算作--没有任何一个R可以通过速度来与其他的R相比。


我的意思是,mt5中的神经元是不够的,只有一个:)
 
马克西姆-德米特里耶夫斯基

我的意思是,mt5中的神经元很少,只有一个:)
嗯,最重要的还是输入数据的质量,如果你有,那么即使是1个神经元也能解决问题。
 
elibrarius
那么,最重要的还是定性的输入数据,如果你有,那么1个神经元就能解决问题。

不,它不会。如果你增加样本,你的神经元就会因压力而萎缩并爆裂 :)它将无法近似于这样的样本,将永久地输出0.5
 
马克西姆-德米特里耶夫斯基

不,它不会。如果你增加样本,你的内脏就会因压力而收缩并爆裂 :)它将无法近似于这样的样本,并将在输出端不断产生0.5。

如果所有输入的乘数都是1,那么0.5将是0.5。但是,如果网络学习并将无关紧要的输入的乘数设置为0,而将最重要的输入设置为1,那么一切都会好起来。输出当然不会是1,但例如反应如果输出>0.8

但不幸的是,没有任何指标能与正确的产出相关联。因此,缩水现象肯定会发生。你只需要将概率弯曲到你的一侧
 
elibrarius

0.5将是如果所有输入都有乘数=1。而如果网络学习后将不重要的输入设置为0,将最重要的输入设置为1,那么一切都会好起来。输出当然不会是1,但例如反应如果输出>0.8

但不幸的是,没有任何指标能与正确的产出相关联。这就是为什么缩减是必然会发生的。你只需要让概率变得对你有利。

不是说它们不相关,当样本增加时,它们会自相矛盾,是的,最后要么输出总是0,要么是1,要么是0.5......更多的是对于1个神经元。因此,如果>0.5卖出,<0.5买入。你设置正确的(在你看来)预测器和正确的答案,也就是说,如果psi是超卖的,市场在接下来的n个柱子上增长,那么输出0,如果psi是超买的,市场下跌,那么输出0。但也会有很多情况是反过来的,它钝化了,混合了信号,进入了恍惚状态。因此,输出将总是在0.5左右,在一个方向或另一个方向有非常小的偏差......这将发生在所有振荡器上,因为它们根本不是预测器,它们是价格的衍生物 :)
 
交易员博士

因此,如果我们采取,例如,Ma、Rci和Stochastic作为预测器,并使用人字形反转作为训练目标来训练神经网络--我们告诉神经网络 "这三个预测器可以预测反转。而神经网络本身也不会知道这些预测器是否真的适合。它将以可接受的精确度记住这些数据,在交易中,我们希望在反转之前保存Ma、Rci和随机指数的相同组合。但他们不会,而且会失败。

我认为把分类和回归看作是N-d 中的不同类型的平均点更为正确,在一些核的附近,例如在kNN ,据说这是一个 "理想的 "近似器,但很慢,不实用。在分类中,只有反应是平均的,而在回归中则是皮卡和反应是平均的。显然,如果这种平均法混合了矛盾的点,那么结果将是嘈杂的,而不是明显的。

原因: