交易中的机器学习:理论、模型、实践和算法交易 - 页 373

 
elibrarius
摘自雷舍托夫的文章,解释他的RNN如何工作。

"本文详细讨论了神经网络过度训练的问题,确定了其原因,并提出了解决该问题的方法。

1.为什么神经网络会被重新训练?

神经网络重新训练的原因是什么?事实上,可能有几个原因。
  1. 训练样本中的例子数量不足以解决样本外的问题。
  2. 在不同的样本中,输入数据与输出数据的相关程度是不平等的,这在处理非平稳数据时是非常常见的情况。例如,在训练样本中,任何输入参数或几个输入参数与输出值的相关性都明显高于测试样本,或者更糟的是,不同样本中的相关系数的符号不同。这可以通过在训练神经网络之前计算不同样本中所有参数的相关系数来轻松检查。而要摆脱这个缺点也很简单--训练实例在样本中随机分布。
  3. 输入参数与输出参数没有关系,即它们之间没有因果关系--它们没有代表性,因此没有什么可以训练神经网络。而 检查输入和输出数据之间的相关性会显示出接近零的相关性。 在这种情况下,你需要寻找其他输入数据来训练神经网络。
  4. 输入的数据彼此之间高度相关。在这种情况下,你应该留下与输出数据有最大相关性的输入数据,删除与其余数据有良好相关性的其他数据。
上述所有过度训练的原因和消除它们的方法都是常识,因为它们以前在各种关于神经网络技术的文献或文章中都有描述。"


只是它不是一个完全意义上的神经网络,而是一个分类器。 这就是为什么它没有被重新训练,而是在优化器中调整参数。没有什么能阻止在优化器中使用神经网络,如果有不同的层数和不同时期的特征,甚至它们的数量,那就更好了。

在这里阅读更多,有一个完整的框架,甚至https://www.mql5.com/ru/articles/3264

Наивный байесовский классификатор для сигналов набора индикаторов
Наивный байесовский классификатор для сигналов набора индикаторов
  • 2017.05.12
  • Stanislav Korotky
  • www.mql5.com
В статье анализируется применение формулы Байеса для повышения надежности торговых систем за счет использования сигналов нескольких независимых индикаторов. Теоретические расчеты проверяются с помощью простого универсального эксперта, настраиваемого для работы с произвольными индикаторами.
 
Oleg avtomat:

Bendat J., Pearsol A.

应用随机数据分析。译自英文:World, 1989.

在。126

例子 5.4.不相关的因果随机变量。



如果两个随机变量X和Y相关动量(或相关系数,这是同一回事)不同于零,则称为相关;如果X和Y的相关动量为零,则称为不相关
两个相关的量也是有关系的。事 实上,如果不是这样,我们必须得出结论:µxy=0,这与条件相矛盾,因为
为相关的量μxy ≠ 0。
相反的假设并不总是正确的,即如果两个变量是因果关系,它们可能是相关的或不相关的。换句话说,两个因变量的相关动量可能不等于零,但也可能等于零。


因此,两个随机变量之间的相关性意味着它们是相互依存的,但相关性不一定意味着关联 性。两个变量的独立性意味着它们是不相关的,但还不能从不相关中推断出独立性。

http://www.uchimatchast.ru/teory/stat/korell_zavis.php

Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
  • www.uchimatchast.ru
Главная|Решения онлайн |Теория | Основные формулы и обозначения |Обратная связь | Корреллированность и зависимость случайных величин Две случайные величины X и У называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляции) отличен от нуля; X и У называют некоррелированными величинами, если их...
 
迪米特里


1.没有人在分析相关关系--这是关于预测者的选择。

2.你在三页前重复了我的观点--"依赖性是关联性的一个特例 如果两个变量是相互依存的,那么肯定存在相关关系。如 果有相关性,那么就不一定有依赖性"。

3.交叉熵就像关联性一样,不会因为存在功能依赖而给出答案


这就是我的错误所在--我承认。

如果随机变量是独立的,它们也是不相关的,但人们不能从不相关中推断出独立。

如果两个变量是因果关系,它们可能是相关的或不相关的。

 
马克西姆-德米特里耶夫斯基


只是它不是完全意义上的神经网络,而是分类器)这就是为什么它没有被重新训练,而是在优化器中调整参数。没有什么能阻止在优化器中使用神经网络,如果有不同的层数和不同时期的特征,甚至它们的数量,那就更好了。

阅读更多信息,这里有一个完整的框架,甚至https://www.mql5.com/ru/articles/3264

这句话正是指完整意义上的神经网络,而他在RNN中试图解决的正是这些问题。这不是关于RNN,而是关于输入-输出的相关性很重要,而输入之间的相关性是有害的,我认为这可以适用于传统的NS和RNN,也可以适用于传统的EA。
 
elibrarius
上面这段话正是指完整意义上的神经网络,这些是他在RNN中试图解决的问题

是的,它们的解决方法很简单,就是列举所有可能的参数,并将它们与正向比较......完全相同的事情可以用NS来做。他的RNN是以同样的方式重新训练的,我们只是选择最理想的稳定参数,比较回测和正向......一切都与NS完全一样,只是在NS的情况下,我们需要选择的不是权重,而是优化器的输入输出。
 
迪米特里

如果两个量是相关的,它们可以是相关的或不相关的。

你终于明白了))))。相关性只给出了线性依赖,NS与之无关,也请不要混淆 "非线性回归的相关 "和 "非线性相关",相关是。

其他都是替代主义和人道主义。

 
阿廖沙
你终于明白了))))。相关性只给出了线性依赖,NS与之无关,也请不要混淆 "非线性回归的相关 "和 "非线性相关",相关才是。

其他都是替代性的和人道主义的。


同样,四十五....

你真是个奇怪的人--在你的两个帖子上面白纸黑字写着,存在或不存在相关关系根本不意味着有相关关系,而相关关系又是 "给 "别人的。

我的手越来越少了....

 
迪米特里


再一次 - fortyfold....

你真是个奇怪的人--在你的两个帖子上面白纸黑字写着有无关联根本不意味着关联,而且关联又是 "给 "别人的。

我的手有点不听使唤了....


你辩称。

迪米特里


所有的MO都是基于这样的事实:输入变量 与输出变量相关

否则,所有MO模型就没有意义。

在数据挖掘中,在ALL MODELS VARIABLE VARIABLE SELECTION MODELS中,实现了传入变量和传出变量的最大关联性机制。

所以他们搞砸了,让自己很难堪。


SZZ "存在或不存在相关关系根本不意味着依赖性"--再次--胡说八道。相关性正是显示了线性可靠性的存在,但也有非线性的,而相关性并不显示。

 
阿利奥沙


你说,。

这就是说,他们搞砸了,他们让自己难堪。


ZS "存在或不存在相关关系根本不意味着依赖性"--再次--胡说八道。相关性正是显示了线性的依赖关系,但有一些非线性的依赖关系是相关关系所不能显示的。


我很喜欢有人科学地滚动某人的时候:))
 
阿利奥沙


ZS "存在或不存在相关关系根本不意味着依赖性"--再次--胡说八道。相关性确实显示了线性依赖,但也有相关不显示的非线性的。

有一个典型的虚假相关的例子--在美国游泳池溺水的人数与尼古拉斯-凯奇主演的电影数量直接且强烈相关。

有一种相关性--伟大的相关性在哪里?