Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 373

 
elibrarius:
Extracto del artículo de Reshetov en el que explica cómo funciona su RNN.

"Este artículo analiza en detalle el problema del sobreentrenamiento de las redes neuronales, identifica sus causas y propone una forma de resolver el problema.

1. ¿Por qué se reentrena una red neuronal?

¿Cuál es el motivo del reentrenamiento de la red neuronal? En realidad, puede haber varias razones para ello:
  1. El número de ejemplos de una muestra de entrenamiento no es suficiente para resolver problemas fuera de la muestra.
  2. Los datos de entrada se distribuyen de forma desigual por el grado de correlación con los datos de salida en diferentes muestras, lo que ocurre muy a menudo cuando se procesan datos no estacionarios. Por ejemplo, en una muestra de entrenamiento, la correlación de cualquier parámetro de entrada o de varios parámetros de entrada con respecto a los valores de salida es significativamente mayor que en una muestra de prueba, o peor aún, los coeficientes de correlación en diferentes muestras difieren en signo. Esto puede comprobarse fácilmente calculando los coeficientes de correlación de todos los parámetros en diferentes muestras antes de entrenar la red neuronal. Y deshacerse de este inconveniente también es bastante sencillo: los ejemplos de entrenamiento se distribuyen entre las muestras de forma aleatoria.
  3. Los parámetros de entrada no están relacionados con los de salida, es decir, no hay relación causa-efecto entre ellos: no son representativos y, por tanto, no hay nada que entrenar en la red neuronal. Y la comprobación de las correlaciones entre los datos de entrada y de salida mostrará una correlación cercana a cero. En este caso hay que buscar otros datos de entrada con los que entrenar la red neuronal.
  4. Los datos de entrada están muy correlacionados entre sí. En este caso debe dejar los datos de entrada con la máxima correlación con los datos de salida, eliminando los demás datos que se correlacionan bien con los datos restantes.
Todas las razones anteriores de sobreentrenamiento y los métodos para eliminarlas son de conocimiento común, ya que se han descrito previamente en diversas publicaciones o artículos sobre tecnología de redes neuronales. "


Sólo que no es una red neuronal en el sentido pleno de la palabra, sino un clasificador ) Por eso no se reentrena, sino que se ajustan los parámetros en el optimizador. Nada impide utilizar también la red neuronal en el optimizador, con diferente número de capas y diferente período de características e incluso su número, sería aún mejor.

Lea más aquí, hay todo un marco incluso https://www.mql5.com/ru/articles/3264

Наивный байесовский классификатор для сигналов набора индикаторов
Наивный байесовский классификатор для сигналов набора индикаторов
  • 2017.05.12
  • Stanislav Korotky
  • www.mql5.com
В статье анализируется применение формулы Байеса для повышения надежности торговых систем за счет использования сигналов нескольких независимых индикаторов. Теоретические расчеты проверяются с помощью простого универсального эксперта, настраиваемого для работы с произвольными индикаторами.
 
Oleg avtomat:

Bendat J., Pearsol A.

Análisis de datos aleatorios aplicados: Traducido del inglés: World, 1989.

En. 126

EJEMPLO 5.4. VARIABLES ALEATORIAS DEPENDIENTES NO CORRELACIONADAS.



Dos variables aleatorias X e Y se llamancorrelacionadas si su momento de correlación (o coeficiente de correlación, que es lo mismo) es diferente de cero; X e Y se llaman no correlacionadas si su momento de correlación es cero.
Dos cantidades correlacionadas también son dependientes. En efecto, suponiendo lo contrario tenemos que concluir que µxy=0, lo que contradice la condición ya que
para las cantidades correlacionadas µxy ≠ 0.
El supuesto inverso no siempre es cierto, es decir, si dos variables son dependientes, pueden estar correlacionadas o no. En otras palabras, el momento de correlación de dos variables dependientes puede no ser igual a cero, pero también puede ser igual a cero.


Así, la correlación entre dos variables aleatorias implica que son dependientes, pero la correlación no implica necesariamente correlación. La independencia de dos variables implica que no están correlacionadas, pero la independencia no puede deducirse todavía de la falta de correlación.

http://www.uchimatchast.ru/teory/stat/korell_zavis.php

Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
  • www.uchimatchast.ru
Главная|Решения онлайн |Теория | Основные формулы и обозначения |Обратная связь | Корреллированность и зависимость случайных величин Две случайные величины X и У называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляции) отличен от нуля; X и У называют некоррелированными величинами, если их...
 
Dimitri:


1. nadie está analizando la correlación - se trata de la elección de los predictores.

2. Has repetido mi argumento tres páginas antes:"La dependencia es un caso especial de la correlación". Si dos variables son dependientes, entonces definitivamente hay una correlación. Si hay correlación, no necesariamente hay dependencia".

3. La entropía cruzada, al igual que la correlación, no dará una respuesta por la presencia de la dependencia funcional


Ahí es donde me equivoqué - lo admito.

Si las variables aleatorias son independientes, también están descorrelacionadas, pero no se puede inferir la independencia de la descorrelación.

Si dos variables son dependientes, pueden estar correlacionadas o no.

 
Maxim Dmitrievsky:


Sólo que no es una red neuronal en el sentido pleno de la palabra, sino un clasificador ) Por eso no se reentrena, sino que los parámetros se ajustan en el optimizador. Nada impide utilizar también la red neuronal en el optimizador, con diferente número de capas y diferente período de características e incluso su número, sería aún mejor.

leer más aquí, hay todo un marco incluso https://www.mql5.com/ru/articles/3264

Esta cita se refiere exactamente a las redes neuronales en el pleno sentido de la palabra, y son estos problemas los que intenta resolver en su RNN. No se trata de RNN, sino de que la correlación entrada-salida es importante, y la correlación de las entradas entre sí es perjudicial, y creo que esto se puede aplicar a los NS y RNN convencionales, y también a los EA convencionales.
 
elibrarius:
La cita anterior se refiere exactamente a las redes neuronales en todo el sentido de la palabra, y estos son los problemas que intenta resolver en su RNN

Sí, y se resuelven simplemente enumerando todos los parámetros posibles y comparándolos con el avance... se puede hacer exactamente lo mismo con NS. Su RNN se reentrena de la misma manera, sólo elegimos los parámetros estables más óptimos comparando el backtest con el forward... todo es exactamente igual que con NS, sólo que en el caso de NS necesitamos elegir no los pesos sino las entradas-salidas en el optimizador.
 
Dimitri:

Si dos cantidades son dependientes, pueden estar correlacionadas o no.

Por fin lo has conseguido))) La correlación solo da dependencia lineal y la NS no tiene nada que ver, además por favor no confundas "correlación por regresión no lineal" y "correlación no lineal", la correlación lo es:

Todo lo demás es alternativismo y humanitarismo.

 
Alyosha:
Por fin lo has conseguido))) La correlación solo da dependencia lineal y la NS no tiene nada que ver, además por favor no confundas "correlación para regresión no lineal" y "correlación no lineal", correlación es:

Todo lo demás es alternativo y humanitario.


De nuevo, cuarenta y cinco....

Que persona más extraña eres - encima de tu post dos puestos en blanco y negro dice que la presencia o ausencia de correlación no significa que haya una correlación en absoluto y de nuevo la correlación "da" algo a alguien.

Me estoy quedando sin manos....

 
Dimitri:


De nuevo - fortyfold....

Que persona más extraña eres - encima de tu post dos puestos en blanco y negro dice que la presencia o ausencia de correlación no significa correlación en absoluto y de nuevo la correlación "da" algo a alguien.

Me estoy desanimando un poco con mis manos....


Usted argumentó que:

Dimitri:


Todo el MO se basa en que las variables de entrada debese correlacionan con la variable de salida.

De lo contrario, no tienen sentido todos los modelos de MO.

En la Minería de Datos, en TODOS LOS MODELOS DE SELECCIÓN DE VARIABLES, se implementa el mecanismo de correlación máxima de la variable entrante y la variable saliente:

Así que metieron la pata a lo grande, se avergonzaron.


SZZ "la presencia o ausencia de correlación no significa correlación en absoluto" - de nuevo - tonterías. La correlación es exactamente lo que muestra una dependencia lineal, pero hay otras no lineales que la correlación no muestra.

 
Aliosha:


Usted lo ha declarado:

Es decir, la han cagado, se han puesto en evidencia.


ZS "la presencia o ausencia de correlación no significa dependencia en absoluto" - de nuevo - tonterías. La correlación es exactamente lo que muestra una dependencia lineal, pero hay otras no lineales que la correlación no muestra.


Disfruto cuando alguien rueda científicamente a alguien :))
 
Aliosha:


ZS "la presencia o ausencia de correlación no significa dependencia en absoluto" - de nuevo - tonterías. La correlación sí muestra una dependencia lineal, pero hay otras no lineales que la correlación no muestra.

Hay un ejemplo clásico de correlación falsa: el número de personas que se ahogan en las piscinas de Estados Unidos está directa y fuertemente correlacionado con el número de películas protagonizadas por Nicolas Cage.

Hay una correlación, pero ¿dónde está la GRAN correlación?