Neuroprevisión de series financieras (basada en un artículo) - página 9

 
nikelodeon:


Al final, tras recopilar estadísticas, podemos concluir que un objetivo de entrenamiento de máximo equilibrio no siempre es bueno. Pero hay una cuestión ligeramente diferente: cómo encontrar el objetivo para que la NS funcione bien en el futuro.

Probé diferentes variantes de mi Asesor Experto con NS, es decir, por balance, factor de ganancia, pago esperado, drawdown en moneda de depósito y drawdown en %. Y he mirado las pruebas de avance tanto antes como después de la optimización.

Parece que si optimizamos por la reducción mínima en la moneda del depósito y luego seleccionamos esta reducción mínima de los resultados de la optimización, ambos forwards tienen éxito. Si el valor mínimo de reducción es el mismo para varios resultados de optimización, debe elegir el que tenga el máximo equilibrio.

Además, se descubrió que si se optimiza por el mínimo drawdown en la moneda de depósito, y luego se selecciona el resultado con el máximo factor de ganancia, las pruebas a futuro también tienen éxito, pero los resultados ya son peores que en el caso anterior.

Pero este método sólo da resultados para un único EA. Otros Asesores Expertos con el mismo NS pero diferentes entradas no tienen tal característica y hasta ahora no hemos podido encontrar para ellos métodos de definición de señales de resultados de optimización para pruebas de avance exitosas.

 
Reshetov:

He probado diferentes variantes de mi EA con NS, es decir, por saldo, factor de ganancia, pago esperado, drawdown en moneda de depósito y drawdown en %. Y he mirado las pruebas de avance tanto antes como después de la optimización.

Parece que si optimizamos por la reducción mínima en la moneda del depósito y luego seleccionamos esta reducción mínima de los resultados de la optimización, ambos forwards tienen éxito. Si el valor mínimo de reducción es el mismo para varios resultados de optimización, debe elegir el que tenga el máximo equilibrio.

Además, se descubrió que si se optimiza por la reducción mínima en la moneda de depósito y luego se selecciona el resultado con el factor de beneficio máximo, las pruebas de avance también tienen éxito, pero los resultados son peores que en el caso anterior.

Pero este método sólo da resultados para un EA. Otros EAs con el mismo NS pero diferentes entradas no tienen tal característica y hasta ahora no hemos podido identificar para ellos métodos de determinación de señales de resultados de optimización para una prueba de avance exitosa.

La ponderación de la red neuronal requiere trillones de variaciones, y ha sólo puede dar 10-18 mil.

por lo que sería correcto ejecutar la optimización varias veces (al menos cinco) en modo ha y sólo entonces elegir algo adecuado.

 
Reshetov:

Resulta que si se optimiza por la reducción mínima en la moneda de depósito y luego se elige esta reducción mínima de los resultados de la optimización, entonces ambos forwards tienen éxito. Si el valor de la reducción mínima es el mismo para varios resultados de optimización, debe seleccionar el que tenga el máximo equilibrio.

Además, se descubrió que si se optimiza mediante una reducción mínima en la moneda de depósito, y luego se selecciona el resultado con el factor de beneficio máximo, las pruebas de avance también tienen éxito, pero los resultados son peores que en el caso anterior.

Pero este método sólo da resultados para un único EA. Otros Asesores Expertos con el mismo NS pero diferentes entradas no tienen tal característica y hasta ahora no hemos logrado encontrar para ellos métodos de definición de señales de resultados de optimización para pruebas de avance exitosas.

¿Y el número de acuerdos está controlado? NS es flexible y si sólo establecemos la reducción mínima como función objetivo de entrenamiento, puede encontrar fácilmente una opción con reducción cero. Si la arquitectura y las matemáticas de la NS concreta lo permiten, puede simplemente encontrar algunos pesos, por lo que habrá pocos tratos (de cantidad estadísticamente insignificante), pero no habrá detracción... ¿Quizás por eso no funciona con otras entradas y redes?

Suelo utilizar una variante similar: criterio = saldo máximo - reducción, pero con un control obligatorio del número mínimo de operaciones. Es decir, creo que NS debe hacer al menos 100 operaciones al año, y si muestra un super resultado pero con 99 operaciones - el resultado se tira automáticamente...

 
mersi:

La ponderación de la red neuronal requiere trillones de opciones, y ga sólo puede dar entre 10 y 18 mil.

por lo que lo correcto sería ejecutar la optimización varias veces (al menos cinco) en modo ha y sólo entonces elegir algo apropiado.


¿Utiliza un probador GA para entrenar al NS? ¿Cómo lo hiciste y qué tipo de NS son? ¿Cuántas "escalas" se pueden "ajustar" con este enfoque?
 
Figar0:

¿Utilizas el GA tester para entrenar a los NS? ¿Cómo lo hiciste y qué tipo de NS son? ¿Cuántas "escalas" se pueden "ajustar" con este enfoque?

Mientras Yuri responde, te diré lo que hice.

Hay un total de 21 pesos. Las variables toman valores de -1 a 1. Hice el paso de optimización de la variable 0,05.

No puedo hacer pasos más pequeños porque el número de combinaciones está en el límite para el optimizador - 19 dígitos, ni siquiera conozco esos números.

Es decir, era el límite para el optimizador, algo así como 9999999999999999999.

Mi tema: https://www.mql5.com/ru/forum/126476

 
Figar0:

¿Utilizas el GA tester para enseñar NS? ¿Cómo lo hiciste y qué tipo de NS son? ¿Cuántos "pesos" se pueden "ajustar" con este enfoque?

20 sinapsis.

8 entradas

4 + 3 capas ocultas

1 salida

todas las neuronas con Fa - tangente hiperbólica

===========

Hay tres redes de este tipo. Los resultados de los tres forman un comité.

Primero se entrena la primera red. Las salidas de las otras dos son cero

Entonces, con la primera activada, se optimiza la segunda con el fin de disminuir el drawdown al mínimo mientras se mantiene o aumenta el beneficio

entonces la tercera red se conecta a las dos ya existentes y se ajustan los pesos como en el caso anterior

 
Figar0:

¿Y el número de acuerdos está controlado? NS es flexible, si simplemente establecemos la reducción mínima como función de aprendizaje objetivo, NS puede encontrar fácilmente una opción con reducción cero.

El probador de Metatrader no producirá un drawdown cero porque calcula por equidad, no por balance. Es decir, aunque todas las operaciones sean rentables, el drawdown no será cero de todas formas, ya que las velas tienen sombras.

Y no es deseable hacer tal ajuste para que no haya operaciones perdedoras en absoluto. Dichos accesorios, con muy raras excepciones, fallan en las pruebas de avance.

 
mersi:

La ponderación de la red neuronal requiere trillones de opciones, y ga sólo puede dar entre 10 y 18 mil.

Así que lo correcto sería ejecutar la optimización en modo ha varias veces (al menos cinco) y sólo entonces elegir algo adecuado.

Está eligiendo la arquitectura de red neuronal equivocada. En realidad, la cuadrícula debería ser tal que un ligero cambio en los ajustes (pesos y umbrales) diera el mismo resultado en las salidas. Si la arquitectura de la rejilla está sobredimensionada, necesita un ajuste súper elegante, y el resultado de esos ajustes será el sobreentrenamiento (ajuste).

Por ejemplo, mi arquitectura es tal que 10 000 pases de GA ya es redundante, es decir, después de la optimización aparecen resultados similares (por el equilibrio, el factor de beneficio, el pago esperado y la reducción) con ajustes ligeramente diferentes. Esto permite que la rejilla produzca resultados correctos en una gama más amplia de configuraciones: tiene una piel más gruesa.

 

Explicación del puesto anterior.

Supongamos que ha conseguido entrenar una red y que ésta es capaz de distinguir entre los patrones 3 y 6.

El propósito de la segunda y tercera red (en mi caso) es evitar que el Asesor Experto se active cuando encuentre los patrones h y b, que la primera red ha confundido con 3 y 6.

 
Reshetov:

No está seleccionando correctamente la arquitectura de la red neuronal. De hecho, la cuadrícula debe ser tal que un ligero cambio en los ajustes (pesos y umbrales) dé el mismo resultado en las salidas. Si se ajusta la arquitectura de la red, es necesario un ajuste muy fino, y el resultado de tales ajustes será el sobreentrenamiento (ajuste).

Por ejemplo, mi arquitectura es tal que 10 mil pases de GA ya es redundante, es decir, después de la optimización aparecen resultados similares (balance, factor de ganancia, pago esperado y drawdown) con ajustes ligeramente diferentes. Esto permite que la rejilla produzca resultados correctos en una gama más amplia de configuraciones: tiene una piel más gruesa.

Todos los investigadores de redes neuronales están en desacuerdo con esta afirmación.

En casi todos los artículos sobre ns se puede leer que cuanto mejor es la red, más neuronas tiene, pero al mismo tiempo no debe tener demasiadas.

Por eso la mayoría tiende a redes con 2-3 capas ocultas.

Razón de la queja: