Discusión sobre el artículo "Programamos una red neuronal profunda desde cero usando el lenguaje MQL" - página 6

 
Nikolai Kalinin #:

¿Pudiste resolver el problema con entradas escaladas a más de 4x?

Sí, empecé a husmear y llegué al fondo del asunto. No sólo aumenté las entradas, sino también la arquitectura: añadí capas, añadí neuronas, añadí RNN - recordando el estado anterior y alimentándolo a las entradas, probé a cambiar la función de activación por las más famosas, probé todo tipo de entradas del tema "Qué alimentar a la entrada de la red neuronal" - en vano.

Muy a mi pesar. Pero, eso no me impide volver de vez en cuando y retorcer redes neuronales simples, incluyendo la de este autor.

Probé LSTM, BiLSTM, CNN, CNN-BiLSTM, CNN-BiLSTM-MLP, - en vano.

Yo mismo estoy sorprendido. Es decir, todos los éxitos se describen con una observación: es un periodo de calendario afortunado. Por ejemplo, 2022 para el Eurodólar es casi exactamente igual que 2021. Y entrenando en 2021, obtendrás un forward positivo en 2022 hasta noviembre (u octubre, no recuerdo). Pero, en cuanto entrenas sobre 2020, cualquier(!) red neuronal, luego sobre 2021 falla limpiamente. Desde el primer mes. Y si cambias a otros pares de divisas (normalmente eurodólar), también se comporta aleatoriamente.

Pero necesitamos un sistema que tenga garantizado dar señales de vida en el futuro tras el entrenamiento, ¿no? Si partimos de este pensamiento, es infructuoso. Si alguien cree que es una persona con suerte y después del entrenamiento de hoy tendrá un forward rentable para el próximo año o seis meses, pues buena suerte para él).

 
Ivan Butko #:


Pero, necesitamos un sistema que garantice señales de vida en el delantero después del entrenamiento, ¿no? Si partimos de ese pensamiento, es infructuoso. Si alguien cree que es una persona con suerte y que después del entrenamiento de hoy tendrá un delantero rentable para el próximo año o seis meses, pues que tenga suerte).

Entonces, ¿podemos suponer que los parámetros "graales" necesarios de NS se pasaron por alto en el proceso de su búsqueda o incluso inicialmente insignificantes y no fueron tenidos en cuenta por el probador? Tal vez el sistema carece de factores de eventualidad que sólo patrones-proporciones.

 
Nikolai Kalinin #:

Entonces, ¿podemos suponer que los parámetros "graales" necesarios de NS se pasaron por alto en el proceso de su búsqueda o incluso fueron inicialmente insignificantes y no fueron tenidos en cuenta por el probador? Tal vez el sistema carece de factores de eventualidad que sólo patrones-proporciones.

Por supuesto, a veces los conjuntos "grial" se cuelan durante la optimización, es casi imposible encontrarlos (línea 150 de algún tipo durante la clasificación) hasta que se comprueba todo. A veces hay decenas de miles de ellos.

No entiendo la segunda parte de tu post.

 
Ivan Butko #:

Por supuesto, a veces los conjuntos "grial" se cuelan durante la optimización, es casi imposible encontrarlos (línea 150 de algún tipo durante la clasificación) hasta que lo compruebas todo. A veces hay decenas de miles de ellos.

No entiendo la segunda parte de tu post.

Se trata de la entrada de tales datos, que se obtiene en el momento de un determinado evento, por ejemplo, High[0]> High[1] en el momento. Si el mercado se considera en tal contexto, es totalmente un modelo impulsado por eventos y correlacionado en eso. Y el control de los elementos de caos ya está a los métodos de ajuste fino y optimización fuera de la "memoria" NS. Está bien representado por un indicador integral cómo funcionan tales adiciones de eventos al código. Este indicador (criterio integrado) mejora y se desplaza hacia los pases más rentables del optimizador.

 
¡Esto es justo lo que estaba buscando! ¡Gran artículo!