Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 629

 
Yuriy Asaulenko:

Maxim, bueno, no entrenes la red en el optimizador MT. El entrenador NS y el optimizador son algoritmos completamente diferentes con criterios de optimización completamente diferentes.

Si todavía utiliza esa estructura NS, que dibujó antes, entonces es un poco simple - débil para el mercado. Ya escribí que sólo tuve éxito cuando llegué a la estructura 15-20-15-10-5-1. Y esto es sólo para un tipo de operaciones. También hice absolutamente todo con los métodos descritos por Haikin, es decir, nada nuevo, sin trucos.

Las estructuras más sencillas estaban mal formadas.

¿Ha intentado tomar no el número de capas sino el número de neuronas en una capa? ¿Por ejemplo, 15-200-1 o 15-200-20-1?

Yuriy Asaulenko:

De hecho, los datos necesarios para la formación no son muchos, sino muchísimos. Con una muestra pequeña, NS no obtendrá nada útil.

¿Y cuántos datos toma? Tomo 86000 cuerdas para la formación.

 
elibrarius:

1) ¿Has probado a tomar no el número de capas, sino el número de neuronas en una capa? ¿Por ejemplo, 15-200-1 o 15-200-20-1?

2) ¿Y cuántos datos toma? Llevaba 86000 líneas para la formación.

1. No lo he probado. 20 en la primera capa es suficiente. Se ha ido incrementando tanto las neuronas por capa como las capas.

2. Tuve alrededor de 12000 filas en el entrenamiento con barajado intermedio entre N épocas. Después de algunas épocas, los datos de entrenamiento fueron sustituidos por otros datos que no habían participado en el entrenamiento.

 
Aleksey Terentev:

Me disculpo por el insulto, pero deberías releer tu post. Parece bastante ambiguo.
Y en general tienes razón, pero sólo en lo que respecta a la primera capa de la red neuronal. Si la retroalimentación va a la segunda y siguientes capas o en general a las capas de la red paralela, su afirmación no será válida.
En ese caso, Maxim debería pensar en profundizar en la red y llevar la retroalimentación a las capas ocultas.

Y qué hay de:

Lo mismo. Los MLP no son relevantes desde hace mucho tiempo, el aprendizaje profundo es tendencia desde hace mucho tiempo. Y una red es bastante capaz de procesar datos heterogéneos, lo principal es la arquitectura.

Estoy de acuerdo, pero cómo combinar la profundidad con todos esos trucos que surgieron :) en el optimizador será un poco largo de aprender ... pero muy, muy alta calidad, porque allí y el comercio pasa a la vez

Creo que más de 30 pesos no es una opción para el optimizador.

+ Mucha gente se olvida de que hay una nube, que en general es genial para trabajar con todas estas cosas, pero hay que ser muy bueno en la optimización del código.

 
Maxim Dmitrievsky:

Estoy de acuerdo, pero cómo combinar la profundidad con todos esos trucos que surgieron :) en el optimizador será un poco largo de aprender ... pero muy, muy alta calidad, porque allí y el comercio pasa a la vez

Creo que más de 30 pesos no es una opción para el optimizador.

+ Creo que mucha gente olvida que hay una nube, a través de la cual todas estas cosas son divertidas de trabajar, pero hay que optimizar muy bien el código.

Intenta duplicar la capa de entrada.

 
Aleksey Terentev:


Lo mismo. Los MLP ya no son relevantes, el aprendizaje profundo es tendencia desde hace tiempo. Y una red es bastante capaz de procesar datos heterogéneos, lo que importa es la arquitectura.
Si un MLP puede resolver una tarea, ¿qué diferencia hay en que estén actualizados o no? Especialmente con los MLP no tienes que hacer mucho esfuerzo - hay de todo para ellos casi en todas partes.
 
Aleksey Terentev:

Prueba a duplicar la capa de entrada.

tema, y mezclar los pesos :)
 
Yuriy Asaulenko:
Si los MLP pueden resolver un problema, ¿qué diferencia hay en que sean relevantes o no? Especialmente con los MLP no tienes que esforzarte: hay de todo para ellos prácticamente en todas partes.

No estoy tratando de doblegarte a nada. El aprendizaje en profundidad comienza con los MLP.
Pero cuando se trata de la representación de los datos dentro de una red, su movimiento y transformaciones, se plantean naturalmente cuestiones sobre la activación, las capas recurrentes, la regularización, la combinación de capas, etc. Eso sí que es aprendizaje profundo.

Además, hay de todo y en todas partes para el aprendizaje profundo. =)
 
Yuriy Asaulenko:
Si los MLP pueden resolver un problema, ¿qué diferencia hay en que sean relevantes o no? Especialmente con los MLP no tienes que esforzarte: hay de todo para ellos prácticamente en todas partes.
Es que en profundidad se puede aprender mucho más rápido, en igualdad de condiciones... no 10 horas sino 5 minutos, por ejemplo :)
 
Aleksey Terentev:

Bueno, yo no te inclino a nada. El aprendizaje profundo comienza sólo con los MLP.
Pero cuando se trata de la representación de los datos dentro de la red, su movimiento y transformaciones, se plantean naturalmente cuestiones sobre la activación, las capas recurrentes, la regularización, la combinación de capas, etc. Esto es un aprendizaje profundo.

Lo entiendo, pero me refiero a otra cosa. Para el problema de los dos tubos no se necesitan matemáticas superiores, sólo aritmética. Que la aritmética sea relevante o no es otra cosa.

Es decir, primero hay que definir el problema y luego elegir los métodos de solución.

En cuanto a las grandes y complejas DM - DL, la MLP está ciertamente muy pasada de vueltas.

 
Maxim Dmitrievsky:
Es que el profundo puede aprender mucho más rápido aún, en igualdad de condiciones... no 10 horas sino 5 minutos, por ejemplo :)
No puedo asegurarlo, pero me parece que son ilusiones. Sólo por consideraciones generales.
Razón de la queja: