Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 630

 
Yuriy Asaulenko:
No voy a afirmarlo, pero me parece que son ilusiones. Sólo por razones generales.
Por qué, Vladimir Perervenko tiene alguna información en sus artículos, aprenden muy rápido en cientos de entradas
 
Maxim Dmitrievsky:
Por qué, Vladimir Perevenko tiene información en sus artículos, se entrenan muy rápido en cientos de entradas

No he leído los artículos y no voy a discutir. Sólo he visto fotos).

El MLP, por ejemplo, puede ser entrenado perfectamente en 10-15 minutos y funcionará perfectamente. Sí, pero eso es si los datos están bien clasificados, los conjuntos están separados.

Si no hay conjuntos separables en el mercado (o en tus muestras de entrenamiento), entonces puedes entrenar lo que quieras siempre y no habrá resultados.

 
Maxim Dmitrievsky:
Por qué, Vladimir Perevenko tiene información en sus artículos, aprenden muy rápido en cientos de entradas

Todo depende de la arquitectura y la cantidad de datos.
Las redes de reconocimiento de patrones aprenden durante una semana en la GPU. Y hay docenas de capas con tensores tridimensionales.

 
Aleksey Terentev:

Todo depende de la arquitectura y la cantidad de datos.
Las redes de reconocimiento de patrones tardan una semana en aprenderse en una GPU. Hay decenas de capas con tensores tridimensionales.

allí describió las más sencillas - red Boltzmann + MLP, por ejemplo

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
Yuriy Asaulenko:

No he leído los artículos y no voy a discutir. Sólo he visto fotos).

El MLP, por ejemplo, puede ser entrenado perfectamente en 10-15 minutos y funcionará perfectamente. Sí, pero eso es si los datos están bien clasificados, los conjuntos están separados.

Si en el mercado (o en tus muestras de entrenamiento) simplemente no hay conjuntos separables, entonces puedes entrenar lo que quieras siempre y no habrá resultados.

Realicemos simplemente un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP y los datos de salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.

La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)

 
Aleksey Terentev:

Hagamos un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP, la salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.

La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)

(Me temo que soy demasiado débil). No veo ningún sentido en resolver problemas abstractos. Y el intercambio de opiniones no es para nada una llama. He sacado mucho provecho de esta llama. Y se fue en otra dirección). Y sin el flamear, bien podría haber estado husmeando.
 

Comparto los primeros resultados de mi NS. La arquitectura es la misma que se describe en el dios, no he cambiado nada.

La meseta es bastante uniforme, el NS ha aprendido bien ya a los 1000 pases, los resultados no han mejorado mucho más.

He estado estudiando durante 15 minutos el mes pasado. He gastado ~0,65 $ en formación. Mi número mensual de ofertas es de ~300.

Los resultados de los dos meses anteriores no son malos, pero tampoco demasiado.

Intentaré añadir una capa oculta más y buscaré más errores :) y luego intentaré entrenar durante más tiempo.

 

Maxim Dmitrievsky:
Por qué, Vladimir Perervenko tiene información en sus artículos, aprenden muy rápido en cientos de entradas


Todos los artículos contienen conjuntos de datos y scripts que puedes reproducir y obtener datos reales sobre el tiempo de aprendizaje específicamente en tu hardware. El tiempo de entrenamiento de la DNN con dos capas ocultas es de hasta 1 minuto.

Buena suerte

 
Aleksey Terentev:

Hagamos un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP, la salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.

La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)

Pon un ejemplo. Comience con
 
Maxim Dmitrievsky:

Comparto los primeros resultados de mi NS. La arquitectura es la misma que se describe en el dios, no he cambiado nada.

La meseta es bastante uniforme, el NS ha aprendido bien ya a los 1000 pases, los resultados no han mejorado mucho más.

He estado estudiando durante 15 minutos el mes pasado. He gastado ~0,65 $ en formación. Mi número mensual de ofertas es de ~300.

Los resultados de los dos meses anteriores no son malos, pero tampoco demasiado.

Intentaré añadir una capa oculta más y buscaré más errores :) y luego intentaré entrenar durante más tiempo.

¿Tiene tres neuronas en la entrada de la segunda capa procesada por sigmoide? Cómo se ajustan los pesos en la segunda capa que se elige de -1 a 1 en pasos de 0,1 por ejemplo.

En mi red, después de procesar la segunda capa , el número de acuerdos cayó y mis resultados no mejoraron mucho. Esto es diferente de ajustar un perceptrón con 9 entradas y una neurona de salida y luego tomar otro perceptrón independiente y ajustarlo de nuevo con los ajustes guardados del primero, etc.

Razón de la queja: