Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 6): Experimentos con la tasa de aprendizaje de la red neuronal"
Sólo pasaba por aquí)))) ¿No te confunde el hecho de que el error crezca con el entrenamiento? debería ser al revés)))))
Hola Dmitriy,
Me gusta mucho esta serie, como una herramienta de aprendizaje para mí para las redes neuronales. Yo uso MT4, incluyendo la búsqueda de una implementación de SymbolInfo. Supongo que ahí está el problema, ya que se ejecuta pero no hace nada durante el aprendizaje. ¿Tendría alguna idea de lo que sería necesario para que se ejecute en MT4? Gracias.
Buenas tardes.
Me puedes decir, ¿entrenas NS sólo con el precio de cierre? ¿O utilizáis también el volumen de negociación en una determinada MT?
¡Buenas tardes!
Me puedes decir, ¿entrenas NS sólo con el precio de cierre? ¿O utilizáis también el volumen de negociación en una determinada MT?
Ahora bien, en el ejemplo descrito, la red neuronal recibe apertura, cierre, máximo, mínimo, volumen, hora y lecturas de 4 indicadores. El proceso de transferencia de los datos iniciales a la red neuronal se describe en el enlace.
- www.mql5.com
Para cualquiera que venga después de mí: tenga en cuenta el primer ejemplo Fractal_OCL1.mql no compila
Necesitas cambiar
//#define lr 0. 1
double eta=0.1;
El principal problema no está en seleccionar el coeficiente de entrenamiento, después de todo, Tensor Flo tiene una función que lo reduce gradualmente durante el entrenamiento hasta un valor especificado, seleccionando el óptimo. El problema es que la red neuronal no encuentra patrones estables, no tiene nada a lo que agarrarse. He utilizado modelos que van desde las capas totalmente conectadas hasta las novedosas ResNet y Attention. El efecto no supera el 60%, y esto es en un área estrecha, en general, todo se desliza al 50/50. Con las redes neuronales hay que pensar en lo que se podría analizar en general. Las meras matrices de precios y volúmenes, en cualquier combinación, no dan resultados.
Hay que intentar analizar la correlación entre los datos iniciales y el resultado objetivo.
"...en ausencia de fractal en el valor de referencia, al entrenar la red, especifiqué 0,5 en lugar de 1".
¿Por qué exactamente 0,5, de dónde ha salido esta cifra?
¿Por qué exactamente 0,5, de dónde viene esta cifra?
Durante el entrenamiento, el modelo aprende la distribución de probabilidad de cada uno de los 3 eventos. Como la probabilidad de ausencia del fractal es mucho mayor que la probabilidad de su aparición, la subestimamos artificialmente. Especificamos 0,5, porque en este valor llegamos aproximadamente al mismo nivel de probabilidades máximas de los sucesos. Y se pueden comparar.
Estoy de acuerdo en que este enfoque es muy controvertido y viene dictado por las observaciones de la muestra de entrenamiento.
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Usted acepta la política del sitio web y las condiciones de uso
Artículo publicado Redes neuronales: así de sencillo (Parte 6): Experimentos con la tasa de aprendizaje de la red neuronal:
Ya hemos hablado sobre algunos tipos de redes neuronales y su implementación. En todos los casos, hemos usado el método de descenso de gradiente para entrenar las redes neuronales, lo cual implica la elección de una tasa de aprendizaje. En este artículo, queremos mostrar con ejemplos lo importante que resulta elegir correctamente la tasa de aprendizaje, y también su impacto en el entrenamiento de una red neuronal.
El tercer experimento supone una ligera desviación respecto al tema principal del artículo. Su idea surgió durante los dos primeros experimentos. Entonces, decidimos compartirlo con el lector. Al observar el entrenamiento de la red neuronal, vimos que la probabilidad de omitir un fractal oscila alrededor del 60-70%, y rara vez cae por debajo del 50%. La probabilidad de aparición de un fractal, ya sea de compra o venta, se encuentra alrededor del 20-30%. Esto resulta bastante natural, ya que hay muchos menos fractales en el gráfico que velas dentro de las tendencias. Por consiguiente, nuestra red neuronal se sobreentrena y obtenemos los resultados anteriores. Casi el 100% de los fractales se omiten y solo en raras ocasiones se pueden detectar.
Para solucionar este problema, hemos decidido compensar ligeramente el desequilibrio de la muestra y, ante la inexistencia de un fractal en el valor de referencia, hemos indicado 0.5 en lugar de 1 al entrenar la red.
Este paso ha dado sus frutos. Tras iniciar el asesor experto con una tasa de aprendizaje de 0.01 y una matriz de pesos tras los experimentos previos y después de 5 épocas de entrenamiento, vemos una estabilización del error en torno al 0.34. En este caso, además, la proporción de fractales omitidos disminuyó al 51%, y los "aciertos" aumentaron en un 9,88%. En el gráfico, podemos ver que el asesor emite señales en grupos, definiendo así algunas zonas. Está claro que la idea requiere de elaboración y pruebas adicionales, pero los resultados obtenidos indican la consistencia de este enfoque.
Autor: Dmitriy Gizlyk