Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 33): Regresión cuantílica en el aprendizaje Q distribuido"
Hola,
gracias por tu duro trabajo, aprecio tu tiempo y esfuerzo.
Tuve que agarrar VAE del artículo # 22 cuando traté de compilar QRDQN.
Pero corriendo en este error,
'MathRandomNormal' - identificador no declarado VAE.mqh 92 8
Supongo que la biblioteca VAE en # 22 es obsoleto?
Hola,
gracias por tu duro trabajo, aprecio tu tiempo y esfuerzo.
Tuve que agarrar VAE del artículo # 22 cuando traté de compilar QRDQN.
pero corriendo en este error,
'MathRandomNormal' - identificador no declarado VAE.mqh 92 8
Supongo que la biblioteca VAE en # 22 es obsoleto?
Hola, puedes cargar archivos actualizados desde este artículo https://www.mql5.com/es/articles/11619
- www.mql5.com
Hola, puede cargar los archivos actualizados de este artículo https://www.mql5.com/en/articles/11619
Gracias por tu respuesta,
Hice eso y ese error se ha solucionado, pero aparecieron 2 más.
uno
'Create' - expresión de tipo 'void' es ilegal QRDQN.mqh 85 30
2
''AssignArray' - ninguna de las sobrecargas se puede aplicar a la llamada de función QRDQN.mqh 149 19
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Usted acepta la política del sitio web y las condiciones de uso
Artículo publicado Redes neuronales: así de sencillo (Parte 33): Regresión cuantílica en el aprendizaje Q distribuido:
Continuamos explorando el aprendizaje Q distribuido. Hoy analizaremos este enfoque desde un ángulo diferente. Vamos a hablar de la posibilidad de utilizar la regresión cuantílica para resolver el problema de la previsión de los movimientos de precio.
Para el entrenamiento, hemos creado un modelo utilizando la herramienta NetCreator. El modelo reproducirá íntegramente la arquitectura del modelo entrenado del artículo anterior. Solo hemos eliminado la última capa de normalización SoftMax para que el área de resultados del modelo pueda replicar cualquier resultado de la política de recompensa utilizada.
Como siempre, el modelo ha sido entrenado con datos históricos de EURUSD, utilizando el marco temporal H1. Como muestra de entrenamiento, hemos usado los datos históricos de los dos últimos años.
El rendimiento del modelo entrenado ha sido comprobado en el simulador de estrategias. Para ello, hemos creado el asesor "QRDQN-learning-test.mq". El asesor también se ha basado en asesores similares de artículos anteriores, y su código no ha cambiado significativamente. Encontrará el código completo en el archivo adjunto.
En el simulador de estrategias, el modelo ha mostrado capacidad para generar beneficios en un breve plazo de 2 semanas. Más de la mitad de las transacciones realizadas se han cerrado con beneficios. El beneficio medio por transacción ha sido casi el doble que la pérdida media.
Autor: Dmitriy Gizlyk