Posibles problemas: Entrenamiento limitado: El parámetro MaxEpochs está fijado en 1, lo que limita el número de iteraciones de entrenamiento de la red en cada tick. Puede que merezca la pena aumentar este valor para una mejor optimización. Riesgos con spread alto: La función que abre operaciones las bloquea si el spread es demasiado alto, pero no hay lógica para reintentar si el spread se normaliza. Normalización de volumen mínimo en la función de normalización de entrada: Al normalizar el volumen de las velas, las entradas se dividen por sus valores añadiendo una pequeña constante (EPSILON), lo que puede llevar a una normalización ineficaz cuando se trabaja con volúmenes bajos. Modelos de penalización: Si el beneficio diario es inferior al valor objetivo, se activa una penalización que reduce la tasa de aprendizaje. Sin embargo, no existe una lógica detallada que explique cómo afecta esto al rendimiento del EA a largo plazo. Recomendaciones: Considerar la posibilidad de mejorar el proceso de entrenamiento de la red neuronal aumentando el número de épocas. Añadir reintentos para abrir una operación cuando el spread se normalice. Piense más detenidamente en el mecanismo de penalización para evitar una reducción excesiva de la tasa de aprendizaje.
IGOR IAREMA # :
Posibles problemas: Entrenamiento limitado: El parámetro MaxEpochs es igual a 1, lo que limita el número de iteraciones de entrenamiento de la red en cada tick. Puede que merezca la pena aumentar este valor para una mejor optimización. Riesgos con spreads elevados: La función que abre operaciones las bloquea si el spread es demasiado alto, pero no hay lógica para volver a intentarlo si el spread se normaliza. Normalización de volumen mínimo en la función de normalización de datos de entrada: Al normalizar el volumen de las velas, las entradas se dividen por sus valores añadiendo una pequeña constante (EPSILON), lo que puede provocar una normalización ineficaz cuando se trabaja con volúmenes bajos. Modelos de penalización: Si el beneficio diario es inferior al valor objetivo, se activa una penalización que reduce la tasa de aprendizaje. Sin embargo, no existe una lógica detallada que explique cómo afecta esto al rendimiento del asesor a largo plazo. Recomendaciones: Considerar la posibilidad de mejorar el proceso de entrenamiento de la red neuronal aumentando el número de épocas. Añadir intentos repetidos de abrir una operación cuando se normalice el diferencial. Considerar más detenidamente el mecanismo de penalización para evitar una reducción excesiva de la tasa de aprendizaje.
Posibles problemas: Entrenamiento limitado: El parámetro MaxEpochs es igual a 1, lo que limita el número de iteraciones de entrenamiento de la red en cada tick. Puede que merezca la pena aumentar este valor para una mejor optimización. Riesgos con spreads elevados: La función que abre operaciones las bloquea si el spread es demasiado alto, pero no hay lógica para volver a intentarlo si el spread se normaliza. Normalización de volumen mínimo en la función de normalización de datos de entrada: Al normalizar el volumen de las velas, las entradas se dividen por sus valores añadiendo una pequeña constante (EPSILON), lo que puede provocar una normalización ineficaz cuando se trabaja con volúmenes bajos. Modelos de penalización: Si el beneficio diario es inferior al valor objetivo, se activa una penalización que reduce la tasa de aprendizaje. Sin embargo, no existe una lógica detallada que explique cómo afecta esto al rendimiento del asesor a largo plazo. Recomendaciones: Considerar la posibilidad de mejorar el proceso de entrenamiento de la red neuronal aumentando el número de épocas. Añadir intentos repetidos de abrir una operación cuando se normalice el diferencial. Considerar más detenidamente el mecanismo de penalización para evitar una reducción excesiva de la tasa de aprendizaje.
Hola IGOR IAREMA ,
Gracias por sus comentarios detallados y la comprensión de los posibles problemas. Hemos revisado cuidadosamente sus puntos:
- Formación limitada: Tenemos previsto aumentar el parámetro MaxEpochs para permitir una mejor optimización.
- Riesgos con spreads altos: Implementaremos una lógica para reintentar las operaciones cuando el spread se normalice.
- Normalización del volumen mínimo: Estamos optimizando la función de normalización de volúmenes bajos para conseguir resultados más efectivos.
- Modelos de penalización: La lógica que controla la tasa de aprendizaje se perfeccionará para garantizar mejoras de rendimiento a largo plazo.
Ya está en marcha una actualización completa que aborda estas mejoras. Está tardando un poco más porque los cambios son bastante complejos, pero confiamos en que la espera merezca la pena. Gracias por su paciencia y comprensión.
Saludos cordiales,
SM.S
Después de descargar el neurobook y los fuentes, me gustaría saber si existe una versión totalmente en Python? La versión proporcionada plantea un problema y creo que sobre todo si las ejecuciones openCl no se puede hacer en la máquina. Actualmente estoy intentando una conversión, ¡pero es un poco titánica!
Un saludo a quien ya haya emprendido este trabajo, o a quien sepa dónde encontrar las fuentes de una versión en Python.
Un saludo a quien ya haya emprendido este trabajo, o a quien sepa dónde encontrar las fuentes de una versión en Python.
Cada vez que obtengo esto en el archivo de registro: No se han encontrado parámetros de red neuronal guardados. ¿Qué puede ser la razón de esto ?
Encho Enev red neuronal guardados. ¿Qué puede ser la razón de esto ?
No lo he ejecutado todavía, pero de acuerdo con el código que tendría que entrenar a la red neuronal en el probador de estrategia antes de ponerlo en un gráfico en vivo. ¿Lo ha hecho?
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Neurotest:
es un texto para la red neutral le gustaría conocer su opinión.
Author: Mustafa Seyyid Sahin