Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 13): Normalización por lotes (Batch Normalization)" - página 2
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Las entradas son unidad por segundo.
Al leer la red desde el fichero, la función de generación de pesos aleatorios no debe tener ningún valor. Los pesos se leen del fichero. Pero en tu función la generación no es aleatoria y crea los mismos pesos en cada reinicio, por eso el resultado converge. Revisa tu código. Parece que después de leer sobrescribes la red entrenada con pesos aleatorios.
Hola Dmitriy
Por favor, usted tendría un ejemplo de código de un LSTM con la versión del archivo neuronet.mqh del artículo 13?
He intentado utilizar el artículo 4 fractal_lstm.mq5 archivo, pero sin éxito ... se produce un error en la formación ...
saludos
Neuer Artikel Neuronale Netze leicht gemacht (Teil 13): Batch Normalization is erschienen:
Autor: Dmitry Gizlyk
Para mí como principiante con NN fue muy esclarecedor. Quiero utilizar sus propuestas para codificar un EA. Debe ser un conjunto de construcciones para DNN para probar diferentes funciones y topologías y aprender, que son mejores.
Así que he modificado su último ejemplo (MLMH + convolucional).
Añadí muchas funciones de activación diferentes (32 funciones - gaussian, SeLU, SILU, Softsign, Symmetric Sigmoid,...) y sus derivadas,
Cambié el cálculo de error/éxito (Buy, Sell, DontBuySell) porque creo que "Don't trade" no es indefinido. Así que si el NN reconoce no comprar y no vender y esto es correcto en real debe ser recompensado en el bucle de retroalimentación.
Tal vez alguien ya tiene soluciones o puede ayudar con las siguientes preguntas:
No soy capaz de crear funciones que necesitan pesos de la capa completa: Softmax, Maxout, PRelu con alpha aprendido.
Tampoco soy capaz de hacer diferentes optimizaciones (AdaBound, AMSBound, Momentum).
Estoy pensando en un DNN-Builder-EA para hacer pruebas y encontrar la mejor topología de red.
1. ¿Cómo puedo encontrar la entrada/salida de neuronas y pesos por capa?
2. ¿Qué topología sugieres? He probado muchas variaciones:
A) Unas pocas capas de neuronas con recuento=19000 y luego recuento descendente en las siguientes capas *0.3
B) 1 Convolucional + 12 capas MLMH con cada 300 neuronas
C) 29 capas con cada 300 neuronas
D) 29 capas con cada 300 neuronas y Normalización entre cada capa.
Consigo previsiones a un máximo del 57%, pero creo que puede/debe ser mejor.
¿Debería haber capas con un número de neuronas ascendente y luego descendente de nuevo?
3. ¿Cómo puedo hacer un back test? Hay una condición para devolver falso cuando en la prueba modi - Traté de remarcarlo, pero sin éxito.
Hay muchas explicaciones en muy detalle, pero no entiendo algunas visión general.
4. ¿Qué capa después de que? ¿Dónde deberían estar las capas BatchNorm?
5. ¿Cuántas neuronas de salida tiene convolucional o todos los multi-cabeza como MLMH cuando layers=x, step=y, window_out=z? Tengo que calcular el recuento de la siguiente capa de neuronas. Quiero evitar capas demasiado grandes o cuellos de botella.
6. ¿Qué pasa con LSTM_OCL? ¿Es demasiado débil en relación a la atención/MH, MHML?
7. Quiero implementar eta para cada capa, pero no he tenido éxito (falta de conocimiento sobre clases - soy un buen codificador de 3ª generación).
8. ¿Qué debería modificarse para obtener una tasa de error < 0.1.? Tengo constante 0,6+.
9. ¿Qué pasa con las neuronas de sesgo en este diseños de capas existentes?
Estudié ya muchos sitios web durante semanas, pero no encontró respuestas a estas preguntas.
Pero estoy mirando adelante, para resolver esto, debido a la retroalimentación positiva de los demás, que ya había éxito.
Tal vez hay que viene parte 14 con soluciones para todas estas cuestiones?
Saludos
y muchas gracias de antemano
HI. Estoy recibiendo este error
CANDIDATE FUNCTION NOT VIABLE: NO KNOW CONVERSION FROM 'DOUBLE __ATTRIBUTE__((EXT_VECTOR_TYPE92000' TO 'HALF4' FOR 1ST ARGUMENT
2022.11.30 08:52:28.185 Fractal_OCL_AttentionMLMH_b (EURJPY,D1) Falló la creación del programa OpenCL. Código de error=5105
cuando se utiliza EA desde el artículo parte 10 ejemplos
Por favor, cualquier conjetura?
Gracias
cuando se utiliza EA desde el artículo parte 10 ejemplos
Por favor, cualquier conjetura?
Gracias
Hola, ¿puede enviar el registro completo?
Hola. Gracias por la ayuda
Rogerio
Hola. Gracias por la ayuda
Rogerio
Hola Rogerio
1. No se crea modelo.
2. Tu GPU no soporta doble. Por favor, carga la última versión del artículo https://www.mql5.com/ru/articles/11804
Hola Dmitriy
Usted escribió: No creas modelo.
¿Pero cómo creo un modelo? Compilo todas las fuentes del programa y ejecuto el EA.
El EA crea un archivo en la carpeta 'files' con la extensión nnw. ¿Este archivo no es el modelo?
Gracias
Hola Maestro Dmitriy
Ahora ninguno de los .mqh compila
por ejemplo cuando intento compilar el vae.mqh obtengo este error
'MathRandomNormal' - identificador no declarado VAE.mqh 92 8
Intentaré volver a empezar desde el principio.
Una pregunta más: Cuando se pone una nueva versión de NeuroNet.mqh esta versión es totalmente compatible con los otros EA olders ?
Gracias
rogerio
PS: Incluso la eliminación de todos los archivos y directorios y empezar con una nueva copia de la PARTE 1 y 2 no puedo más compilar cualquier código.
Por ejemplo cuando intento compilar el código en fractal.mq5 obtengo este error:
cannot convert type'CArrayObj *' to reference of type 'const CArrayObj *' NeuroNet.mqh 437 29
Lo siento realmente quería entender sus artículos y código.
PD2: OK he quitado la palabra 'const' en 'feedForward', 'calcHiddenGradients' y 'sumDOW' y ahora puedo compilar el Fractal.mqh y Fractal2.mqh