Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 13): Normalización por lotes (Batch Normalization)" - página 2

 
Dmitry Nazarov red entrenada después de cargar el archivo de entrenamiento.

Las entradas son unidad por segundo.

Al leer la red desde el fichero, la función de generación de pesos aleatorios no debe tener ningún valor. Los pesos se leen del fichero. Pero en tu función la generación no es aleatoria y crea los mismos pesos en cada reinicio, por eso el resultado converge. Revisa tu código. Parece que después de leer sobrescribes la red entrenada con pesos aleatorios.

 

Hola Dmitriy

Por favor, usted tendría un ejemplo de código de un LSTM con la versión del archivo neuronet.mqh del artículo 13?

He intentado utilizar el artículo 4 fractal_lstm.mq5 archivo, pero sin éxito ... se produce un error en la formación ...


saludos

 
Hola, esta serie sobre redes neuronales es muy buena. Felicitaciones!

Para mí como principiante con NN fue muy esclarecedor. Quiero utilizar sus propuestas para codificar un EA. Debe ser un conjunto de construcciones para DNN para probar diferentes funciones y topologías y aprender, que son mejores.

Así que he modificado su último ejemplo (MLMH + convolucional).
Añadí muchas funciones de activación diferentes (32 funciones - gaussian, SeLU, SILU, Softsign, Symmetric Sigmoid,...) y sus derivadas,
Cambié el cálculo de error/éxito (Buy, Sell, DontBuySell) porque creo que "Don't trade" no es indefinido. Así que si el NN reconoce no comprar y no vender y esto es correcto en real debe ser recompensado en el bucle de retroalimentación.

Tal vez alguien ya tiene soluciones o puede ayudar con las siguientes preguntas:

No soy capaz de crear funciones que necesitan pesos de la capa completa: Softmax, Maxout, PRelu con alpha aprendido.
Tampoco soy capaz de hacer diferentes optimizaciones (AdaBound, AMSBound, Momentum).
Estoy pensando en un DNN-Builder-EA para hacer pruebas y encontrar la mejor topología de red.

1. ¿Cómo puedo encontrar la entrada/salida de neuronas y pesos por capa?

2. ¿Qué topología sugieres? He probado muchas variaciones:
A) Unas pocas capas de neuronas con recuento=19000 y luego recuento descendente en las siguientes capas *0.3
B) 1 Convolucional + 12 capas MLMH con cada 300 neuronas
C) 29 capas con cada 300 neuronas
D) 29 capas con cada 300 neuronas y Normalización entre cada capa.
Consigo previsiones a un máximo del 57%, pero creo que puede/debe ser mejor.
¿Debería haber capas con un número de neuronas ascendente y luego descendente de nuevo?

3. ¿Cómo puedo hacer un back test? Hay una condición para devolver falso cuando en la prueba modi - Traté de remarcarlo, pero sin éxito.
Hay muchas explicaciones en muy detalle, pero no entiendo algunas visión general.

4. ¿Qué capa después de que? ¿Dónde deberían estar las capas BatchNorm?

5. ¿Cuántas neuronas de salida tiene convolucional o todos los multi-cabeza como MLMH cuando layers=x, step=y, window_out=z? Tengo que calcular el recuento de la siguiente capa de neuronas. Quiero evitar capas demasiado grandes o cuellos de botella.

6. ¿Qué pasa con LSTM_OCL? ¿Es demasiado débil en relación a la atención/MH, MHML?

7. Quiero implementar eta para cada capa, pero no he tenido éxito (falta de conocimiento sobre clases - soy un buen codificador de 3ª generación).

8. ¿Qué debería modificarse para obtener una tasa de error < 0.1.? Tengo constante 0,6+.

9. ¿Qué pasa con las neuronas de sesgo en este diseños de capas existentes?

Estudié ya muchos sitios web durante semanas, pero no encontró respuestas a estas preguntas.
Pero estoy mirando adelante, para resolver esto, debido a la retroalimentación positiva de los demás, que ya había éxito.

Tal vez hay que viene parte 14 con soluciones para todas estas cuestiones?

Saludos
y muchas gracias de antemano
 

HI. Estoy recibiendo este error

CANDIDATE FUNCTION NOT VIABLE: NO KNOW CONVERSION FROM 'DOUBLE __ATTRIBUTE__((EXT_VECTOR_TYPE92000' TO 'HALF4' FOR 1ST ARGUMENT

2022.11.30 08:52:28.185 Fractal_OCL_AttentionMLMH_b (EURJPY,D1) Falló la creación del programa OpenCL. Código de error=5105

2022.11.30 08:52:28.194 Fractal_OCL_AttentionMLMH_b (EURJPY,D1) Error de la función feedForward: 4401
2022.11.30 08:52:28.199 Fractal_OCL_AttentionMLMH_b (EURJPY,D1) acceso apuntero no válido en 'NeuroNet.mqh' (2271,16)

cuando se utiliza EA desde el artículo parte 10 ejemplos

Por favor, cualquier conjetura?

Gracias

 
MrRogerioNeri puntero no válido en 'NeuroNet.mqh' (2271,16)

cuando se utiliza EA desde el artículo parte 10 ejemplos

Por favor, cualquier conjetura?

Gracias

Hola, ¿puede enviar el registro completo?

 

Hola. Gracias por la ayuda

Rogerio

Archivos adjuntos:
20221201.log  7978 kb
 
MrRogerioNeri #:

Hola. Gracias por la ayuda

Rogerio

Hola Rogerio

1. No se crea modelo.

CS      0       08:28:40.162    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) EURUSD_PERIOD_H1_ 20 Fractal_OCL_AttentionMLMH_d.nnw
CS      0       08:28:40.163    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) OnInit - 130 -> Error of read EURUSD_PERIOD_H1_ 20 Fractal_OCL_AttentionMLMH_d.nnw prev Net 5004

2. Tu GPU no soporta doble. Por favor, carga la última versión del artículo https://www.mql5.com/ru/articles/11804

CS      0       08:28:40.192    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) OpenCL: GPU device 'Intel HD Graphics 4400' selected
CS      0       08:28:43.149    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) 1:9:26: error: OpenCL extension 'cl_khr_fp64' is unsupported
CS      0       08:28:43.149    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) 1:55:16: error: no matching function for call to 'dot'
CS      0       08:28:43.149    Fractal_OCL_AttentionMLMH_d (EURUSD,H1) c:/j/workspace/llvm/llvm/tools/clang/lib/cclang\<stdin>:2199:61: note: candidate function not viable: no known conversion from 'double4' to 'float' for 1 st argument
Нейросети — это просто (Часть 34): Полностью параметризированная квантильная функция
Нейросети — это просто (Часть 34): Полностью параметризированная квантильная функция
  • www.mql5.com
Продолжаем изучение алгоритмов распределенного Q-обучения. В предыдущих статьях мы рассмотрели алгоритмы распределенного и квантильного Q-обучения. В первом мы учили вероятности заданных диапазонов значений. Во втором учили диапазоны с заданной вероятностью. И в первом, и во втором алгоритме мы использовали априорные знания одного распределения и учили другое. В данной статье мы рассмотрим алгоритм, позволяющей модели учить оба распределения.
 

Hola Dmitriy

Usted escribió: No creas modelo.

¿Pero cómo creo un modelo? Compilo todas las fuentes del programa y ejecuto el EA.

El EA crea un archivo en la carpeta 'files' con la extensión nnw. ¿Este archivo no es el modelo?

Gracias

 

Hola Maestro Dmitriy

Ahora ninguno de los .mqh compila

por ejemplo cuando intento compilar el vae.mqh obtengo este error

'MathRandomNormal' - identificador no declarado VAE.mqh 92 8

Intentaré volver a empezar desde el principio.

Una pregunta más: Cuando se pone una nueva versión de NeuroNet.mqh esta versión es totalmente compatible con los otros EA olders ?

Gracias

rogerio

PS: Incluso la eliminación de todos los archivos y directorios y empezar con una nueva copia de la PARTE 1 y 2 no puedo más compilar cualquier código.

Por ejemplo cuando intento compilar el código en fractal.mq5 obtengo este error:

cannot convert type'CArrayObj *' to reference of type 'const CArrayObj *' NeuroNet.mqh 437 29

Lo siento realmente quería entender sus artículos y código.

PD2: OK he quitado la palabra 'const' en 'feedForward', 'calcHiddenGradients' y 'sumDOW' y ahora puedo compilar el Fractal.mqh y Fractal2.mqh