Discusión sobre el artículo "Redes neuronales: De la teoría a la práctica" - página 3

 

marketeer:

Yedelkin: Es decir, ¿para un neuroasesor completo (autoaprendizaje) es necesario incrustar el "algoritmo de optimización genética estándar" en el código del programa?

Por supuesto que no. Por eso es estándar, porque ya está integrado en el optimizador. Optimiza los pesos de la rejilla por sí mismo.
Entonces no lo entiendo. Si el "algoritmo estándar de optimización genética" está integrado en el optimizador, ¿cómo puede un asesor neuronal de autoaprendizaje utilizar este algoritmo "externo" con fines de autoaprendizaje?
 
Yedelkin:
Entonces no lo entiendo. Si el "algoritmo interno de optimización genética" se inserta en el optimizador, ¿cómo puede un neuro-asesor autodidacta utilizar este algoritmo "externo" con fines de autoaprendizaje?
La dirección de la interacción es la opuesta. Por analogía con un Asesor Experto ordinario - hay un optimizador que tira de la "caja negra" del EA (cualquier EA) por los parámetros de entrada. Si hay una red neuronal en el Asesor Experto, no deja de ser una "caja negra". Sólo los parámetros optimizados son un montón de pesos de la red.
 
Yedelkin:
Entonces no lo entiendo. Si el "algoritmo genético interno de optimización" se inserta en el optimizador, ¿cómo puede una red neuronal de autoaprendizaje utilizar este algoritmo "externo" con fines de autoaprendizaje?

Una red neuronal es, simplificando, una función de la forma f[x1,x2,...,xn][w1,w2,...,wn], donde x es la información de entrada (cambia y depende de la situación del mercado) y w son los pesos de la red, coeficientes fijos (en el contexto de este artículo parámetros de entrada) que se seleccionan mediante optimización en el probador.

Por lo tanto, si es necesario entrenar la red en modo online, no será posible utilizar el optimizador estándar y será necesario utilizar algún algoritmo de optimización (debería estar incorporado en el Asesor Experto).

 
marketeer:
La dirección de la interacción es la opuesta. Por analogía con un Asesor Experto ordinario - hay un optimizador que tira de los parámetros de entrada de la "caja negra" del Asesor Experto (cualquiera). Si hay una red neuronal en el Asesor Experto, no deja de ser una "caja negra". Sólo los parámetros optimizados son un montón de pesos de la red.
Si este es el caso, entonces no se puede hablar de auto-entrenamiento de los neuro-asesores. Y el entrenamiento se llama ajuste ordinario de los parámetros.
 
joo Por lo tanto, si necesita entrenar la red en línea, no podrá utilizar el optimizador estándar y tendrá que utilizar algún algoritmo de optimización (que se incorporará al Asesor Experto).
Sí, este es el punto que quería aclarar. Resulta que sólo en este caso un neuro-asesor puede realmente ser llamado uno de auto-aprendizaje.
 
yu-sha: http://lancet.mit.edu/ga/ - Instituto Tecnológico de Massachusetts
Gracias a todos. Tengo una idea aproximada de la dirección.
 


yu-sha: http://lancet.mit.edu/ga/ - Massachusetts Institute of Technology

Yedelkin:

¡Gracias a todos! Entiendo la dirección a grandes rasgos.
Todas las herramientas necesarias para MQL5 ya están disponibles aquí, en el foro nativo.
 
joo: Todas las herramientas necesarias para MQL5 ya están disponibles aquí, en el foro nativo.
Eso es seguro :) Sólo necesitaba entender el truco básico.
 
Yedelkin:
Si es así, entonces no existe el autoentrenamiento de los neuroasesores. Y el entrenamiento se llama ajuste ordinario de parámetros.
¿Cree ingenuamente que el autoentrenamiento es un ajuste ordinario?
 

Reshetov:
А Вы наивно полагаете, что самообучение - это необычная подгонка?

Aprendizaje en red = adaptación

Autoaprendizaje = autoajuste