Nota, cuando se utiliza en Fractal_OCL_AttentionMLMH_d en lugar de Net.feedForward(TempData,12,true);
printf("error en Net feed forward. comprobar topología y datos de entrada");
generará un error. A diferencia de la versión Fractal_OCL_AttentionMLMH, donde no habrá tal error.
Por favor, compruebe la razón.
Nota cuando se utiliza en Fractal_OCL_AttentionMLMH_d en lugar de Net.feedForward(TempData,12,true);
printf("error en Net feed forward. comprobar topología y datos de entrada");
generará un error. A diferencia de la versión Fractal_OCL_AttentionMLMH, donde no habrá tal error.
Por favor, compruebe la razón.
Gracias, lo comprobaré.
Nota cuando se utiliza en Fractal_OCL_AttentionMLMH_d en lugar de Net.feedForward(TempData,12,true);
printf("error en Net feed forward. comprobar topología y datos de entrada");
generará un error. A diferencia de la versión Fractal_OCL_AttentionMLMH en la que no se producirá dicho error.
Por favor, compruebe la razón.
Pruebe esta variante, no tuve errores.
Muchas gracias por este artículo. Ya he adaptado mis robots a las nuevas funciones y funcionan de maravilla.
¿Supongo que nada funciona sin OCL? Que pena, no soy gamer y la tarjeta es old....
Dmitry, ¿puedes explicar un poco más sobre el parámetro de ventana en la creación de Neuronkey. ¿Estoy en lo cierto al entender que este es el número de neuronas secuencialmente (con un paso) que se toman para el cálculo de un paso? Para ahorrar potencia de cálculo? |
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Usted acepta la política del sitio web y las condiciones de uso
Artículo publicado Redes neuronales: así de sencillo (Parte 12): Dropout:
A la hora de proseguir el estudio de las redes neuronales, probablemente merezca la pena prestar un poco de atención a los métodos capaces de aumentar su convergencia durante el entrenamiento. Existen varios de estos métodos. En este artículo, proponemos al lector analizar uno de ellos: el Dropout (dilución).
Al entrenar una red neuronal, suministramos un gran número de características a la entrada de cada neurona, y resulta difícil valorar el impacto de cada una de ellas. Como resultado, los errores de algunas neuronas se suavizan con los valores correctos de otras y los errores se acumulan en la salida de la red neuronal. Como resultado, el entrenamiento se detiene en un cierto mínimo local con un error considerable. Este efecto se denominó adaptación conjunta de características, cuando la influencia de cada característica, por así decirlo, se ajusta al entorno. Sería mejor para nosotros lograr el efecto contrario, es decir, descomponer el entorno en características aparte y valorar la influencia de cada una por separado.
Para combatir la compleja adaptación conjunta de características, en julio de 2012, un grupo de científicos de la Universidad de Toronto propuso excluir aleatoriamente algunas de las neuronas en el proceso de aprendizaje[12]. La disminución en el número de características durante el entrenamiento aumentará la importancia de cada una, mientras que el cambio constante en la composición cuantitativa y cualitativa de las características reducirá el riesgo de su adaptación conjunta. Este método se llama Dropout o dilución. Algunas personas comparan la aplicación de este método con los árboles de decisión, porque, admitámoslo, excluyendo algunas de las neuronas, en cada iteración del entrenamiento obtenemos una nueva red neuronal con nuestros propios coeficientes de peso. Y, según, las reglas de la combinatoria, la variabilidad de tales redes resulta bastante alta.
Autor: Dmitriy Gizlyk