Discusión sobre el artículo "Neuroredes profundas (Parte IV). Creación, entrenamiento y simulación de un modelo de neurored"
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Neuroredes profundas (Parte IV). Creación, entrenamiento y simulación de un modelo de neurored:
En el artículo se analizan las nuevas posibilidades del paquete darch (v.0.12.0). Se describen los resultados del entrenamiento de una red neuronal profunda con diferentes tipos de datos, estructura y secuencia de entrenamiento. También se analizan los resultados.
Hay dos métodos de entrenamiento de SRBM: el entrenamiento de RBM uno a uno en rbm.numEpochs o el entrenamiento por turnos de cada RBM una época cada vez. La posibilidad de elegir uno de estos métodos se regula con la ayuda del parámetro rbm.consecutive: TRUE o default indicará el primer método, FALSE, el segundo. En la fig.5 se muestra el esquema de entrenamiento en las dos variantes. Con la ayuda del parámetro rbm.lastLayer podemos indicar en qué capa de SRBM hay que establecer el re-entrenamiento. Con 0 — entrenamos todas las capas, con (-1) — no entrenamos la capa superior. Esto tiene sentido, ya que la capa superior de una neurored se debe entrenar por separado y de forma más prolongada. El resto de los parámetros son comprensibles y no necesitan de aclaraciones adicionales.
Fig.5. Dos métodos de entrenamiento de SRBM
Autor: Vladimir Perervenko