Discusión sobre el artículo "Neuroredes profundas (Parte III). Selección de ejemplos y reducción de dimensiones"

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Neuroredes profundas (Parte III). Selección de ejemplos y reducción de dimensiones:
Este artículo continúa la serie de publicaciones sobre las neuroredes profundas. Vamos a analizar la selección de ejemplos (eliminación de ruidos), la reducción de los datos de entrada y la división del conjunto en train/val/test durante la preparación de los datos.
Recordemos que el autoencoder es una neurored con una o varias capas ocultas cuyo número de neuronas en la capa de entrada es igual al número de neuronas de la capa de salida. La principal tarea del АЕ es reproducir los datos de entrada con la mayor precisión posible. Para entrenar el АЕ se usan los mismos métodos de entrenamiento, regularización y activación de neuronas usados para las neuroredes normales. Es posible construir un modelo de АЕ usando cualquier paquete de construcción de NN que permita extraer la matriz de pesos de las capas ocultas. Vamos a utilizar el paquete autoencoder. Como ejemplo, recordaremos las posibles estructuras del АЕ:
Fig. 7. Esquema estructural de los autoencoders (de tres y cinco capas)
Autor: Vladimir Perervenko