Discusión sobre el artículo "Neuroredes profundas (Parte III). Selección de ejemplos y reducción de dimensiones"

 

Artículo publicado Neuroredes profundas (Parte III). Selección de ejemplos y reducción de dimensiones:

Este artículo continúa la serie de publicaciones sobre las neuroredes profundas. Vamos a analizar la selección de ejemplos (eliminación de ruidos), la reducción de los datos de entrada y la división del conjunto en train/val/test durante la preparación de los datos.

Recordemos que el autoencoder es una neurored con una o varias capas ocultas cuyo número de neuronas en la capa de entrada es igual al número de neuronas de la capa de salida. La principal tarea del АЕ es reproducir los datos de entrada con la mayor precisión posible. Para entrenar el АЕ se usan los mismos métodos de entrenamiento, regularización y activación de neuronas usados para las neuroredes normales. Es posible construir un modelo de АЕ usando cualquier paquete de construcción de NN que permita extraer la matriz de pesos de las capas ocultas. Vamos a utilizar el paquete autoencoder. Como ejemplo, recordaremos las posibles estructuras del АЕ:

AE_1

Fig. 7. Esquema estructural de los autoencoders (de tres y cinco capas)

Autor: Vladimir Perervenko

Razón de la queja: