Discusión sobre el artículo "Características del Wizard MQL5 que debe conocer (Parte 10). El RBM no convencional"

 

Artículo publicado Características del Wizard MQL5 que debe conocer (Parte 10). El RBM no convencional:

Las máquinas de Boltzmann restringidas (RBM, Restrictive Boltzmann Machines) son, en el nivel básico, una red neuronal de dos capas que es competente en la clasificación no supervisada a través de la reducción de la dimensionalidad. Tomamos sus principios básicos y examinamos si lo rediseñamos y entrenamos de forma poco ortodoxa, podríamos obtener un filtro de señal útil.

Las máquinas de Boltzmann restringidas (RBMs) son una forma de red neuronal que tienen una estructura bastante simple, pero que, no obstante, son veneradas en ciertos círculos por lo que pueden lograr en cuanto a revelar propiedades y características ocultas en conjuntos de datos. Esto se consigue aprendiendo los pesos en una dimensión más pequeña a partir de unos datos de entrada de mayor dimensión, y estos pesos suelen denominarse distribuciones de probabilidad. Como siempre se puede leer más aquí, pero por lo general su estructura se puede ilustrar con la siguiente imagen:

Típicamente las RBM constan de 2 capas, (digo típicamente porque hay algunas redes que las apilan en transformadores), una capa visible y una capa oculta, siendo la capa visible más grande (con más neuronas) que la oculta. Cada neurona de la capa visible se conecta a cada neurona de la capa oculta durante lo que se denomina la fase positiva, de modo que durante esta fase, como es habitual en la mayoría de las redes neuronales, los valores de entrada en la capa visible se multiplican por los valores de peso en las neuronas de conexión y la suma de estos productos se añade a un sesgo para determinar los valores en las respectivas neuronas ocultas. La fase negativa, que es la inversa, es la que sigue y, a través de diferentes conexiones neuronales, pretende restaurar los datos de entrada a su estado original a partir de los valores calculados en la capa oculta. 

Por lo tanto, con los primeros ciclos, como era de esperar, los datos de entrada reconstruidos no coinciden con los de entrada iniciales, ya que a menudo el RBM se inicializa con pesos aleatorios. Esto implica que los pesos deben ajustarse para que la salida reconstruida se acerque más a los datos de entrada y ésta es la fase adicional que seguiría a cada ciclo. El resultado final y el objetivo de este ciclo de fase positiva seguida de una fase negativa y de ajuste de los pesos es llegar a conectar los pesos de las neuronas que, cuando se aplican a los datos de entrada, pueden darnos valores "intuitivos" de las neuronas en la capa oculta. Estos valores neuronales en la capa oculta son lo que se denomina la distribución de probabilidad de los datos de entrada a través de las neuronas ocultas. 

Autor: Stephen Njuki

Características del Wizard MQL5 que debe conocer (Parte 10). El RBM no convencional
Características del Wizard MQL5 que debe conocer (Parte 10). El RBM no convencional
  • www.mql5.com
Las máquinas de Boltzmann restringidas (RBM, Restrictive Boltzmann Machines) son, en el nivel básico, una red neuronal de dos capas que es competente en la clasificación no supervisada a través de la reducción de la dimensionalidad. Tomamos sus principios básicos y examinamos si lo rediseñamos y entrenamos de forma poco ortodoxa, podríamos obtener un filtro de señal útil.