Discussão do artigo "Perceptron Multicamadas e o Algoritmo Backpropagation"

 

Novo artigo Perceptron Multicamadas e o Algoritmo Backpropagation foi publicado:

Recentemente, ao aumentar a popularidade desses métodos, tantas bibliotecas foram desenvolvidas em Matlab, R, Python, C++, e etc, que recebem o conjunto de treinamento como entrada e constroem automaticamente uma Rede Neural apropriada para o suposto problema. Vamos entender como funciona um tipo básico de Rede Neural, (Perceptron de um único neurônio e Perceptron Multicamadas), e um fascinante algoritmo responsável pelo aprendizado da rede, (Gradiente descendente e o Backpropagation). Tais modelos de rede serviram de base para os modelos mais complexos existentes hoje.

Descida de gradiente é o processo de minimizar uma função seguindo os gradientes da função de custo.

Isso envolve conhecer a forma do custo, bem como o derivado para que a partir de um determinado ponto você conheça o gradiente e possa se mover nessa direção, por exemplo, ladeira abaixo em direção ao valor mínimo.


No aprendizado de máquina, podemos usar uma técnica que avalia e atualiza os pesos de cada iteração chamada descida de gradiente estocástico para minimizar o erro de um modelo em nossos dados de treinamento.

A maneira como este algoritmo de otimização funciona é que cada instância de treinamento é mostrada ao modelo um de cada vez. O modelo faz uma previsão para uma instância de treinamento, o erro é calculado e o modelo é atualizado a fim de reduzir o erro para a próxima previsão.

Este procedimento pode ser usado para encontrar o conjunto de pesos em um modelo que resulte no menor erro para o modelo nos dados de treinamento.

Autor: Jonathan Pereira

 
Olá meu amigo.
Primeiramente... Muito obrigado! Excelente artigo.
Acredito que ficou faltando o arquivo: Util.mqh.
Provavelmente ele tem a função Random.
Poderia incluir ele? Ou descrever a função random que está dentro dele.
Muito obrigado novamente. Estou estudando seu artigo com muito carinho.
Razão: