Discussão do artigo "Rede neural na prática: Uma questão de escala"

 

Novo artigo Rede neural na prática: Uma questão de escala foi publicado:

Existe uma falsa sensação por parte do grande público, de que uma rede neural, ou inteligência artificial, consegue de alguma forma compreender o mundo em que vivemos. Isto em alguns casos pode até ser verdade. Mas você, que deseja fazer com que uma rede neural, ou mesmo um neurônio, possa conseguir convergir mais rápido. Precisa entender que a escala usada nos valores, em muitas das vezes acaba influenciando a velocidade de convergência. Além disto, neste artigo, irei mostrar algo bizarro que acontece em redes neurais. Algo que vai te levar a loucura, e a se questionar sobre o tema.

Durante este artigo, não daremos tanta atenção ao código, assim como também não iremos mais falar ou mencionar o mínimo quadrado. Salvo em situações bem específicas. Mesmo que ele ainda permaneça presente no código da classe C_Neuron. Ele estará ali, apenas por que será necessário explicar, outra coisa que ainda não abordamos e que faz uso justamente, da função de custo de mínimo quadrado. Com isto o foco principal de agora em diante, de fato será o uso do gradiente. De qualquer forma, não quero que você se apegue em demasia a nenhuma parte do código. Quero que você procure entender, porque usar uma coisa ou outra, e quando usar.

E o motivo é bem simples, não existe uma única e totalmente perfeita forma de se fazer as coisas quando o assunto são redes perceptrons. Existe a forma que funciona e a forma que não funciona. E em muitos casos, a forma que funciona, pode ser um tanto custosa em termos de custo computacional, precisando assim ser adaptada de alguma maneira para um modelo mais adequado, onde você precisa saber como adaptar o código. Conforme formos adicionando cada vez mais e mais entradas ao perceptron, e aumentando o número deles, este tipo de coisa da qual acabei de mencionar começará a fazer cada vez mais sentido, e você entenderá melhor este tipo de coisa, na prática.



Autor: Daniel Jose