Discussão do artigo "Rede neural na prática: Grafico da Rectifier"

 

Novo artigo Rede neural na prática: Grafico da Rectifier foi publicado:

Construímos, em MQL5 puro, um indicador para plotar no gráfico uma função de ativação e sua derivada, tomando a ReLU como exemplo. Explicamos o impacto das derivadas na escolha da ativação e os cuidados com pontos não diferenciáveis. O leitor visualiza as curvas de forma interativa e obtém uma base prática para decidir quando usar ou não determinadas ativações.

No artigo anterior Rede neural na prática: Surgimento de C_Neuron, começamos a fazer as coisas de uma forma um tanto quanto mais organizadas. Visto que começamos a construir uma classe, cujo objetivo é conter tudo que será preciso colocar dentro de um neurônio. Isto para que no futuro, possamos ligar diversos neurônios em uma arquitetura. Cujo intuito será de fato construir uma pequena rede neural simples. Nada do estilo ChatGPT ou coisa do gênero. O objetivo aqui, é apresentar e mostrar para entusiastas de redes neurais. Como elas funcionam por debaixo dos panos. Sem usar nenhum artifício extra. Programando as coisas nos mesmos.

Pois bem, nosso primeiro neurônio básico, já consegue fazer algumas coisas. Visto que ele consegue convergir em muitas das situações simples nas quais podemos experimentar ele. Como ele já nos permite mudar de forma extremamente simples e rápida, a quantidade de entradas. Isto o torna bem mais interessante, para que pensemos em diversas possíveis aplicações para ele. No entanto, ele ainda se encontra em sua fase mais inicial. Não tendo em seu modelo, nenhum tipo de função de ativação, e tão pouco um formato que nos permita colocar os neurônios em cascata. Formando assim uma fila de neurônios, e por consequência uma pequena rede neural.

O que irei explicar neste artigo, e muito provavelmente serão necessários outros. É justamente o que acontece dentro da função de ativação. Isto de maneira que você, meu caro leitor, consiga compreender. Quando, por que e como usar e selecionar a função de ativação mais adequada. Pois cada caso é um caso. Não existe uma receita de bolo. Algo que você deverá sempre fazer, ou sempre utilizar. Mas para conseguir fazer as melhores escolhas, é preciso que você compreenda como cada uma das funções de ativação funcionam. E qual o impacto dela em toda a rede neural. Isto de uma forma geral.

Autor: Daniel Jose