Discussão do artigo "Rede neural na prática: Funções de ativação"

 

Novo artigo Rede neural na prática: Funções de ativação foi publicado:

Este com toda a certeza, foi o artigo do qual mais me agradou ter escrito até o momento sobre este tema. Visto que nele de fato mostrei que não precisamos de grandes coisas, ou de algo específico para atingir um dado objetivo. Este pode ser alcançado de maneiras diferentes, desde é claro você tenha o conhecimento adequado e a boa vontade de estudar e se dedicar a algo. Agradeço de coração a todos que me ajudaram na parte sobre quais funções escolher. O conteúdo exposto aqui, visa e tem como objetivo, pura e simplesmente a didática. De modo algum deve ser encarado como sendo, uma aplicação cuja finalidade não venha a ser o aprendizado e estudo dos conceitos mostrados.

No artigo anterior Rede neural na prática: Grafico da Rectifier, foi desenvolvido uma aplicação da qual poderíamos visualizar o gráfico da função de ativação, juntamente com a sua respectiva derivada. Contudo, aquilo que foi mostrado ali é apenas e somente uma base para algo um pouco mais elaborado, e que será o foco principal deste artigo.

Sei que muitos podem achar desnecessário compreender o gráfico de uma função de ativação e também a sua derivada. E que poderíamos partir logo para algo mais aprofundado, deixando este tipo de coisa de lado. Contudo, é muito mais simples entender por que a função sigmoide não pode ser utilizada em redes muito profundas, se você conseguir entender o gráfico da mesma.


Então aqui o foco será justamente este. Iremos selecionar algumas das funções de ativação, e ver como poderíamos modificar o código visto no artigo anterior para conseguir visualizar graficamente tanto a função de ativação como também a sua derivada.


Autor: Daniel Jose