Discussão do artigo "Técnicas do MQL5 Wizard que você deve conhecer (Parte 32): Regularização"

 

Novo artigo Técnicas do MQL5 Wizard que você deve conhecer (Parte 32): Regularização foi publicado:

A regularização é uma forma de penalizar a função de perda em proporção ao peso discreto aplicado ao longo das várias camadas de uma rede neural. Vamos observar a importância de algumas formas de regularização e o impacto que isso pode ter em testes realizados com um Expert Advisor montado por um assistente.

Regularização é outra faceta dos algoritmos de aprendizado de máquina que traz sensibilidade ao desempenho das redes neurais. No processo de uma rede, frequentemente há uma tendência de atribuir peso excessivo a alguns parâmetros em detrimento de outros. Esse ‘viés’ em direção a parâmetros específicos (pesos da rede) pode prejudicar o desempenho da rede quando os testes são realizados com dados fora da amostra. Foi por isso que a regularização foi desenvolvida. 

Ela essencialmente atua como um mecanismo que desacelera o processo de convergência, aumentando (ou penalizando) o resultado da função de perda em proporção à magnitude dos pesos usados em cada junção de camada. Isso é frequentemente feito por meio de: Early-Stopping, LassoRidge, Elastic-Net ou Drop-Out. Cada um desses formatos é um pouco diferente, e não vamos considerar todos os tipos, mas vamos nos concentrar no Lasso, Ridge e Drop-Out.

Regularization

Autor: Stephen Njuki