Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Novo artigo Rede neural na prática: Perceptron foi publicado:
Este artigo apresenta o perceptron como base de uma rede neural e detalha sua implementação em MQL5. Explicamos funções de ativação e suas derivadas, a distinção entre forward e backpropagation e o uso de custo por mínimo quadrado e por gradiente. Você aprenderá a treinar pesos e viés, validar com scripts de teste e ajustar a taxa de aprendizagem para obter convergência estável.
Apesar de não ser uma das tarefas mais simples, dividir este conteúdo em partes. Já que o tema, é de fato um conteúdo no qual você precisa ver, e ser apresentado a uma série enorme de coisas e conceitos. Sendo muitos deles completamente abstratos, enquanto outros são um tanto quanto complicados, por serem termos iguais, mas utilizados em contextos diferentes. Tenho tentando deixar o material o mais fácil possível de ser compreendido.
Entre estas coisas está o uso dos termos BACK PROPAGATION e a FORWARD PROPAGATION. Que normalmente são usados de forma indiscriminada sem serem devidamente explicados. Para entender de forma correta tudo que está sendo feito dentro do código de uma rede perceptron, precisamos entender como as coisas foram surgindo.
Não entraremos em certos detalhes neste momento. Contudo, precisamos entender como o termo rede neural surgiu. E para isto precisamos entender a base por trás da mesma, sendo esta base conhecida como perceptron. Sendo este o tema principal deste artigo.
Autor: Daniel Jose