Abordagem incrível - acabei de trabalhar em uma semelhante - para otimizar os pesos usando algoritmos genéricos incorporados ao Strategy Tester! Adorei!
Por que você também otimizaria o "bias"? Achei que fosse sempre "1,0" para evitar valores 0, ou?
Bom artigo, explica os conceitos básicos sobre redes neurais, e é importante que ele use o otimizador para treinamento.
Oi Li,
Atualizei o artigo com dois arquivos de demonstração. Um para MQL5 e outro para MQL4. O DeepNeuralNetwork.mqh pode ser usado para ambos, mql5 e mql4.
De qualquer forma, estou anexando esses arquivos aqui para mostrar como usá-los.
Se tiver mais perguntas, entre em contato comigo.
Obrigado pelos códigos que você compartilhou. Tentei entender o seu modo de fazer as coisas.
Tenho algumas dúvidas em relação a yValues[0] , yValues[1], yValues[2], pois eles NÃO estão mudando e sempre 0 ,33333 mas_xValues[1,2,3] estão mudando com a nova barra; portanto, se a negociação for baseada em yValues, não vejo NENHUMA NEGOCIAÇÃO, enquanto a NEGOCIAÇÃO OCORRE quando as condições são baseadas em _xValues.
A culpa é minha ou simplesmente um erro de codificação em seu código original?
Que bela maneira de usar o algoritmo genético dos testadores como estruturas existentes para treinamento.
Saudações e obrigado pelo bom artigo.
Treinei a rede neural para 2019 e, em seguida, tentei usar os melhores parâmetros/resultados (da otimização da estratégia, já que esse é o campo de treinamento) para 2020, mas não obtive bons resultados.
Minhas perguntas:
1) O que o treinamento faz?
2) Com que frequência ele deve ser feito?
3) É possível esperar que os melhores parâmetros de 2019 funcionem bem em 2020?
4) Se os melhores parâmetros de 2019 não derem bons resultados em 2020, então com que frequência o treinamento deve ser feito e quais são suas limitações?
5) Posso treinar todos os dias, todas as semanas? Posso treiná-lo por alguns dias, semanas ou meses?
Muito obrigado.
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Você concorda com a política do site e com os termos de uso
Novo artigo Construindo uma rede neural profunda do zero em linguagem MQL foi publicado:
Neste artigo, vou apresentar a vocês uma rede neural profunda implementada em linguagem MQL com suas diferentes funções de ativação, entre elas estão a função tangente hiperbólica para as camadas ocultas e a função Softmax para a camada de saída. Avançaremos do primeiro passo até o final para formar completamente a rede neural profunda.
Vamos começar com a unidade básica de toda rede neural, o neurônio. No artigo, consideraremos as várias partes do neurônio que usaremos em nossa rede neural profunda. Estritamente falando, a diferença entre o nosso tipo de neurônio e os outros reside na função de ativação.
O neurônio artificial, modelado a partir de um protótipo biológico, como o é um neurônio do cérebro humano, simplesmente realiza cálculos matemáticos. Como nossos neurônios, ele é acionado quando encontra estímulos suficientes. O neurônio combina os dados de entrada com um conjunto de coeficientes ou pesos que reforçam ou enfraquecem esses dados de entrada. Isto dá valor aos dados de entrada para a tarefa que o algoritmo está tentando aprender. A imagem abaixo mostra como funcionam as diferentes partes de um neurônio:
Autor: Anddy Cabrera