Discussão do artigo "Construindo uma rede neural profunda do zero em linguagem MQL"

 

Novo artigo Construindo uma rede neural profunda do zero em linguagem MQL foi publicado:

Neste artigo, vou apresentar a vocês uma rede neural profunda implementada em linguagem MQL com suas diferentes funções de ativação, entre elas estão a função tangente hiperbólica para as camadas ocultas e a função Softmax para a camada de saída. Avançaremos do primeiro passo até o final para formar completamente a rede neural profunda.

Vamos começar com a unidade básica de toda rede neural, o neurônio. No artigo, consideraremos as várias partes do neurônio que usaremos em nossa rede neural profunda. Estritamente falando, a diferença entre o nosso tipo de neurônio e os outros reside na função de ativação.

O neurônio artificial, modelado a partir de um protótipo biológico, como o é um neurônio do cérebro humano, simplesmente realiza cálculos matemáticos. Como nossos neurônios, ele é acionado quando encontra estímulos suficientes. O neurônio combina os dados de entrada com um conjunto de coeficientes ou pesos que reforçam ou enfraquecem esses dados de entrada. Isto dá valor aos dados de entrada para a tarefa que o algoritmo está tentando aprender. A imagem abaixo mostra como funcionam as diferentes partes de um neurônio:

artificialneuron

Autor: Anddy Cabrera

 

Abordagem incrível - acabei de trabalhar em uma semelhante - para otimizar os pesos usando algoritmos genéricos incorporados ao Strategy Tester! Adorei!

Por que você também otimizaria o "bias"? Achei que fosse sempre "1,0" para evitar valores 0, ou?

 
Artigo incrível, senhor
 

Bom artigo, explica os conceitos básicos sobre redes neurais, e é importante que ele use o otimizador para treinamento.

 
Ótimo artigo. Poderia compartilhar também o arquivo mq5?
 
Li Hua Liu #:
Ótimo artigo. Você poderia compartilhar o arquivo mq5 também?

Oi Li,

Atualizei o artigo com dois arquivos de demonstração. Um para MQL5 e outro para MQL4. O DeepNeuralNetwork.mqh pode ser usado para ambos, mql5 e mql4.


De qualquer forma, estou anexando esses arquivos aqui para mostrar como usá-los.


Se tiver mais perguntas, entre em contato comigo.

Arquivos anexados:
DemoEADNN.mq4  17 kb
DemoEADNN.mq5  8 kb
 
Anddy Cabrera #:

Oi Li,

Atualizei o artigo com dois arquivos de demonstração.

Adicionado ao artigo
 

Obrigado pelos códigos que você compartilhou. Tentei entender o seu modo de fazer as coisas.


Tenho algumas dúvidas em relação a yValues[0] , yValues[1], yValues[2], pois eles NÃO estão mudando e sempre 0 ,33333 mas_xValues[1,2,3] estão mudando com a nova barra; portanto, se a negociação for baseada em yValues, não vejo NENHUMA NEGOCIAÇÃO, enquanto a NEGOCIAÇÃO OCORRE quando as condições são baseadas em _xValues.

A culpa é minha ou simplesmente um erro de codificação em seu código original?

Arquivos anexados:
 
Obrigado por seu artigo e pelo código muito útil, irmão 😜.
 

Que bela maneira de usar o algoritmo genético dos testadores como estruturas existentes para treinamento.

 

Saudações e obrigado pelo bom artigo.

Treinei a rede neural para 2019 e, em seguida, tentei usar os melhores parâmetros/resultados (da otimização da estratégia, já que esse é o campo de treinamento) para 2020, mas não obtive bons resultados.

Minhas perguntas:

1) O que o treinamento faz?

2) Com que frequência ele deve ser feito?

3) É possível esperar que os melhores parâmetros de 2019 funcionem bem em 2020?

4) Se os melhores parâmetros de 2019 não derem bons resultados em 2020, então com que frequência o treinamento deve ser feito e quais são suas limitações?

5) Posso treinar todos os dias, todas as semanas? Posso treiná-lo por alguns dias, semanas ou meses?

Muito obrigado.