Discussão do artigo "Construindo uma rede neural profunda do zero em linguagem MQL" - página 2
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Oi Li,
Atualizei o artigo com dois arquivos de demonstração. Um para MQL5 e outro para MQL4. O DeepNeuralNetwork.mqh pode ser usado para ambos, mql5 e mql4.
De qualquer forma, estou anexando esses arquivos aqui para mostrar como usá-los.
Se tiver mais perguntas, entre em contato comigo.
Obrigado pelos códigos que você compartilhou. Tentei entender a maneira como você os usa.
Tenho algumas dúvidas em relação a yValues[0] , yValues[1], yValues[2], pois eles NÃO estão mudando e sempre 0 ,33333 mas_xValues[1,2,3] estão mudando com a nova barra; portanto, se a negociação for baseada em yValues, não vejo NENHUMA NEGOCIAÇÃO, enquanto a NEGOCIAÇÃO OCORRE quando as condições são baseadas em _xValues.
A culpa é minha ou simplesmente um erro de codificação em seu código original?
Atualize a função a seguir para retornar `bool` em vez de `void` e você verá que houve um número incorreto de pesos fornecidos.
Observe que você também precisa atualizar os pesos no topo do arquivo (não é suficiente atualizá-los somente quando você inicializa a rede :P
Muito obrigado
Bela animação.
Uma rede neural de duas camadas é uma rede neural "superficial", não uma rede neural profunda. As redes neurais profundas incluem redes com mais de três camadas ocultas. Devido às peculiaridades do treinamento dessas redes neurais, foram desenvolvidos métodos de aprendizagem profunda.
O artigo, como um exemplo de programação em MCL, provavelmente é útil. Para se familiarizar com o tópico de MLP - certamente necessário. Como exemplo de aplicação de rede neural - não é completo e está muito aquém do estado atual do tópico.
Em geral, sem a otimização dos hiperparâmetros, a rede neural não oferece qualidade satisfatória.
Eu simplesmente não entendo por que construir uma bicicleta com meios improvisados, se há um mar de programas prontos sobre esse tópico?
Correção. Há uma definição de rede profunda no artigo. Eu não a vi.
O processo de otimização dos pesos de uma rede neural usando genética não é literalmente "aprendizado". Afinal, trata-se de otimização. O treinamento usa métodos completamente diferentes. Embora essa variante do uso de redes neurais também seja praticada e com bastante sucesso.
Para compreender o funcionamento de uma rede neural, é importante entender como ela é treinada por meio da retropropagação de erros. Bem, já estou implicando com você :)
Boa sorte
Existe alguma maneira de incorporar a retropropagação de erros nessa rede?
Por alguma razão, há uma opinião de que essa rede seria mais flexível e forneceria entradas melhores - outputs....
Uma rede com retropropagação de erros não é uma rede completamente diferente, é?