Problemas em potencial: Treinamento limitado: O parâmetro MaxEpochs está definido como 1, o que limita o número de iterações de treinamento da rede em cada tick. Pode valer a pena aumentar esse valor para uma melhor otimização. Riscos com spread alto: A função que abre as negociações as bloqueia se o spread for muito alto, mas não há lógica para tentar novamente se o spread se normalizar. Normalização de volume mínimo na função de normalização de entrada: Ao normalizar o volume das velas, as entradas são divididas por seus valores com a adição de uma pequena constante (EPSILON), o que pode levar a uma normalização ineficaz ao trabalhar com volumes baixos. Modelos de penalidade: Se o lucro diário estiver abaixo do valor-alvo, uma penalidade é ativada, o que reduz a taxa de aprendizado. Entretanto, não há uma lógica detalhada que explique como isso afeta o desempenho do EA a longo prazo. Recomendações: Considere a possibilidade de melhorar o processo de treinamento da rede neural aumentando o número de épocas. Adicionar novas tentativas para abrir uma negociação quando o spread estiver normalizado. Refletir com mais cuidado sobre o mecanismo de penalidade para evitar a redução excessiva da taxa de aprendizado.
IGOR IAREMA # :
Possíveis problemas: Treinamento limitado: O parâmetro MaxEpochs é igual a 1, o que limita o número de iterações do treinamento da rede em cada tick. Pode valer a pena aumentar esse valor para uma melhor otimização. Riscos com spreads altos: A função que abre as negociações as bloqueia se o spread for muito alto, mas não há lógica para tentar novamente se o spread se normalizar. Normalização mínima de volume na função de normalização de dados de entrada: Ao normalizar o volume das velas, as entradas são divididas por seus valores com a adição de uma pequena constante (EPSILON), o que pode levar a uma normalização ineficaz ao trabalhar com volumes baixos. Modelos de penalidade: Se o lucro diário estiver abaixo do valor-alvo, é ativada uma penalidade que reduz a taxa de aprendizado. No entanto, não há uma lógica detalhada que explique como isso afeta o desempenho do consultor a longo prazo. Recomendações: Considere melhorar o processo de treinamento da rede neural aumentando o número de épocas. Adicionar tentativas repetidas de abrir uma negociação quando o spread for normalizado. Considerar com mais cuidado o mecanismo de penalidade para evitar a redução excessiva da taxa de aprendizado.
Possíveis problemas: Treinamento limitado: O parâmetro MaxEpochs é igual a 1, o que limita o número de iterações do treinamento da rede em cada tick. Pode valer a pena aumentar esse valor para uma melhor otimização. Riscos com spreads altos: A função que abre as negociações as bloqueia se o spread for muito alto, mas não há lógica para tentar novamente se o spread se normalizar. Normalização mínima de volume na função de normalização de dados de entrada: Ao normalizar o volume das velas, as entradas são divididas por seus valores com a adição de uma pequena constante (EPSILON), o que pode levar a uma normalização ineficaz ao trabalhar com volumes baixos. Modelos de penalidade: Se o lucro diário estiver abaixo do valor-alvo, é ativada uma penalidade que reduz a taxa de aprendizado. No entanto, não há uma lógica detalhada que explique como isso afeta o desempenho do consultor a longo prazo. Recomendações: Considere melhorar o processo de treinamento da rede neural aumentando o número de épocas. Adicionar tentativas repetidas de abrir uma negociação quando o spread for normalizado. Considerar com mais cuidado o mecanismo de penalidade para evitar a redução excessiva da taxa de aprendizado.
Olá IGOR IAREMA ,
Obrigado por seu feedback detalhado e pelas percepções sobre os possíveis problemas. Analisamos cuidadosamente seus pontos:
- Treinamento limitado: Planejamos aumentar o parâmetro MaxEpochs para permitir uma melhor otimização.
- Riscos com spreads altos: Implementaremos uma lógica para tentar novamente as negociações quando o spread se normalizar.
- Normalização do volume mínimo: Estamos otimizando a função de normalização para volumes baixos a fim de obter resultados mais eficazes.
- Modelos de penalidade: A lógica que controla a taxa de aprendizado será refinada para garantir melhorias de desempenho a longo prazo.
Uma atualização abrangente que aborda essas melhorias já está em andamento. Está demorando um pouco mais porque as alterações são bastante complexas, mas estamos confiantes de que a espera valerá a pena. Obrigado por sua paciência e compreensão!
Com os melhores cumprimentos,
SM.S
Depois de fazer o download do neurobook e dos códigos-fonte, gostaria de saber se existe uma versão totalmente em Python? A versão fornecida apresenta um problema, especialmente se as execuções do openCl não puderem ser feitas na máquina. No momento, estou tentando fazer uma conversão, mas ela é um pouco titânica!
Com os melhores cumprimentos a quem já tiver realizado esse trabalho ou souber onde encontrar os códigos-fonte de uma versão em Python.
Com os melhores cumprimentos a quem já tiver realizado esse trabalho ou souber onde encontrar os códigos-fonte de uma versão em Python.
Toda vez que recebo isso no arquivo de registro: Nenhum parâmetro de rede neural salvo foi encontrado. Qual pode ser a razão para isso?
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Neurotest:
é um texto para a rede neutra que gostaria de saber sua opinião.
Author: Mustafa Seyyid Sahin