Discussão do artigo "Redes neurais de maneira fácil (Parte 40): Abordagens para usar Go-Explore em uma grande quantidade de dados"
Boa tarde a todos. Alguém já conseguiu treinar essa rede neural? Se sim, como foi feito?
Coletei dados da fase 1 para o mesmo período que o autor do artigo (4 meses). Obtive um arquivo bd de aproximadamente 1,2 GB (190.000 recursos). Em seguida, comecei a treinar a fase 2. A fase 2 tem um padrão de 100.000 iterações. Tentei executar a fase 2 várias vezes. Também tentei definir 1.000.000 e 10.000.000 de iterações. Com todas essas tentativas, o erro que a fase 2 mostra oscila entre 1,6 ... 1,8 e não diminui. Ou aumenta para 0,3 (com outros arquivos bd). Quando você executa a fase 3 (no testador), ela não confunde a negociação. Ele simplesmente abre uma operação e a mantém até o fim do tempo de teste. Tentei executar a fase 3 no testador no modo de otimização. Tentei fazer 200, 500, 1000 passagens. Isso não afeta nada. A única coisa é que o Expert Advisor abre uma operação um pouco mais cedo ou um pouco mais tarde e a mantém até o final do teste, o que, em casos raros, pode fazer com que ela feche com uma pequena vantagem. Mas ele não fecha a operação em si, mas o testador a fecha porque o tempo acabou. Também tentei alterar o parâmetro #define lr 3.0e-4f no arquivo NeuroNet.mqh para 1.0e-4f ou 2.0e-4f, mas isso também não funciona. O que estou fazendo de errado?
Alguém pode explicar como você o treina? Se possível, em detalhes.
Em que erro você passa para a fase 3?
Quantas iterações você faz com a fase 2?
O que você faz se o erro na fase 2 não diminuir?
Em que número de iterações você começa a mudar alguma coisa? O que exatamente você muda?
É normal que na fase 3 o EA apenas abra uma negociação e não tente negociar? Faz sentido treiná-lo com a fase 3 no modo de otimização?
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Você concorda com a política do site e com os termos de uso
Novo artigo Redes neurais de maneira fácil (Parte 40): Abordagens para usar Go-Explore em uma grande quantidade de dados foi publicado:
Neste artigo, discutiremos a aplicação do algoritmo Go-Explore ao longo de um período de treinamento prolongado, uma vez que uma estratégia de seleção aleatória de ações pode não levar a uma passagem lucrativa à medida que o tempo de treinamento aumenta.
Com o aumento do período de treinamento do algoritmo Go-Explore, surgem desafios específicos que podem dificultar sua utilização. Alguns deles incluem:
Problema da Maldição da Dimensionalidade: Com o aumento do período de treinamento, o número de estados que o agente pode visitar cresce exponencialmente, tornando a tarefa de encontrar uma estratégia ótima mais complexa.
Alteração no Ambiente: Com o aumento do período de treinamento, podem ocorrer mudanças no ambiente circundante que podem afetar os resultados do treinamento do agente. Isso pode fazer com que uma estratégia anteriormente bem-sucedida se torne ineficaz ou até impossível.
Complexidade na Escolha de Ações: À medida que o período de treinamento aumenta, o agente pode precisar considerar um contexto mais amplo da tarefa para tomar decisões fundamentadas. Isso pode complicar a tarefa de escolher a ação ótima e exigir métodos de otimização do algoritmo mais complexos.
Aumento do Tempo de Treinamento: Com o aumento do período de treinamento, o tempo necessário para coletar dados suficientes e treinar o modelo também aumenta. Isso pode reduzir a eficácia e a rapidez do treinamento do agente.
Com o aumento do período de treinamento, pode surgir o problema do aumento da dimensionalidade do espaço de estados a ser explorado. Isso pode levar ao problema da "maldição da dimensionalidade", onde o número de estados possíveis aumenta exponencialmente com o aumento da dimensionalidade. Isso torna a exploração do espaço de estados mais difícil e pode fazer com que o algoritmo gaste muito tempo explorando estados irrelevantes.
Para avaliar a qualidade e eficácia do modelo treinado, realizamos testes usando conjuntos de dados de treinamento e teste. É importante observar que nosso modelo conseguiu gerar lucro com dados históricos da primeira semana de maio de 2023, que não estavam incluídos no conjunto de treinamento, mas imediatamente o seguiram.
Autor: Dmitriy Gizlyk