Discussão do artigo "Construindo uma rede neural profunda do zero em linguagem MQL" - página 6

 
Nikolai Kalinin #:

Você conseguiu resolver o problema com entradas escalonadas mais de 4x?

Sim, comecei a investigar e cheguei ao fundo da questão. Não apenas aumentei as entradas, mas também a arquitetura: adicionei camadas, adicionei neurônios, adicionei RNN - lembrando o estado anterior e alimentando-o nas entradas, tentei alterar a função de ativação para as mais famosas, tentei todos os tipos de entradas do tópico "O que alimentar a entrada da rede neural" - sem sucesso.

Para meu grande pesar. Mas isso não me impede de voltar de tempos em tempos e distorcer redes neurais simples, inclusive a deste autor.

Tentei LSTM, BiLSTM, CNN, CNN-BiLSTM, CNN-BiLSTM-MLP, - sem sucesso.

Eu mesmo estou surpreso. Ou seja, todos os sucessos são descritos por uma observação: é um período de programação de sorte. Por exemplo, 2022 para o eurodólar é quase exatamente igual a 2021. E, treinando em 2021, você terá um avanço positivo em 2022 até novembro (ou outubro, não me lembro). Mas, assim que você treinar em 2020, qualquer rede neural(!), em 2021 ela falhará completamente. Logo no primeiro mês! E se você mudar para outros pares de moedas (geralmente eurodólares), ele também se comporta de forma aleatória.

Mas precisamos de um sistema que garanta sinais de vida no futuro após o treinamento, certo? Se começarmos com esse pensamento, ele será infrutífero. Se alguém acredita que é uma pessoa de sorte e que, após o treinamento de hoje, terá um forward lucrativo para o próximo ano ou seis meses, então boa sorte para ele).

 
Ivan Butko #:


Mas precisamos de um sistema que garanta sinais de vida no atacante após o treinamento, certo? Se partirmos desse pensamento, ele será infrutífero. Se alguém acredita que é uma pessoa de sorte e que, após o treinamento de hoje, terá um atacante lucrativo para o próximo ano ou seis meses, então boa sorte para ele).

Então, podemos supor que os parâmetros "graal" necessários do NS foram perdidos no processo de busca ou até mesmo inicialmente insignificantes e não levados em conta pelo testador? Talvez o sistema careça de fatores de eventualidade que não sejam apenas padrões-proporções.

 
Nikolai Kalinin #:

Então podemos supor que os parâmetros necessários do "graal" NS foram perdidos no processo de busca ou até mesmo inicialmente insignificantes e não contabilizados pelo testador? Talvez o sistema careça de fatores de eventualidade que não sejam apenas padrões-proporções.

É claro que, às vezes, os conjuntos "graal" escapam durante a otimização, e é quase impossível encontrá-los (linha 150 de algum tipo durante a classificação) até que você verifique tudo. Às vezes, há dezenas de milhares deles.

Não entendi a segunda parte de sua postagem.

 
Ivan Butko #:

É claro que, às vezes, os conjuntos "grail" escapam durante a otimização, é quase impossível encontrá-los (linha 150 de algum tipo durante a classificação) até que você verifique tudo. Às vezes, há dezenas de milhares deles.

Não entendi a segunda parte de sua postagem.

Trata-se da entrada de tais dados, que são obtidos no momento de um determinado evento, por exemplo, High[0]> High[1] no momento. Se o mercado for considerado nesse contexto, ele é inteiramente um modelo orientado por eventos e correlacionado a isso. E o controle dos elementos do caos já está nos métodos de ajuste fino e otimização fora da "memória" do NS. Ele é bem representado por um indicador integral de como essas adições de eventos ao código funcionam. Esse indicador (critério integrado) melhora e se desloca em direção às passagens do otimizador mais rentáveis.

 
Era exatamente o que eu estava procurando! Ótimo artigo!