Discussão do artigo "Redes neurais em trading: Transformer contrativo de padrões (Conclusão)"

 

Novo artigo Redes neurais em trading: Transformer contrativo de padrões (Conclusão) foi publicado:

No último artigo da série, analisamos o framework Atom-Motif Contrastive Transformer (AMCT), que utiliza aprendizado contrastivo para identificar padrões-chave em todos os níveis, desde os elementos básicos até estruturas complexas. Neste artigo, continuamos a implementar as abordagens do AMCT com recursos do MQL5.

Como de costume, o treinamento do modelo é feito offline com uma amostra de treinamento previamente coletada a partir das execuções ao longo de todo o ano de 2023. O treinamento é realizado de forma iterativa. E, após algumas iterações, realizamos a atualização da amostra de treinamento. Isso nos permite alcançar uma avaliação tão precisa quanto possível das ações do Agente conforme a política atual.

Durante o treinamento, conseguimos obter um modelo capaz de gerar lucro tanto no conjunto de treino quanto no conjunto de teste. Mas há um detalhe: o modelo que obtivemos realiza pouquíssimas operações. Inclusive, estendemos o período de teste para 3 meses. Os resultados do teste são apresentados a seguir.

Como se pode observar nos dados apresentados, ao longo dos três meses do período de teste, o modelo realizou apenas 21 operações, e pouco mais da metade delas foi encerrada com lucro. Mas, vamos olhar para o gráfico de saldo. Nos primeiros um mês e meio, observamos um crescimento no saldo, seguido por um movimento lateral. Na verdade, esse comportamento é bastante esperado. Nosso modelo apenas coleta estatísticas a partir dos estados de mercado do conjunto de treino. E, como em qualquer modelo estatístico, a amostra de treinamento precisa ser representativa. E pelo gráfico de saldo, concluímos que uma amostra de 1 ano é representativa por um período de aproximadamente 1,2 a 1,5 meses.


Autor: Dmitriy Gizlyk