Discussão do artigo "Redes neurais em trading: Segmentação periódica adaptativa (Criação de tokens)"

 

Novo artigo Redes neurais em trading: Segmentação periódica adaptativa (Criação de tokens) foi publicado:

Propomos que você embarque em uma jornada fascinante pelo mundo da análise adaptativa de séries temporais financeiras e descubra como transformar uma complexa análise espectral e uma convolução flexível em sinais reais de trading. Você verá como o LightGTS escuta o ritmo do mercado, ajustando-se às suas mudanças por meio de um passo de janela variável, e como a aceleração com OpenCL permite transformar cálculos no caminho mais curto para decisões lucrativas.

Na parte prática do artigo anterior, começamos a construir o algoritmo de patching periódico adaptativo, um dos elementos centrais da arquitetura LightGTS. Foram analisadas em detalhes as limitações relacionadas à impossibilidade de utilizar alocação dinâmica de memória no ambiente de execução característico do MQL5 e do OpenCL. Essas limitações nos obrigaram a abandonar a ideia de um número arbitrário de tokens na saída.

Em vez disso, adotamos uma decisão estrategicamente equilibrada: fixar a quantidade de patches e utilizar a sobreposição entre eles como instrumento para compensar a variação no comprimento de segmentos individuais. Assim, conseguimos encontrar um compromisso entre adaptabilidade, no qual o modelo permanece sensível à periodicidade real da série temporal, e estabilidade computacional, necessária para o uso eficiente dos recursos de hardware. Essa abordagem permitiu preservar tanto a precisão na representação das estruturas cíclicas dos dados analisados quanto a previsibilidade no gerenciamento de memória, algo crítico para modelos de trading de alta frequência e para implementação em ambientes com contexto de execução limitado.

O algoritmo de seleção da frequência dominante já foi implementado, e ele extrai de forma eficiente a periodicidade principal para cada sequência unitária da série temporal de entrada. Isso nos permitirá indicar a escala base para a segmentação posterior dos dados. Hoje continuaremos o trabalho iniciado e daremos o próximo passo, implementar o algoritmo de geração de tokens no lado do contexto OpenCL.

Nossa tarefa consiste em dividir cada sequência temporal em uma quantidade fixa de fragmentos, na qual o tamanho do segmento é definido de acordo com a frequência dominante identificada, enquanto a sobreposição regula a adaptação ao comprimento da janela. Tudo isso deve ser executado sob condições de paralelismo rigoroso, utilizando código compatível com GPU, no qual cada thread será responsável pela formação de um token em um dos componentes unitários da sequência analisada.


Autor: Dmitriy Gizlyk