Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Novo artigo Redes neurais em trading: Segmentação periódica adaptativa (LightGTS) foi publicado:
A particularidade das séries temporais está no seu ritmo. Diferentemente do texto, onde o token é uma palavra, aqui a escala e a periodicidade são fundamentais. Alguns dados chegam uma vez por hora, outros a cada 15 minutos. Alguns contêm sazonalidade diária ou semanal, outros trimestral ou anual. Tudo isso influencia o chamado período interno, um padrão recorrente nos dados que é crítico para uma previsão de qualidade. Além disso, ao mudar a escala, o comprimento do ciclo também muda, e se o modelo não souber lidar com isso, sua capacidade de generalização cai drasticamente.
O problema é que a maioria dos modelos existentes utiliza tokenização fixa. Eles simplesmente dividem os dados em partes de mesmo comprimento, sem considerar a escala e a estrutura dos períodos. Isso faz com que alguns tokens fiquem sobrecarregados de dados, enquanto outros fiquem quase vazios. A informação se dilui, os padrões recorrentes se rompem. Isso é especialmente perceptível quando um modelo treinado em uma escala é aplicado a outra: a precisão das previsões cai, torna-se necessário aumentar o número de parâmetros e, consequentemente, crescem o tempo e o custo de treinamento.
Os autores do trabalho "LightGTS: A Lightweight General Time Series Forecasting Model" decidiram não utilizar força bruta de maneira direta, mas aplicar uma abordagem mais inteligente, explorando propriedades naturais das séries temporais: invariância de escala e periodicidade. Como resultado, surgiu o framework LightGTS, leve, eficiente e precisamente ajustado para tarefas reais de previsão de séries temporais. Sua ideia central não é combater as diferentes escalas, mas adaptar-se a elas.
Em vez de uma segmentação rígida em fragmentos de mesmo tamanho, foi proposta a tokenização periódica. O modelo divide os dados de forma adaptativa em segmentos cujo comprimento corresponde a um ciclo completo. Isso permite capturar padrões íntegros independentemente da escala, seja em gráfico diário ou em gráfico de minutos. A semântica dentro do token permanece inalterada e, consequentemente, a representação das características torna-se estável e transferível entre diferentes tarefas.
Autor: Dmitriy Gizlyk