Discussão do artigo "Criação de Previsões de Séries Temporais Usando Redes Neurais LSTM: Normalizando Preço e Tokenizando o Tempo"

 

Novo artigo Criação de Previsões de Séries Temporais Usando Redes Neurais LSTM: Normalizando Preço e Tokenizando o Tempo foi publicado:

Este artigo descreve uma estratégia simples para normalizar os dados de mercado usando o intervalo diário e treinar uma rede neural para aprimorar as previsões de mercado. Os modelos desenvolvidos podem ser utilizados em conjunto com estruturas de análise técnica existentes ou de forma independente para auxiliar na previsão da direção geral do mercado. A estrutura delineada neste artigo pode ser ainda mais refinada por qualquer analista técnico para desenvolver modelos adequados para estratégias de negociação manuais e automatizadas.

Quando comecei a pesquisar na internet, me deparei com alguns artigos descrevendo o uso de LSTMs para previsões de séries temporais. Especificamente, encontrei uma postagem no blog de Christopher Olah, "Understanding LSTM Networks" no blog do colah. Em seu blog, Olah explica a estrutura e função dos LSTMs, compara-os com RNNs padrão e discute várias variantes de LSTM, como aquelas com conexões de peephole ou Unidades Recorrentes Gated (GRUs). Olah conclui destacando o impacto significativo dos LSTMs nas aplicações de RNN e apontando para avanços futuros, como mecanismos de atenção.

Em essência, redes neurais tradicionais têm dificuldade com tarefas que exigem contexto de entradas anteriores devido à falta de memória. As RNNs resolvem isso com laços que permitem a persistência da informação, mas ainda enfrentam dificuldades com dependências de longo prazo. Por exemplo, prever a próxima palavra em uma frase onde o contexto relevante está muitas palavras atrás pode ser desafiador para RNNs padrão. Redes de Memória de Longo Curto Prazo (LSTM) são um tipo de rede neural recorrente (RNN) projetada para lidar melhor com dependências de longo prazo ausentes em RNNs. 

Os LSTMs resolvem isso usando uma arquitetura mais complexa, que inclui um estado de célula e três tipos de portas (entrada, esquecimento e saída) que regulam o fluxo de informações. Esse design permite que os LSTMs lembrem informações por longos períodos, tornando-os altamente eficazes para tarefas como modelagem de linguagem, reconhecimento de fala e legendagem de imagens. O que me interessava explorar era se os LSTMs poderiam ajudar a prever a ação de preço hoje com base na ação de preço anterior em dias com ação de preço semelhante, devido à sua capacidade natural de lembrar informações por longos períodos. Encontrei outro artigo útil de Adrian Tam, intitulado astutamente "LSTM para Previsão de Séries Temporais no PyTorch", que desmistificou a matemática e os aspectos de programação para mim com um exemplo prático. Senti-me confiante o suficiente para enfrentar o desafio de aplicá-los na tentativa de prever a ação de preço futura para qualquer par de moedas.

Autor: Shashank Rai