Discussão do artigo "Redes neurais em trading: Explorando a estrutura local dos dados"

 

Novo artigo Redes neurais em trading: Explorando a estrutura local dos dados foi publicado:

A identificação eficaz e a preservação da estrutura local dos dados de mercado em meio ao ruído são tarefas cruciais no trading. Embora o uso do mecanismo Self-Attention tenha mostrado bons resultados no processamento desses dados, o método clássico não leva em conta as características locais da estrutura original. Neste artigo, proponho conhecer um algoritmo capaz de considerar essas dependências estruturais.

Transformer demonstrou sua eficácia na solução de diversas tarefas. Em comparação com a convolução, o mecanismo Self-Attention é capaz de excluir de forma adaptativa pontos irrelevantes ou ruidosos. No entanto, o Transformer tradicional usa uma única função para transformar todos os elementos da sequência. Esse processamento isotrópico ignora as informações sobre a estrutura local nas relações espaciais e não considera a direção nem a distância entre o ponto central e seus vizinhos. Se trocarmos as posições dos pontos, o resultado do Transformer permanecerá o mesmo. Isso cria problemas para o reconhecimento da orientação dos objetos, o que é importante para a detecção de padrões de preços.

Os autores do artigo "SEFormer: Structure Embedding Transformer for 3D Object Detection" buscaram unir o melhor de ambas as abordagens e desenvolveram um novo Transformer de codificação de estrutura (Structure-Embedding transFormer — SEFormer), capaz de codificar a estrutura local levando em conta direção e distância. O SEFormer proposto explora diferentes transformações nos Value dos pontos provenientes de várias direções e distâncias. Dessa maneira, a mudança na estrutura espacial local pode ser codificada nos resultados da operação do modelo, o que proporciona a chave para o reconhecimento preciso das direções dos objetos.

Autor: Dmitriy Gizlyk

 
Belo artigo
 
Arda Kaya #:
Belo artigo

Obrigado.