Discusión sobre el artículo "Redes neuronales en el trading: Estudio de la estructura local de datos"

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Redes neuronales en el trading: Estudio de la estructura local de datos:
El Transformer ha demostrado su eficacia en diversas tareas. En comparación con la convolución, el mecanismo de Self-Attention es capaz de excluir de forma adaptativa los puntos ruidosos o irrelevantes. Sin embargo, el Transformer vainilla utiliza una única función para transformar todos los elementos de una secuencia. Este trabajo isótropo ignora la información de la estructura local en las relaciones espaciales y no considera la dirección y la distancia del punto central hasta sus vecinos. Si cambiamos las posiciones de los puntos, el resultado del Transformador seguirá siendo el mismo. Y esto creará problemas para reconocer la dirección de los objetos, lo que resulta importante para detectar patrones de precios.
Los autores del artículo "SEFormer: Structure Embedding Transformer for 3D Object Detection" han intentado combinar lo mejor de los dos enfoques, desarrollando un nuevo transformador de codificación de estructuras (Structure-Embedding transFormer—SEFormer) capaz de codificar la estructura local orientada por dirección y distancia. El SEFormer propuesto explora diferentes transformaciones para los puntos Value de diferentes direcciones y distancias. En consecuencia, los cambios en la estructura espacial local pueden codificarse en los resultados del trabajo del modelo, lo cual ofrecerá pistas para reconocer con precisión las direcciones de los objetos.
Autor: Dmitriy Gizlyk