Discusión sobre el artículo "Redes neuronales en el trading: Framework comercial híbrido con codificación predictiva (StockFormer)"
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Redes neuronales en el trading: Framework comercial híbrido con codificación predictiva (StockFormer):
El framework StockFormer resuelve problemas de predicción y toma de decisiones comerciales en los mercados financieros utilizando enfoques de aprendizaje por refuerzo (RL). Uno de los principales problemas de los métodos tradicionales es la falta de un mecanismo eficaz para analizar las relaciones dinámicas entre los activos y sus futuras tendencias. Esto resulta especialmente importante en los mercados financieros, donde los cambios pueden producirse de forma rápida e impredecible. El StockFormer utiliza dos pasos clave para llevar a cabo esta tarea: la codificación predictiva y el entrenamiento de estrategias comerciales.
En la primera etapa, el StockFormer entrena el modelo utilizando métodos de aprendizaje autosupervisado para extraer eficazmente patrones ocultos de los datos del mercado, incluso en presencia de ruido. Esto permite al modelo considerar las tendencias a corto y largo plazo, así como las interdependencias entre activos. Con este planteamiento, el modelo extrae importantes estados ocultos que se aplican en el siguiente paso para tomar decisiones comerciales.
La diversidad de patrones temporales entre las secuencias de múltiples activos en los mercados financieros aumenta sustancialmente la dificultad de extraer pronósticos eficaces de los datos de origen. Para resolver este problema, los autores del framework StockFormer modernizan el módulo de atención multicabeza del Transformer vainilla sustituyendo el único bloque FeedForward(FFN) por un grupo de bloques similares. Sin cambiar el número total de parámetros, dicho mecanismo mejora la capacidad de la atención multicabeza para descomponer las características, lo que facilita el modelado de diversos patrones temporales en distintos subespacios.
Autor: Dmitriy Gizlyk