Discusión sobre el artículo "Redes neuronales en el trading: Transformador con codificación relativa"
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Redes neuronales en el trading: Transformador con codificación relativa:
Pasar del entrenamiento de modelos desde cero al preentrenamiento con grandes conjuntos de datos sin etiquetar, seguido de un ajuste fino para tareas específicas, permite obtener una gran precisión de predicción sin necesidad de recopilar enormes cantidades de datos nuevos. Por ejemplo, los modelos basados en la arquitectura del Transformer adaptados a los datos financieros pueden utilizar información sobre correlaciones entre activos, dependencias temporales y otros factores para hacer predicciones más precisas. La introducción de mecanismos de atención alternativos ayuda a considerar importantes dependencias del mercado, lo que mejora significativamente el rendimiento del modelo. Esto abre nuevas oportunidades para crear estrategias comerciales minimizando los ajustes manuales y los complejos modelos basados en reglas.
Uno de estos algoritmos de atención alternativos se presentó en el artículo "Relative Molecule Self-Attention Transformer". Los autores del artículo han desarrollado una nueva formulación de Self-Attention para grafos moleculares que procesa cuidadosamente una amplia variedad de funciones de entrada para obtener una mayor precisión y robustez en muchos dominios químicos. El Relative Molecule Attention Transformer(R-MAT) es un modelo preentrenado basado en el Transformer. Se trata de una nueva variante de la Self-Attention relativa que permite una integración eficaz de la información sobre distancia y vecindad. El R-MAT ofrece un rendimiento puntero y competitivo en una amplia gama de aplicaciones.
Autor: Dmitriy Gizlyk