Опубликована статья "Нейросети в трейдинге: Оптимизация Transformer для прогнозирования временных рядов (LSEAttention)".

Фреймворк LSEAttention предлагает пути совершенствования архитектуры Transformer, и был разработан специально для долгосрочного прогнозирования многомерных временных рядов. Предложенные авторами метода подходы позволяют решить проблемы энтропийного коллапса и нестабильности обучения, характерные для ванильного Transformer.














































