Discussão do artigo "Redes neurais em trading: Aumentando a eficiência do Transformer por meio da redução da nitidez (SAMformer)"
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Novo artigo Redes neurais em trading: Aumentando a eficiência do Transformer por meio da redução da nitidez (SAMformer) foi publicado:
Trabalhos recentes sobre o uso de Transformer em dados de séries temporais têm se concentrado principalmente em implementações eficientes que reduzem o custo quadrático da atenção ou em decompor as séries temporais para refletir melhor os padrões subjacentes. Mas os autores do trabalho "SAMformer: Unlocking the Potential of Transformers in Time Series Forecasting with Sharpness-Aware Minimization and Channel-Wise Attention" chamam atenção para um problema relacionado ao Transformer: sua instabilidade durante o treinamento, que se manifesta na ausência de dados em larga escala.
Na visão computacional e no processamento de linguagem natural, descobriu-se que as matrizes de atenção podem sofrer com entropia ou colapso de posto. Vários métodos foram então propostos para superar esses problemas. No entanto, no contexto da previsão de séries temporais, ainda permanecem dúvidas sobre como treinar arquiteturas Transformer de forma eficaz sem cair em overfitting. Os autores do estudo mencionado buscam mostrar que, ao eliminar a instabilidade do treinamento, é possível aumentar a eficiência do Transformer na previsão multivariada de longo prazo, contrariando as ideias previamente estabelecidas sobre suas limitações.
Autor: Dmitriy Gizlyk