Diskussion zum Artikel "Neuronale Netze im Handel: Verbesserung des Wirkungsgrads des Transformers durch Verringerung der Schärfe (SAMformer)"
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel Neuronale Netze im Handel: Verbesserung des Wirkungsgrads des Transformers durch Verringerung der Schärfe (SAMformer) :
Neuere Studien zur Anwendung von Transformers auf Zeitreihendaten haben sich in erster Linie auf die Optimierung von Aufmerksamkeitsmechanismen konzentriert, um quadratische Rechenkosten zu reduzieren, oder auf die Zerlegung von Zeitreihen, um die zugrunde liegenden Muster besser zu erfassen. Allerdings haben die Autoren des Dokuments „"SAMformer: Unlocking the Potential of Transformers in Time Series Forecasting with Sharpness-Aware Minimization and Channel-Wise Attention“ heben ein kritisches Problem hervor: die Trainingsinstabilität von Transformers in Ermangelung großer Datenmengen.
Sowohl in der Computer Vision als auch im NLP wurde beobachtet, dass Aufmerksamkeitsmatrizen unter einem Kollaps von Entropie oder Rang leiden können. Es wurden mehrere Ansätze vorgeschlagen, um diese Probleme zu entschärfen. Bei der Vorhersage von Zeitreihen bleibt jedoch die Frage offen, wie Transformer-Architekturen effektiv und ohne Überanpassung trainiert werden können. Die Autoren wollen zeigen, dass die Behebung von Trainingsinstabilitäten die Leistung von Transformer bei der langfristigen multivariaten Vorhersage erheblich verbessern kann, im Gegensatz zu den bisherigen Vorstellungen über ihre Grenzen.
Autor: Dmitriy Gizlyk