Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel Neuronale Netze im Handel: Transformer mit relativer Kodierung :
Der Übergang von der Ausbildung von Modellen von Grund auf zu einem Vortraining auf großen Mengen unbeschrifteter Daten, gefolgt von einer Feinabstimmung für bestimmte Aufgaben, ermöglicht es uns, hochpräzise Vorhersagen zu treffen, ohne große Mengen an neuen Daten sammeln zu müssen. So können beispielsweise Modelle, die auf der Transformer-Architektur basieren und für Finanzdaten angepasst wurden, Informationen über Korrelationen zwischen Vermögenswerten, zeitliche Abhängigkeiten und andere Faktoren nutzen, um genauere Vorhersagen zu treffen. Die Implementierung alternativer Aufmerksamkeitsmechanismen trägt dazu bei, die wichtigsten Marktabhängigkeiten zu berücksichtigen und die Leistung des Modells erheblich zu verbessern. Dies eröffnet neue Möglichkeiten für die Entwicklung von Handelsstrategien und minimiert gleichzeitig die manuelle Abstimmung und die Abhängigkeit von komplexen regelbasierten Modellen.
Ein solcher alternativer Aufmerksamkeitsalgorithmus wurde in der Arbeit „Relative Molecule Self-Attention Transformer“ vorgestellt. Die Autoren haben eine neue Formel der Selbstaufmerksamkeit (Self-Attention) für molekulare Graphen vorgeschlagen, die verschiedene Eingabemerkmale sorgfältig verarbeitet, um eine höhere Genauigkeit und Zuverlässigkeit in vielen chemischen Bereichen zu erreichen. Der Relative Molecule Attention Transformer (R-MAT) ist ein vortrainiertes Modell, das auf der Transformer-Architektur basiert. Sie stellt eine neue Variante der relativen Selbstaufmerksamkeit dar, die Entfernungs- und Nachbarschaftsinformationen effektiv integriert. Der R-MAT bietet modernste, wettbewerbsfähige Leistung für ein breites Spektrum von Aufgaben.
Autor: Dmitriy Gizlyk