Diskussion zum Artikel "Neuronale Netze im Handel: Maskenfreier Ansatz zur Vorhersage von Preisentwicklungen"

 

Neuer Artikel Neuronale Netze im Handel: Maskenfreier Ansatz zur Vorhersage von Preisentwicklungen :

In diesem Artikel wird die Methode MAFT (Mask-Attention-Free Transformer) und ihre Anwendung im Bereich des Handels diskutiert. Im Gegensatz zu herkömmlichen Transformer, die bei der Verarbeitung von Sequenzen eine Datenmaskierung erfordern, optimiert MAFT den Aufmerksamkeitsprozess, indem es die Maskierung überflüssig macht und so die Rechenleistung erheblich verbessert.

Der SPFormer-Algorithmus stellt eine vollständige Ende-zu-Ende-Pipeline dar, mit der Objektabfragen direkt Instanzvorhersagen erzeugen können. Mit Hilfe von Transformer-Decodern werden durch eine feste Anzahl von Objektabfragen globale Objektinformationen aus der analysierten Punktwolke aggregiert. Darüber hinaus nutzt SPFormer Objektmasken, um die Kreuzaufmerksamkeit zu steuern, sodass die Abfragen nur auf maskierte Merkmale ausgerichtet sind. In der Anfangsphase der Ausbildung sind diese Masken jedoch von geringer Qualität. Dies beeinträchtigt die Leistung in den nachfolgenden Schichten und erhöht die Gesamtkomplexität des Trainings.

Um dieses Problem zu lösen, führen die Autoren der MAFT-Methode eine Hilfsaufgabe zur Zentrumsregression ein, um die Segmentierung der Instanzen zu steuern. Zunächst werden globale Positionen 𝒫 aus der Rohpunktwolke ausgewählt und globale Objektmerkmale ℱ über ein Backbone-Netzwerk extrahiert. Dies können Voxel oder Superpunkte sein. Zusätzlich zu den Inhaltsabfragen 𝒬0c führen die Autoren von MAFT eine feste Anzahl von Positionsabfragen 𝒬0p ein, die normalisierte Objektzentren darstellen. Während 𝒬0p zufällig initialisiert wird, ist 𝒬0c beginnt mit Nullwerten. Das Hauptziel besteht darin, dass die Positionsabfragen die entsprechenden kontextuellen Abfragen bei der Kreuzaufmerksamkeit leiten, gefolgt von einer iterativen Verfeinerung beider Abfragesätze, um Objektzentren, Klassen und Masken vorherzusagen.


Autor: Dmitriy Gizlyk