Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 34): Preiseinbettung mit einem unkonventionellen RBM"
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 34): Preiseinbettung mit einem unkonventionellen RBM :
Restricted Boltzmann Machines sind eine Form von neuronalen Netzen, die Mitte der 1980er Jahre entwickelt wurde, als Rechenressourcen noch unerschwinglich waren. Zu Beginn stützte es sich auf Gibbs Sampling und kontrastive Divergenz, um die Dimensionalität zu reduzieren oder die verborgenen Wahrscheinlichkeiten/Eigenschaften über die eingegebenen Trainingsdatensätze zu erfassen. Wir untersuchen, wie Backpropagation eine ähnliche Leistung erbringen kann, wenn das RBM Preise für ein prognostizierendes Multi-Layer-Perceptron „embeds“ (einbettet).
Price-Embedding wird im Rahmen dieses Artikels als ein Prozess verwendet, der der Worteinbettung sehr ähnlich ist; und dies ist, wie einige Leser vielleicht wissen, der voraussetzende Schritt zu Transformator-Netzwerken großer Sprachmodelle. Die Worteinbettung, die als Nummerierung von Wörtern definiert werden kann, hilft in Verbindung mit der Selbstaufmerksamkeit dabei, einen Großteil des online verfügbaren schriftlichen Materials in ein Format umzuwandeln, das neuronale Netze verstehen können. Wir lehnen uns ebenfalls an diesen Ansatz an, indem wir davon ausgehen, dass die Daten der Wertpapierkurse (auch wenn sie numerisch sind) von neuronalen Netzen nicht ohne Weiteres „verstanden“ werden können. Und unser Ansatz, dies verständlicher zu machen, ist die Verwendung eines durch Backpropagation trainierten RBM.
Bei der Umwandlung von Wörtern in Zahlen geht es nicht einfach darum, einem Wort oder einem Buchstaben eine Zahl zuzuordnen, sondern es handelt sich um einen komplizierten Prozess, der, wie bereits erwähnt, Selbstaufmerksamkeit erfordert. Ich glaube, dass sich daraus Parallelen zu RBMs ziehen lassen, wenn man ihren zweiseitigen Graphenaufbau betrachtet.
Zwar gibt es innerhalb einer Schicht eines RBM keine direkten Verbindungen von Neuron zu Neuron, doch werden diese Verbindungen, die für die Erfassung der Selbstaufmerksamkeitskomponente der Eingabedaten entscheidend sein könnten, über die verborgene Schicht hergestellt. Bei dieser These protokolliert die verborgene Schicht nicht nur, als was jedes Neuron gezeichnet werden könnte, sondern auch, welche Bedeutung seine Beziehungen zu den anderen Neuronen haben.
Wie immer gilt für Händler, dass der Beweis für die Vorteile dieser Preiseinbettung nur durch Handelsergebnisse erbracht werden kann. Und wir werden zum ersten Teil dieses Prozesses kommen, aber es könnte sich lohnen, hervorzuheben, dass das Ausmaß der Belohnungen, die man durch die Einbettung von Wörtern in Zahlen erhält, nicht mit denen verglichen werden kann, die wir bei der Einbettung von Zahlen in Zahlen betrachten, weil das, was wir hier tun, nicht annähernd so umwälzend ist. Betrachten wir nun, wie wir ein RBM mit Backpropagation rekonstruieren.
Autor: Stephen Njuki