Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Information
12+ Jahre
Erfahrung
0
Produkte
0
Demoversionen
134
Jobs
0
Signale
0
Abonnenten
X
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Parametereffizienter Transformer mit segmentierter Aufmerksamkeit (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Parametereffizienter Transformer mit segmentierter Aufmerksamkeit (letzter Teil)

In der vorangegangenen Arbeit haben wir die theoretischen Aspekte des PSformer-Rahmens erörtert, der zwei wichtige Neuerungen in der klassischen Transformer-Architektur beinhaltet: den Parameter-Shared (PS)-Mechanismus und die Berücksichtigung von räumlich-zeitlichen Segmenten (SegAtt). In diesem Artikel setzen wir die Arbeit fort, die wir bei der Implementierung der vorgeschlagenen Ansätze mit MQL5 begonnen haben.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein parameter-effizienter Transformer mit segmentierter Aufmerksamkeit (PSformer) veröffentlicht
Neuronale Netze im Handel: Ein parameter-effizienter Transformer mit segmentierter Aufmerksamkeit (PSformer)

In diesem Artikel wird das neue PSformer-Framework vorgestellt, das die Architektur des einfachen Transformers an die Lösung von Problemen im Zusammenhang mit multivariaten Zeitreihenprognosen anpasst. Der Rahmen basiert auf zwei wichtigen Innovationen: dem Parameter-Sharing-Mechanismus (PS) und der Segment Attention (SegAtt).

youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verbesserung des Wirkungsgrads der Transformer durch Verringerung der Schärfe (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Verbesserung des Wirkungsgrads der Transformer durch Verringerung der Schärfe (letzter Teil)

SAMformer bietet eine Lösung für die wichtigsten Nachteile von Transformer-Modellen in der langfristigen Zeitreihenprognose, wie z. B. die Komplexität des Trainings und die schlechte Generalisierung auf kleinen Datensätzen. Die flache Architektur und die auf Schärfe ausgerichtete Optimierung helfen, suboptimale lokale Minima zu vermeiden. In diesem Artikel werden wir die Umsetzung von Ansätzen mit MQL5 fortsetzen und ihren praktischen Wert bewerten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verbesserung des Wirkungsgrads des Transformers durch Verringerung der Schärfe (SAMformer) veröffentlicht
Neuronale Netze im Handel: Verbesserung des Wirkungsgrads des Transformers durch Verringerung der Schärfe (SAMformer)

Das Training von Transformer-Modellen erfordert große Datenmengen und ist oft schwierig, da die Modelle nicht gut auf kleine Datensätze verallgemeinert werden können. Der SAMformer-Rahmen hilft bei der Lösung dieses Problems, indem er schlechte lokale Minima vermeidet. Dadurch wird die Effizienz der Modelle auch bei begrenzten Trainingsdaten verbessert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Optimierung des Transformers für Zeitreihenprognosen (LSEAttention) veröffentlicht
Neuronale Netze im Handel: Optimierung des Transformers für Zeitreihenprognosen (LSEAttention)

Der LSEAttention-Rahmen bietet Verbesserungen der Transformer-Architektur. Es wurde speziell für langfristige multivariate Zeitreihenprognosen entwickelt. Die von den Autoren der Methode vorgeschlagenen Ansätze können angewandt werden, um Probleme des Entropiekollapses und der Lerninstabilität zu lösen, die bei einem einfachen Transformer häufig auftreten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hyperbolisches latentes Diffusionsmodell (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Hyperbolisches latentes Diffusionsmodell (letzter Teil)

Die Verwendung anisotroper Diffusionsprozesse zur Kodierung der Ausgangsdaten in einem hyperbolischen latenten Raum, wie sie im HypDIff-Rahmen vorgeschlagen wird, trägt dazu bei, die topologischen Merkmale der aktuellen Marktsituation zu erhalten und verbessert die Qualität der Analyse. Im vorigen Artikel haben wir damit begonnen, die vorgeschlagenen Ansätze mit MQL5 zu implementieren. Heute werden wir die begonnene Arbeit fortsetzen und zu ihrem logischen Abschluss bringen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hyperbolisches latentes Diffusionsmodell (HypDiff) veröffentlicht
Neuronale Netze im Handel: Hyperbolisches latentes Diffusionsmodell (HypDiff)

Der Artikel befasst sich mit Methoden zur Kodierung von Ausgangsdaten im hyperbolischen latenten Raum durch anisotrope Diffusionsprozesse. Dies trägt dazu bei, die topologischen Merkmale der aktuellen Marktsituation genauer zu erfassen und die Qualität der Analyse zu verbessern.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Direktionale Diffusionsmodelle (DDM) veröffentlicht
Neuronale Netze im Handel: Direktionale Diffusionsmodelle (DDM)

In diesem Artikel werden gerichtete Diffusionsmodelle diskutiert, die datenabhängiges anisotropes und gerichtetes Rauschen in einem Vorwärtsdiffusionsprozess ausnutzen, um aussagekräftige Graphendarstellungen zu erfassen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Knotenadaptive Graphendarstellung mit NAFS veröffentlicht
Neuronale Netze im Handel: Knotenadaptive Graphendarstellung mit NAFS

Wir laden Sie ein, sich mit der NAFS-Methode (Node-Adaptive Feature Smoothing) vertraut zu machen, einem nicht-parametrischen Ansatz zur Erstellung von Knotenrepräsentationen, der kein Parametertraining erfordert. NAFS extrahiert Merkmale jedes Knotens anhand seiner Nachbarn und kombiniert diese Merkmale dann adaptiv, um eine endgültige Darstellung zu erstellen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Der Contrastive Muster-Transformer (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Der Contrastive Muster-Transformer (letzter Teil)

Im letzten Artikel dieser Reihe haben wir uns mit dem Atom-Motif Contrastive Transformer (AMCT) beschäftigt, der kontrastives Lernen zur Entdeckung von Schlüsselmustern auf allen Ebenen einsetzt, von grundlegenden Elementen bis hin zu komplexen Strukturen. In diesem Artikel setzen wir die Implementierung von AMCT-Ansätzen mit MQL5 fort.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Der Contrastive Muster-Transformer veröffentlicht
Neuronale Netze im Handel: Der Contrastive Muster-Transformer

Der Contrastive Transformer wurde entwickelt, um Märkte sowohl auf der Ebene einzelner Kerzen als auch auf der Basis ganzer Muster zu analysieren. Dies trägt dazu bei, die Qualität der Modellierung von Markttrends zu verbessern. Darüber hinaus fördert der Einsatz des kontrastiven Lernens zum Abgleich der Darstellungen von Kerzen und Mustern die Selbstregulierung und verbessert die Genauigkeit der Prognosen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Marktanalyse mit Hilfe eines Muster-Transformers veröffentlicht
Neuronale Netze im Handel: Marktanalyse mit Hilfe eines Muster-Transformers

Wenn wir Modelle zur Analyse der Marktsituation verwenden, konzentrieren wir uns hauptsächlich auf Kerzen. Es ist doch seit langem bekannt, dass Kerzen-Muster bei der Vorhersage künftiger Kursbewegungen helfen können. In diesem Artikel werden wir uns mit einer Methode vertraut machen, die es uns ermöglicht, diese beiden Ansätze zu integrieren.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Transformer mit relativer Kodierung veröffentlicht
Neuronale Netze im Handel: Transformer mit relativer Kodierung

Selbstüberwachtes Lernen kann ein effektives Mittel sein, um große Mengen ungekennzeichneter Daten zu analysieren. Die Effizienz wird durch die Anpassung der Modelle an die spezifischen Merkmale der Finanzmärkte gewährleistet, was zur Verbesserung der Wirksamkeit der traditionellen Methoden beiträgt. In diesem Artikel wird ein alternativer Aufmerksamkeitsmechanismus vorgestellt, der die relativen Abhängigkeiten und Beziehungen zwischen den Eingaben berücksichtigt.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Kontrollierte Segmentierung (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Kontrollierte Segmentierung (letzter Teil)

Wir setzen die im vorigen Artikel begonnene Arbeit am Aufbau des RefMask3D-Frameworks mit MQL5 fort. Dieser Rahmen wurde entwickelt, um multimodale Interaktion und Merkmalsanalyse in einer Punktwolke umfassend zu untersuchen, gefolgt von der Identifizierung des Zielobjekts auf der Grundlage einer in natürlicher Sprache gegebenen Beschreibung.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Kontrollierte Segmentierung veröffentlicht
Neuronale Netze im Handel: Kontrollierte Segmentierung

In diesem Artikel wird eine Methode zur Analyse komplexer multimodaler Interaktionen und zum Verstehen von Merkmalen erörtert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verallgemeinerte 3D-Segmentierung von referenzierten Ausdrücken veröffentlicht
Neuronale Netze im Handel: Verallgemeinerte 3D-Segmentierung von referenzierten Ausdrücken

Bei der Analyse der Marktsituation unterteilen wir den Markt in einzelne Segmente und ermitteln die wichtigsten Trends. Herkömmliche Analysemethoden konzentrieren sich jedoch oft auf einen Aspekt und schränken so die richtige Wahrnehmung ein. In diesem Artikel lernen wir eine Methode kennen, die die Auswahl mehrerer Objekte ermöglicht, um ein umfassenderes und vielschichtigeres Verständnis der Situation zu gewährleisten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Maskenfreier Ansatz zur Vorhersage von Preisentwicklungen veröffentlicht
Neuronale Netze im Handel: Maskenfreier Ansatz zur Vorhersage von Preisentwicklungen

In diesem Artikel wird die Methode MAFT (Mask-Attention-Free Transformer) und ihre Anwendung im Bereich des Handels diskutiert. Im Gegensatz zu herkömmlichen Transformer, die bei der Verarbeitung von Sequenzen eine Datenmaskierung erfordern, optimiert MAFT den Aufmerksamkeitsprozess, indem es die Maskierung überflüssig macht und so die Rechenleistung erheblich verbessert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Superpoint Transformer (SPFormer) veröffentlicht
Neuronale Netze im Handel: Superpoint Transformer (SPFormer)

In diesem Artikel stellen wir eine Methode zur Segmentierung von 3D-Objekten vor, die auf dem Superpoint Transformer (SPFormer) basiert und bei der die Notwendigkeit einer zwischengeschalteten Datenaggregation entfällt. Dadurch wird der Segmentierungsprozess beschleunigt und die Leistung des Modells verbessert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Erforschen lokaler Datenstrukturen veröffentlicht
Neuronale Netze im Handel: Erforschen lokaler Datenstrukturen

Die effektive Identifizierung und Erhaltung der lokalen Struktur von Marktdaten unter verrauschten Bedingungen ist eine wichtige Aufgabe im Handel. Die Verwendung des Mechanismus der Selbstaufmerksamkeit hat vielversprechende Ergebnisse bei der Verarbeitung solcher Daten gezeigt; der klassische Ansatz berücksichtigt jedoch nicht die lokalen Merkmale der zugrunde liegenden Struktur. In diesem Artikel stelle ich einen Algorithmus vor, der diese strukturellen Abhängigkeiten berücksichtigen kann.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Szenenspezifische Objekterkennung (HyperDet3D) veröffentlicht
Neuronale Netze im Handel: Szenenspezifische Objekterkennung (HyperDet3D)

Wir laden Sie ein, einen neuen Ansatz zur Erkennung von Objekten mit Hilfe von Hypernetzwerken kennen zu lernen. Ein Hypernetwork generiert Gewichte für das Hauptmodell, wodurch die Besonderheiten der aktuellen Marktsituation berücksichtigt werden können. Dieser Ansatz ermöglicht es uns, die Vorhersagegenauigkeit zu verbessern, indem wir das Modell an unterschiedliche Handelsbedingungen anpassen.