Diskussion zum Artikel "Neuronale Netze im Handel: Hierarchischer Dual-Tower-Transformer (Hidformer)"
Der Artikel Neural Networks in Trading: Hierarchical Two-Bar Transformer (Hidformer) wurde veröffentlicht:
Autor: Dmitriy Gizlyk
Hallo Dmitriy,
Laut OnTesterDeinit() sollte der Code im Tester-Modus (d.h. im StrategyTester) die NN-Dateien speichern.
//+------------------------------------------------------------------+ //| TesterDeinit-Funktion| //+------------------------------------------------------------------+ void OnTesterDeinit() { //--- int total = ArraySize(Buffer); printf("total %d", MathMin(total, MaxReplayBuffer)); Print("Saving..."); SaveTotalBase(); Print("Saved"); } //+------------------------------------------------------------------+
Dies geschieht aber nicht. Auch dieses OnTesterDeinit() wird nicht aufgerufen, wie es scheint. Da ich keine der Druckanweisungen sehe.
Ist dies auf ein Update von MQL5 zurückzuführen? Oder warum speichert Ihr Code keine Dateien mehr?
Liegt das an einem Update von MQL5? Oder warum speichert Ihr Code keine Dateien mehr?
Lieber Andreas,
OnTesterDeinit läuft nur im Optimierungsmodus. Bitte beachten Sie die Dokumentation unter https://www.mql5.com/en/docs/event_handlers/ontesterdeinit.
Wir speichern keine Modelle im Tester, weil dieser EA sie nicht untersucht. Es ist notwendig, die Wirksamkeit des zuvor untersuchten Modells zu überprüfen.
Mit freundlichen Grüßen,
Dmitriy.
- www.mql5.com
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Neuer Artikel Neuronale Netze im Handel: Hierarchischer Dual-Tower-Transformer (Hidformer) :
Neuronale Netzmodelle, die in der Lage sind, die zeitliche Struktur von Daten zu erfassen und verborgene Muster zu erkennen, sind besonders bei Finanzprognosen gefragt. Herkömmliche Ansätze für neuronale Netze stoßen jedoch an Grenzen, die mit der hohen Rechenkomplexität und der unzureichenden Interpretierbarkeit der Ergebnisse zusammenhängen. In den letzten Jahren haben daher Architekturen, die auf Aufmerksamkeitsmechanismen basieren, zunehmendes Interesse bei den Forschern geweckt, da sie eine genauere Analyse von Zeitreihen und Finanzdaten ermöglichen.
Modelle, die auf der Transformer-Architektur und ihren Modifikationen basieren, haben die größte Popularität erlangt. Eine solche Änderung, die in dem Artikel „Hidformer: Transformer-Style Neural Network in Stock Price Forecasting“ wird Hidformer genannt. Dieses Modell wurde speziell für die Zeitreihenanalyse entwickelt und konzentriert sich auf die Verbesserung der Vorhersagegenauigkeit durch optimierte Aufmerksamkeitsmechanismen, die effiziente Identifizierung langfristiger Abhängigkeiten und die Anpassung an die Merkmale von Finanzdaten. Der Hauptvorteil von Hidformer liegt in seiner Fähigkeit, komplexe zeitliche Zusammenhänge zu berücksichtigen, was besonders bei der Analyse von Aktienmärkten wichtig ist, wo die Preise von Vermögenswerten von zahlreichen Faktoren abhängen.
Autor: Dmitriy Gizlyk