Diskussion zum Artikel "Schneller Handelsstrategie-Tester in Python mit Numba" - Seite 3

 
Maxim Dmitrievsky #:

Starke Umschulung des Basismodells wie im Artikel beschrieben. Zwei Vorher-Nachher-Versionen:

Optimieren Sie jetzt nicht mehr sl/tp, sondern die Eingaben durch meta_labels (trade/not trade):

Sieht aus wie Optimierung durch Rauschen
 
Ivan Butko #:
Sieht aus wie Rauschoptimierung

Optimierung nach Volatilitätsbereichen. Wo man handelt und wo nicht.

 
Maxim Dmitrievsky #:

Optimierung nach Volatilitätsbereichen.

Wie wird dieser Parameter berechnet?

Wo soll gehandelt werden und wo nicht.

Wird ein Intervall von Volatilitätswerten gesucht oder mehrere Intervalle?

 
fxsaber #:

Wie wird dieser Parameter berechnet?

Wird ein einzelnes Intervall von Volatilitätswerten oder mehrere Intervalle durchsucht?

Ein Intervall mit fester Breite. Das heißt, die Optimierung der Intervallgrenzen.

Dann wird ein Array mit den besten Varianten gespeichert, wie im MT5-Optimierer, den Sie auswählen können.

Es gibt sogar einen Filter für die Mindestanzahl von Trades.

 

Wenn man sich mit Statistik gut auskennt, stellt sich die Frage, was besser ist:

  • Optimierung von TS mit n Parametern auf dem Diagramm
  • Erstellung eines grundlegenden retrainierten Modells (eine bestimmte verallgemeinerte Basis von Geschäften) und anschließende Suche nach Intervallen, in denen es robust ist.
  • Beide Optionen sind Kurvenanpassungen
 
Maxim Dmitrievsky #:

Wenn es versierte Statistiker gibt, stellt sich die Frage, was besser ist:

  • Optimierung von TS mit n Parametern auf dem Diagramm
  • Erstellung eines grundlegenden retrainierten Modells (eine bestimmte verallgemeinerte Basis von Geschäften), dann Suche nach Intervallen, in denen es robust ist.
  • Beide Optionen sind Kurvenanpassungen

Antwort von Claude. Die anderen Modelle haben offen gesagt schlecht geantwortet (außer gpt-o1, ich habe es nicht):

Aus mathematisch-statistischer Sicht sollten wir beide Ansätze analysieren:


1. optimierung mit n Parametern:

- Vorteile:

* Direkte Suche nach optimalen Parametern

* Möglichkeit, spezifische Einschränkungen zu setzen

- Nachteile:

* Problem des "Fluchs der Dimensionalität", wenn n groß ist

* Hohes Risiko des Übertrainings

* Schwierigkeiten bei der Validierung der Ergebnisse


2. Erstellung eines übertrainierten Modells, gefolgt von der Suche nach robusten Intervallen:

- Vorteile:

* Besseres Verständnis von stabilen Mustern.

* Fähigkeit, wirklich stabile Abhängigkeiten zu identifizieren

* Zuverlässigere Validierung der Ergebnisse

- Nachteile:

* Schwierige Definition von Robustheitskriterien

* Risiko, wichtige nichtlineare Interaktionen zu übersehen.


Aus der Sicht von Matstat ist der zweite Ansatz aus folgenden Gründen vorzuziehen:


1. Statistische Signifikanz:

- Ermöglicht eine bessere Bewertung der statistischen Signifikanz der gefundenen Muster

- Ermöglicht die Anwendung von Hypothesentestmethoden


2. Widerstandsfähigkeit der Ergebnisse:

- Robuste Intervalle sind per Definition robuster gegenüber Veränderungen der Marktbedingungen

- Verringert das Risiko einer Verzerrung durch Datenschnüffelei


3. Verallgemeinerbarkeit:

- Лучше работает principle of parsimony ([бритва Оккама](https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9B%D0%B5%D0%B2%D0%B5%D0%BD%D1%88%D1%82%D0%B5%D0%B9%D0%BD%D0%B0))

- Höhere Wahrscheinlichkeit, Muster zu entdecken, die wirklich funktionieren


4. Kontrolle des Überlernens:

- Explizite Trennung in eine Phase der Modellbildung und eine Phase der Extraktion stabiler Bereiche

- Возможность применения [кросс-валидации](https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%BE%D1%81%D1%81-%D0%B2%D0%B0%D0%BB%D0%B8%D0%B4%D0%B0%D1%86%D0%B8%D1%8F)


Im Allgemeinen ist der zweite Ansatz wissenschaftlich fundierter und besser mit den Grundsätzen der statistischen Inferenz vereinbar, obwohl er eine strengere Methodik erfordert.

 
Alexei Nikolaev wäre ein gutes Thema :)
 
Maxim Dmitrievsky #:

Konstruktion eines überangepassten Modells, gefolgt von der Suche nach robusten Intervallen

Stellen wir uns vor, dass die Zitate aus kleinen Intervallen mit Mustern und großen Intervallen mit Rauschen bestehen. Das Training aller Intervalle zusammen ist eine sehr schwache Mustererkennung. Selbst wenn Sie diese Intervalle später finden, wird ein beschissenes Modell vorliegen, das weit davon entfernt ist, optimal zu sein, wenn das Modell auf diesen Intervallen aufgebaut wurde.


Es ist also besser, zuerst nach Intervallen zu suchen und dann auf ihnen zu trainieren. Dies ist die dritte Möglichkeit.

 
fxsaber #:

Stellen wir uns vor, dass Zitate aus kleinen Intervallen mit Mustern und großen Intervallen mit Rauschen bestehen. Wenn man sie alle zusammen trainiert, ist die Erkennung von Regelmäßigkeiten sehr schwach. Selbst wenn man diese Intervalle später findet, wird es dort ein beschissenes Muster geben.

Akzeptiert, gut begründet :)
 
Maxim Dmitrievsky #:

Antwort von Claude.

Aus der Sicht von Matstat ist der zweite Ansatz vorzuziehen

Es wurde schon so viel über die "Angemessenheit" diskutiert. Es wäre mir gar nicht in den Sinn gekommen, danach zu fragen.