Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2589

 
mytarmailS # :
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining

In dieser Frage werden sehr interessante Gedanken aufgeworfen...

Übrigens, die Befragten verstehen immer noch nicht das Wesentliche der Frage

Bei der Wahl eines Modells schlage ich vor, nicht nach dem Gewinn aus dem OOS zu optimieren, sondern nach dem Verhältnis zwischen diesem Gewinn und dem Gewinn aus dem Tablett. Oder werfen Sie Modelle mit einem geringen Anteil heraus und nehmen Sie den maximalen Gewinn für OOS vom Rest. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.

 
Aleksey Nikolayev #:

Bei der Wahl eines Modells wird empfohlen, die Optimierung nicht nach dem Gewinn aus dem OOS, sondern nach dem Verhältnis dieses Gewinns zum Gewinn aus dem Tablett vorzunehmen. Oder werfen Sie die Modelle mit einer geringen Quote weg und nehmen Sie den maximalen Gewinn aus den verbleibenden OOS-Modellen. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.

Aleksey, kann ich einen Teil des Zitats haben, in dem von Profit, maximalem Profit und dem Wegwerfen von Modellen die Rede ist....

Bis jetzt klingt es so, als ob Sie es so aussehen lassen, als ob -
wörtlich, keine Spekulation.
 
Aleksey Nikolayev #:

Bei der Auswahl eines Modells wird vorgeschlagen, die Optimierung nicht nach dem OOS-Gewinn, sondern nach dem Verhältnis dieses Gewinns zum Gewinn des Tabletts vorzunehmen. Oder man wirft die Modelle mit einem geringen solchen Verhältnis weg und nimmt das Maximum der verbleibenden Modelle in Bezug auf den Gewinn bei OOS. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.

In meinem obigen Beispiel mit Münzen und 10000 Personen. Kopf sei 1, Zahl sei 0. Wenn wir nach dem vorgegebenen Algorithmus vorgehen, werden wir auch nichts erreichen. Dies ist in dem beschriebenen Zusammenhang durchaus verständlich. Mit anderen Worten, wenn wir auf eine Kante stoßen, dann ist es nicht so wichtig, ob wir das Gewinnverhältnis auf IS und OOS oder etwas anderes nehmen, und wenn es keine Kante gibt, dann wird nichts von solchen Methoden funktionieren.


Ganz genau! Wir müssen zunächst das Vorhandensein von Rändern feststellen. Und dann sollten wir überlegen, wie wir auswählen. Zum Beispiel auf folgende Weise: Wir betrachten den Anteil der IS-Modelle nach einer bestimmten Kennzahl, die über einem bestimmten Schwellenwert liegt. Zum Beispiel ist die Gewinnrate höher als 55% - 45% der Modelle. Jetzt ordnen Sie sie nach der Gewinnquote und nehmen Sie einige TOP. Überprüfen wir die Ergebnisse auf diesem Kreisel bei OOS? Von den ausgewählten Modellen, die eine höhere Gewinnquote als 55 % aufweisen, ergeben sich 45 % (Verhältnis der Modelle, die eine solche Gewinnquote aufweisen, zu allen ausgewählten Modellen)? - Ich denke, diese Gruppe von Modellen kann getrost verworfen werden. Wenn wir sehen, dass eine solche Auswahl von Topmodellen funktioniert, bedeutet das, dass es einen Vorteil gibt, und je nachdem, wie stark dieser Effekt ist, können wir die Qualität des Musters bewerten. Es wird beschlossen, dass sie stark genug ist. Alle weitere Auswahl ist eine Frage der Technik - auch wenn durch die gleiche Siegquote, PF, müssen Sie nicht mit komplizierten Metriken und Logiken zu stören, und durch Siegquote und PF direkt auf die IS.

 
mytarmailS #:
Alexej, kann ich einen Teil des Zitats haben, in dem es heißt: "Gewinn, maximaler Gewinn, Wegwerfen von Modellen....

Denn bisher klingt es wie eine heftige Verleumdung und Sie erklären, wie -
wörtlich, ohne Spekulationen

Der Punkt ist, dass zunächst viele Modelle trainiert werden und man am Ende ein funktionierendes Modell auswählen muss (Modellbewertung). Der Genosse behauptet, dass jeder in der Regel das Modell wählt, das gerade das maximale Ergebnis bei der OOS ergibt, und das ist der falsche Ansatz. Sein zweites Zitat zeigt, wie es gemacht werden sollte.

Sie wissen, dass Sie gut abschneiden, wenn der Durchschnitt der Modelle außerhalb der Stichprobe einen signifikanten Prozentsatz des Ergebnisses in der Stichprobe ausmacht. Dies bedeutet eine Maximierung des Verhältnisses zwischen dem Gewinn bei OOS und dem Gewinn bei Track.

Im Allgemeinen kommen Sie wirklich weiter, wenn die Ergebnisse außerhalb der Stichprobe mehr als 50 % der Ergebnisse innerhalb der Stichprobe betragen. Dies kann so übersetzt werden, dass Modelle verworfen werden, bei denen das Verhältnis von OOS-Gewinn zu Tray-Gewinn unter 0,5 liegt.
[Gelöscht]  

Nun, es ist eine Frage der Modellauswahl, ja, wie bei der Optimierung. Sie können Ihre eigenen subjektiven Kriterien aufstellen.

Es ist nicht schlimm, wenn es eine Reihe von Modellen mit leicht unterschiedlichen Parametern gibt, d. h., dass Variationen möglich sind, aber alle den OOS-Test bestehen. Aber ein Allheilmittel ist es natürlich nicht.

 
Aleksey Nikolayev #:
Alexey, gibt es irgendwelche Techniken zur Wiederherstellung der Optimierungsoberfläche?
Sie lassen den Algorithmus für die Suche nach Parametern laufen, er findet etwas, und Sie verwenden die Daten des Algorithmus, um die Optimierungsfläche wiederherzustellen...
Wir sprechen hier von heuristischen Algorithmen, nicht von einer vollständigen Suche...
Ich habe es gegoogelt, aber keine Ergebnisse.
 
mytarmailS #:
Alexey, gibt es Techniken zur Wiederherstellung der Optimierungsfläche?
Sie lassen einen Parameter-Suchalgorithmus laufen, der etwas findet, und Sie verwenden die Daten des Suchalgorithmus, um die Optimierungsfläche zu rekonstruieren...
Wir sprechen hier von heuristischen Algorithmen, nicht von einer vollständigen Suche...
Ich habe es gegoogelt, aber keine Ergebnisse.

Ergänzen Sie die Modellqualitätsmetriken für die fehlenden Eingabewerte, d. h. für die konventionellen Parameterwerte? Nun, Boosting ist einfach zu lehren. Wozu wäre das nötig?

 
Replikant_mih #:

Ergänzung der Modellqualitätsmetriken für die fehlenden eingehenden, bedingten Sätze von Hyperparameterwerten? Nun, ein einfacher Trainingsbooster. Wozu wäre das nötig?

Vielleicht kann eine einfache Interpolation es tun, wir werden sehen, ich wollte zuerst sehen, ob es eine vorgefertigte gibt...
Warum? Ich bin mir ziemlich sicher, dass ich vorhersagen kann, ob das Modell mit den neuen Daten funktionieren wird, wenn ich das Modell OP sehe.


 
mytarmailS #:
Alexey, gibt es Techniken, um die Optimierungsfläche zu rekonstruieren?
Sie lassen einen Parameter-Suchalgorithmus laufen, der etwas findet, und Sie verwenden die Daten des Suchalgorithmus, um die Optimierungsfläche zu rekonstruieren...
Wir sprechen hier von heuristischen Algorithmen, nicht von einer vollständigen Suche...
Ich habe es gegoogelt, aber keine Ergebnisse.

Im Raum der Modellparameter? Das ist eine riesige Dimension. Dies ist nur bei sehr einfachen Modellen mit einer geringen Anzahl von Prädiktoren möglich.

Es ist nicht ganz klar, wie man eine Oberfläche in einem Raum mit großer Dimensionalität aufbauen kann. Wir haben einfach sehr wenige Punkte im Vergleich zu dieser Dimensionalität. Es sei denn, es handelt sich um eine Visualisierung nach unten, wie z. B. PCA usw., aber der Punkt ist unklar.

 
Maxim Dmitrievsky #:

Nun, es ist eine Frage der Modellauswahl, ja, wie bei der Optimierung. Sie können Ihre eigenen subjektiven Kriterien aufstellen.

Es ist nicht schlimm, wenn es eine Reihe von Modellen mit leicht unterschiedlichen Parametern gibt, d. h., dass Variationen möglich sind, aber alle den OOS-Test bestehen. Aber das ist natürlich kein Allheilmittel.

Vorhin hatten Sie eine Idee zur Kombination von Standard- und benutzerdefinierten Metriken, die ich folgendermaßen verstanden habe: Die Modelle werden mit Standardmetriken trainiert, während die Auswahl mit benutzerdefinierten Metriken erfolgt.