Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2589
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining
Bei der Wahl eines Modells schlage ich vor, nicht nach dem Gewinn aus dem OOS zu optimieren, sondern nach dem Verhältnis zwischen diesem Gewinn und dem Gewinn aus dem Tablett. Oder werfen Sie Modelle mit einem geringen Anteil heraus und nehmen Sie den maximalen Gewinn für OOS vom Rest. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.
Bei der Wahl eines Modells wird empfohlen, die Optimierung nicht nach dem Gewinn aus dem OOS, sondern nach dem Verhältnis dieses Gewinns zum Gewinn aus dem Tablett vorzunehmen. Oder werfen Sie die Modelle mit einer geringen Quote weg und nehmen Sie den maximalen Gewinn aus den verbleibenden OOS-Modellen. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.
Bei der Auswahl eines Modells wird vorgeschlagen, die Optimierung nicht nach dem OOS-Gewinn, sondern nach dem Verhältnis dieses Gewinns zum Gewinn des Tabletts vorzunehmen. Oder man wirft die Modelle mit einem geringen solchen Verhältnis weg und nimmt das Maximum der verbleibenden Modelle in Bezug auf den Gewinn bei OOS. Dies gilt, wenn man die Zitate wörtlich nimmt und nicht spekuliert.
In meinem obigen Beispiel mit Münzen und 10000 Personen. Kopf sei 1, Zahl sei 0. Wenn wir nach dem vorgegebenen Algorithmus vorgehen, werden wir auch nichts erreichen. Dies ist in dem beschriebenen Zusammenhang durchaus verständlich. Mit anderen Worten, wenn wir auf eine Kante stoßen, dann ist es nicht so wichtig, ob wir das Gewinnverhältnis auf IS und OOS oder etwas anderes nehmen, und wenn es keine Kante gibt, dann wird nichts von solchen Methoden funktionieren.
Ganz genau! Wir müssen zunächst das Vorhandensein von Rändern feststellen. Und dann sollten wir überlegen, wie wir auswählen. Zum Beispiel auf folgende Weise: Wir betrachten den Anteil der IS-Modelle nach einer bestimmten Kennzahl, die über einem bestimmten Schwellenwert liegt. Zum Beispiel ist die Gewinnrate höher als 55% - 45% der Modelle. Jetzt ordnen Sie sie nach der Gewinnquote und nehmen Sie einige TOP. Überprüfen wir die Ergebnisse auf diesem Kreisel bei OOS? Von den ausgewählten Modellen, die eine höhere Gewinnquote als 55 % aufweisen, ergeben sich 45 % (Verhältnis der Modelle, die eine solche Gewinnquote aufweisen, zu allen ausgewählten Modellen)? - Ich denke, diese Gruppe von Modellen kann getrost verworfen werden. Wenn wir sehen, dass eine solche Auswahl von Topmodellen funktioniert, bedeutet das, dass es einen Vorteil gibt, und je nachdem, wie stark dieser Effekt ist, können wir die Qualität des Musters bewerten. Es wird beschlossen, dass sie stark genug ist. Alle weitere Auswahl ist eine Frage der Technik - auch wenn durch die gleiche Siegquote, PF, müssen Sie nicht mit komplizierten Metriken und Logiken zu stören, und durch Siegquote und PF direkt auf die IS.
Alexej, kann ich einen Teil des Zitats haben, in dem es heißt: "Gewinn, maximaler Gewinn, Wegwerfen von Modellen....
Der Punkt ist, dass zunächst viele Modelle trainiert werden und man am Ende ein funktionierendes Modell auswählen muss (Modellbewertung). Der Genosse behauptet, dass jeder in der Regel das Modell wählt, das gerade das maximale Ergebnis bei der OOS ergibt, und das ist der falsche Ansatz. Sein zweites Zitat zeigt, wie es gemacht werden sollte.
Sie wissen, dass Sie gut abschneiden, wenn der Durchschnitt der Modelle außerhalb der Stichprobe einen signifikanten Prozentsatz des Ergebnisses in der Stichprobe ausmacht. Dies bedeutet eine Maximierung des Verhältnisses zwischen dem Gewinn bei OOS und dem Gewinn bei Track.
Im Allgemeinen kommen Sie wirklich weiter, wenn die Ergebnisse außerhalb der Stichprobe mehr als 50 % der Ergebnisse innerhalb der Stichprobe betragen. Dies kann so übersetzt werden, dass Modelle verworfen werden, bei denen das Verhältnis von OOS-Gewinn zu Tray-Gewinn unter 0,5 liegt.Nun, es ist eine Frage der Modellauswahl, ja, wie bei der Optimierung. Sie können Ihre eigenen subjektiven Kriterien aufstellen.
Es ist nicht schlimm, wenn es eine Reihe von Modellen mit leicht unterschiedlichen Parametern gibt, d. h., dass Variationen möglich sind, aber alle den OOS-Test bestehen. Aber ein Allheilmittel ist es natürlich nicht.
Alexey, gibt es Techniken zur Wiederherstellung der Optimierungsfläche?
Ergänzen Sie die Modellqualitätsmetriken für die fehlenden Eingabewerte, d. h. für die konventionellen Parameterwerte? Nun, Boosting ist einfach zu lehren. Wozu wäre das nötig?
Ergänzung der Modellqualitätsmetriken für die fehlenden eingehenden, bedingten Sätze von Hyperparameterwerten? Nun, ein einfacher Trainingsbooster. Wozu wäre das nötig?
Alexey, gibt es Techniken, um die Optimierungsfläche zu rekonstruieren?
Im Raum der Modellparameter? Das ist eine riesige Dimension. Dies ist nur bei sehr einfachen Modellen mit einer geringen Anzahl von Prädiktoren möglich.
Es ist nicht ganz klar, wie man eine Oberfläche in einem Raum mit großer Dimensionalität aufbauen kann. Wir haben einfach sehr wenige Punkte im Vergleich zu dieser Dimensionalität. Es sei denn, es handelt sich um eine Visualisierung nach unten, wie z. B. PCA usw., aber der Punkt ist unklar.
Nun, es ist eine Frage der Modellauswahl, ja, wie bei der Optimierung. Sie können Ihre eigenen subjektiven Kriterien aufstellen.
Es ist nicht schlimm, wenn es eine Reihe von Modellen mit leicht unterschiedlichen Parametern gibt, d. h., dass Variationen möglich sind, aber alle den OOS-Test bestehen. Aber das ist natürlich kein Allheilmittel.
Vorhin hatten Sie eine Idee zur Kombination von Standard- und benutzerdefinierten Metriken, die ich folgendermaßen verstanden habe: Die Modelle werden mit Standardmetriken trainiert, während die Auswahl mit benutzerdefinierten Metriken erfolgt.