Diskussion zum Artikel "Fortschrittliches Resampling und Auswahl von CatBoost-Modellen durch die Brute-Force-Methode" - Seite 2
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Interessanter Artikel.
Ich habe das Gefühl, dass wir mit diesem trickreichen Schachzug mit Zufallszuweisung und Pseudostichprobengenerierung nur ähnliche Abhängigkeiten aus der Trainingsperiode signifikant im Test finden.
Wie viel Prozent der Modelle fallen im Test durch?
Es wäre interessant, eine dritte Stichprobe hinzuzufügen - lassen Sie uns von der ersten lernen, Goodness-of-Fit-Ergebnisse für den Test auswählen und das Auswahlergebnis in der Prüfung überprüfen.
Der wichtigste fragliche Punkt ist das Lernen aus den neuesten Daten und das Testen mit älteren Daten. Das ist in etwa vergleichbar mit dem Blick in die Zukunft: Die neuesten aktuellen Modelle enthalten etwas von früheren Modellen (Marktteilnehmer haben schließlich ein Gedächtnis), aber umgekehrt ist es schwieriger, die Zukunft vorherzusagen. Ich denke, wenn man den Algorithmus auf die kanonische Weise neu startet (Training mit alten Daten, Test mit neuen Daten - das entspricht eher der Realität), ist das Ergebnis nicht so gut.
Es hängt davon ab, was als Regelmäßigkeit angesehen wird. Wenn es sich um eine zeitlich gebundene Abfolge von Inkrementen handelt, dann ist es eine saisonale Regelmäßigkeit des Verhaltens von Inkrementen, wenn nicht, dann die gleiche Abfolge von Inkrementen mit einer gewissen Freiheit bei der Genauigkeit.
Und es hängt davon ab, was als passend angesehen wird. Wenn es sich um wissentlich identische Reihen handelt, dann ist es eine Anpassung, aber der Zweck des Tests (egal von welcher Seite) ist es, das Ergebnis in nicht identischen Bereichen zu überprüfen.
Und die Logik des Trainings auf der nahen Periode ist logisch, aber es ist dasselbe, wenn wir in der Tiefe der Geschichte testen, sollte das Ergebnis dasselbe sein, wenn wir in der Tiefe der Geschichte trainieren und in der nahen Periode testen.
Wir bestätigen nur die Hypothese, dass es Regelmäßigkeiten in den Test- und Trainingsdiagrammen gibt.
Fitting - wenn der Prädiktor (Blatt oder Analogon) eine kleine Anzahl von Fällen klassifiziert, weniger als 1 % der Beobachtungen - hier erkläre ich, was Fitting für mich bedeutet.
Aber wie können wir ähnliche Beziehungen finden, wenn der Markt zufällig ist? Die Antwort ist, dass wir das nicht können, sondern nur, indem wir Daten aus der Vergangenheit in das Training einfließen lassen. Und hier wird nichts gemischt. Sie können sogar 10 Stichproben hinzufügen, oder Sie können im MT5 mit neuen Daten testen.
Ich verstehe, dass es kein Spoofing gibt. Ich kenne mich mit Python nicht aus, aber mir scheint, dass das Modell von 2015 bis 2020 geschätzt wird, oder?
Mir geht es eher um die Gültigkeit des Schätzkriteriums und darum, inwieweit es dazu beitragen kann, ein Modell auszuwählen, das auch außerhalb der Teststichprobe funktioniert, die für die Auswahl des Modells verwendet wurde.
Soweit ich weiß, wird es nicht ausgefegt. Ich kenne Python nicht, aber es scheint mir, dass die Modellbewertung von 2015 bis 2020 reicht, richtig?
Mir geht es eher um die Gültigkeit des Bewertungskriteriums und darum, inwieweit es dazu beitragen kann, ein Modell auszuwählen, das auch außerhalb der Teststichprobe, die für die Auswahl verwendet wurde, funktioniert.
Jeder kann bewerten, was er will. Ich denke, der Ansatz in dem Artikel ist ganz normal. Normal. Wenn es noch andere supergalaktische Testverfahren gibt, lassen Sie es mich bitte wissen.
Ohne Python ist maschinelles Lernen leider so gut wie nicht vorhanden... Ich werde es früher oder später lernen müssen, es ist sehr einfach )
Es steht jedem frei, seine eigene Bewertung vorzunehmen. Ich denke, der Ansatz in dem Artikel ist ganz normal. Normal. Wenn es noch andere supergalaktische Testverfahren gibt, lassen Sie es mich bitte wissen.
Der Ansatz im Artikel ist interessant, da gibt es nichts zu diskutieren.
Und wir werden supergalaktische Technologien erfinden :)
Ich denke, wir können die Signifikanz der Prädiktoren nach ihrer Anzahl betrachten, sagen wir bis zu 1 %, und diesen Indikator in verschiedenen Modellen vergleichen: Je kleiner die Anzahl, desto höher die Wahrscheinlichkeit, dass das Modell funktioniert, da es mehr Informationen verallgemeinert hat - so sollten wir denken.
Soweit ich weiß, wird es nicht ausgefegt. Ich kenne Python nicht, aber es scheint mir, dass die Modellbewertung von 2015 bis 2020 reicht, richtig?
Mir geht es eher um die Gültigkeit des Bewertungskriteriums und darum, inwieweit es dazu beitragen kann, ein Modell auszuwählen, das auch außerhalb der Teststichprobe, die für die Auswahl verwendet wurde, funktioniert.
In dem Maße, in dem die Reihen ähnlich sind. Es besteht eine gewisse Wahrscheinlichkeit, dass sich das Verhalten einer Reihe außerhalb der Teststichprobe so stark unterscheidet, dass die gefundenen Regelmäßigkeiten verschwinden. Aber sie ist endlich und auf einer kleinen Zeitskala gering.
Und sie kann nicht helfen.
So ähnlich die Reihen auch sein mögen. Es besteht eine Wahrscheinlichkeit, dass sich das Verhalten der Reihen außerhalb der Stichprobe so stark unterscheidet, dass die gefundenen Regelmäßigkeiten verschwinden. Aber sie ist endlich und in einem kleinen Zeitintervall gering.
Und sie kann nicht helfen.
Deshalb fehlen mir statistische Informationen. Nehmen wir an, wir haben 1000 Modelle untersucht und 5 % von ihnen haben seit 2015 einen guten Gewinn erzielt; gleichzeitig müssen wir die Ähnlichkeit der Modelle untereinander bewerten, was schwieriger, aber informativer ist.
Deshalb fehlen mir statistische Informationen. Nehmen wir an, wir haben 1000 Modelle untersucht und 5 % davon haben seit 2015 einen guten Gewinn erzielt, aber wir müssen auch die Ähnlichkeit der Modelle untereinander bewerten, was schwieriger, aber informativer ist.
Man kann nicht alles schreiben. Wenn es darum geht, ja. Wenn die Bedingungen gut gewählt sind, erhält man im Bootforce-Zyklus viele gute und wenige schlechte Modelle. Es geht nur darum, das beste Modell auszuwählen. Es handelt sich also nicht um ein einziges zufälliges Modell.
In dem Artikel werden 2 Modelle aus der Lernschleife für 20 oder 50 Modelle (ich erinnere mich jetzt nicht mehr) genannt, die den Test bestehen. Und es gibt tatsächlich noch mehr rentable Modelle.