Diskussion zum Artikel "Fortschrittliches Resampling und Auswahl von CatBoost-Modellen durch die Brute-Force-Methode"

 

Neuer Artikel Fortschrittliches Resampling und Auswahl von CatBoost-Modellen durch die Brute-Force-Methode :

Dieser Artikel beschreibt einen der möglichen Ansätze zur Datentransformation mit dem Ziel, die Verallgemeinerbarkeit des Modells zu verbessern, und erörtert auch die Stichprobenziehung und Auswahl von CatBoost-Modellen.

Eine einfache Zufallsstichprobe der im vorigen Artikel verwendeten Labels hat einige Nachteile:

  • Die Klassen können unausgewogen sein. Nehmen wir an, dass der Markt vor allem während der Trainingsphase anstieg, während die allgemeinen Daten (die gesamte Historie der Preise) sowohl ein Auf und Ab impliziert. In diesem Fall führt eine naive Stichprobenziehung zu mehr Käufen und weniger Verkäufen. Dementsprechend werden sich Labels einer Klasse gegenüber einer anderen durchsetzen, wodurch das Modell lernen wird, Käufe öfter vorherzusagen als Verkäufe, was jedoch für neue Daten ungültig sein kann.

  • Autokorrelation von Merkmalen und Labels. Bei Verwendung von Zufallsstichproben folgen die Labels derselben Klasse aufeinander, während sich die Merkmale selbst (wie z.B. Inkremente) nur unwesentlich ändern. Dieser Prozess kann am Beispiel eines Regressionsmodelltrainings gezeigt werden - in diesem Fall wird sich herausstellen, dass Autokorrelation in den Modellresiduen beobachtet wird, was zu einer möglichen Überschätzung des Modells und zu einem Übertraining führt. Diese Situation ist unten dargestellt:


Modell 1 verfügt über eine Autokorrelation der Residuen, die mit einer Modellüberanpassung bei bestimmten Markteigenschaften verglichen werden kann (z.B. in Bezug auf die Volatilität der Trainingsdaten), während andere Muster nicht berücksichtigt werden. Modell 2 hat Residuen mit der gleichen Varianz (im Durchschnitt), was darauf hinweist, dass das Modell mehr Informationen abdeckt oder andere Abhängigkeiten gefunden wurden (zusätzlich zur Korrelation benachbarter Stichproben).

Autor: Maxim Dmitrievsky

 
Gab es nicht die Idee, EM (Expectation Maximisation) anstelle von GMM einzusetzen?
 
Stanislav Korotky:
Gab es nicht die Idee, EM (Expectation Maximisation) anstelle von GMM zu verwenden?

und es funktioniert bereits mit dem EM-Algorithmus, soweit ich weiß.

Es gibt Ideen, tiefe neuronale Netze dafür zu verwenden, die noch untersucht werden.

 
Maxim Dmitrievsky:

und es wird bereits der EM-Algorithmus ausgeführt, soweit ich das sehen kann.

Es gibt Ideen, tiefe neuronale Netze dafür zu verwenden, die noch untersucht werden.

GUT. Ebenfalls in Arbeit war ein Ansatz, bei dem die ursprüngliche Reihe umgedreht wird, so dass die Klassen automatisch ausgeglichen werden.

 
Stanislav Korotky:

GUT. Noch in Arbeit war ein Ansatz, bei dem die ursprüngliche Serie umgedreht wurde - auf diese Weise werden die Klassen automatisch ausgeglichen.

Als Option kann man auch Oversampling-Undersampling und deren Kombinationen verwenden. Dies führte jedoch nicht zu signifikanten Verbesserungen, während GMM dies tat. Außerdem gilt: je mehr Cluster, desto besser. Rein empirisch.

Hier ist ein guter Artikel über Resampling, mit Beispielen https://imbalanced-learn.readthedocs.io/en/stable/index.html.

DieKernel-Dichte-Schätzung ist ebenfalls schlechter als GMM. Tiefe neuronale Netze sollten theoretisch besser sein als GMM. Denn GMM funktioniert nicht gut bei einem großen Merkmalsraum.

Welcome to imbalanced-learn documentation! — imbalanced-learn 0.5.0 documentation
  • imbalanced-learn.readthedocs.io
The exact API of all functions and classes, as given in the doctring. The API documents expected types and allowed features for all functions, and all parameters available for the algorithms.
 

Interessanter Artikel.

Ich habe das Gefühl, dass wir bei diesem trickreichen Vorgehen mit Zufallszuweisung und Pseudostichprobengenerierung nur ähnliche Abhängigkeiten aus der Trainingsperiode signifikant im Test finden.

Wie viel Prozent der Modelle fallen im Test durch?

Es wäre interessant, eine dritte Stichprobe hinzuzufügen - lassen Sie uns aus der ersten lernen, gute Ergebnisse für den Test auswählen und das Auswahlergebnis in der Prüfung überprüfen.

 
Der wichtigste fragliche Punkt ist das Lernen aus den neuesten Daten und das Testen mit älteren Daten. Dies ist in gewisser Weise vergleichbar mit einem Blick in die Zukunft: Die neuesten aktuellen Modelle enthalten etwas von früheren Modellen (die Marktteilnehmer haben schließlich ein Gedächtnis), aber in der umgekehrten Richtung ist es schwieriger, die Zukunft vorherzusagen. Ich denke, wenn man den Algorithmus auf kanonische Weise neu startet (Training auf alten Daten, Testen auf neuen Daten - das entspricht eher der Realität), wird das Ergebnis nicht so gut sein.
 
Stanislav Korotky:
Der wichtigste fragliche Punkt ist das Lernen aus den neuesten Daten und das Testen mit älteren Daten. Dies ist in gewisser Weise vergleichbar mit einem Blick in die Zukunft: Die neuesten aktuellen Modelle enthalten etwas von früheren Modellen (die Marktteilnehmer haben schließlich ein Gedächtnis), aber in der umgekehrten Richtung ist es schwieriger, die Zukunft vorherzusagen. Ich denke, wenn man den Algorithmus auf kanonische Weise neu startet (Training mit alten Daten, Test mit neuen Daten - das entspricht eher der Realität), ist das Ergebnis nicht so gut.

Soweit ich weiß, geht es bei dieser Methode nur um die Zeit der rohen Gewalt.

 
Aleksey Vyazmikin:

Soweit ich es verstanden habe, ist es bei dieser Methode nur eine Frage der Brute-Force-Zeit.

Das war mir nicht klar. Ich könnte mich irren, aber in den Einstellungen ist es eisern vorgeschrieben, im letzten Jahr zu trainieren und in den Vorjahren zu testen, beginnend mit 2015.

 
Stanislav Korotky:

Das war mir nicht klar. Ich könnte mich irren, aber in den Einstellungen ist es eisern vorgeschrieben, im letzten Jahr zu trainieren und in den vorangegangenen Jahren zu prüfen, beginnend mit 2015.

Es gibt also eine Brute-Force-Methode, deren Ziel es ist, im Jahr 2020 die Muster zu finden, die während des gesamten Zeitraums - seit 2015 - wirksam waren. Theoretisch kann es notwendig sein, mehr zu erzwingen, aber das Ziel wird erreicht werden, die andere Sache ist, dass es nicht klar ist, ob es ein Muster oder eine Anpassung ist, und ohne auch nur eine hypothetische Antwort auf diese Frage, ist es schwierig, eine Entscheidung über die Durchführbarkeit der Installation des TC auf der real....

 
Aleksey Vyazmikin:

Es gibt also ein Oversampling, dessen Zweck es ist, im Jahr 2020 die Muster zu finden, die während des gesamten Zeitraums - seit 2015 - in Kraft waren. Theoretisch kann es notwendig sein, mit roher Gewalt mehr, aber das Ziel erreicht werden, die andere Sache ist, dass es nicht klar ist, ob es ein Muster oder eine Anpassung ist, und ohne auch nur eine hypothetische Antwort auf diese Frage, ist es schwierig, eine Entscheidung über die Zweckmäßigkeit der Installation der TC auf der real.... machen

Es hängt davon ab, was man als Regelmäßigkeit ansieht, wenn es die Reihenfolge der Inkremente ist, die an die Zeit gebunden ist, ist es eine saisonale Regelmäßigkeit des Verhaltens der Inkremente, wenn ohne Bindung, dann die gleiche Abfolge der Inkremente mit einer gewissen Freiheit in der Genauigkeit.

Und es hängt davon ab, was als passend angesehen wird. Wenn es sich um wissentlich identische Reihen handelt, dann ist es eine Anpassung, aber der Zweck des Tests (egal von welcher Seite) ist es, das Ergebnis auf nicht identischen Gebieten zu überprüfen.

Und die Logik des Trainings auf der nahen Periode ist logisch, aber es ist dasselbe, wenn wir in der Tiefe der Geschichte testen, sollte das Ergebnis dasselbe sein, wenn wir in der Tiefe der Geschichte trainieren und in der nahen Periode testen.

Wir bestätigen nur die Hypothese, dass es Regelmäßigkeiten in den Test- und Trainingsdiagrammen gibt.