Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2255

 
elibrarius:
Eine seltene Aktivierung in der Prüfung bedeutet eher, dass sich der Markt verändert hat und das, was in der Ausbildung oft passiert ist, nicht mehr stattfindet. Und das bedeutet nicht unbedingt, dass es dort nicht auch viele Aktivierungen des Blattes gegeben hat.

Ja, ich stimme zu, dass es auch einen Marktänderungseffekt gibt.

Schauen wir uns Train an.

Die Situation ist etwas besser, aber es gibt auch Blätter mit einer seltenen Anzahl von Aktivierungen.

Beachten Sie, wie das Lernen abläuft - ein Baum mit einer großen Gewichtung wird aufgebaut - bedingt erfolgreich, und dann ein Satz mit kleinen Gewichten, und dann wieder groß - so ein Kuchen, und wenn Sie die Adern mit kleinen Gewichten entfernen, dann erhalten Sie eine Verschiebung der Wahrscheinlichkeit.

 
Aleksey Vyazmikin:

Ja, ich stimme zu, dass es auch eine marktverändernde Wirkung gibt.

Schauen wir uns Train an.

Die Situation ist etwas besser, aber das gilt auch für die Blätter mit einer geringen Anzahl von Aktivierungen.

Beachten Sie, wie das Lernen abläuft - ein Baum mit großen Gewichten wird aufgebaut - bedingt erfolgreich, und dann ein Satz mit kleinen Gewichten, und dann wieder groß - so ein Kuchen, und wenn Sie die Adern mit kleinen Gewichten entfernen, und Sie erhalten eine Verschiebung der Wahrscheinlichkeit.

Ich frage mich, was passiert, wenn man ein neues Modell mit diesem Diagramm trainiert?

Im Allgemeinen besteht die Idee darin, das zweite Modell auf den "Innenseiten" des ersten Modells zu trainieren.

 
Maxim Dmitrievsky:

Warum fummeln Sie am Vergaser herum? Sie werden damit nichts verbessern.

Wenn Sie das Problem verstanden haben, können Sie nach einer Lösung suchen. Natürlich haben diese Bäume auch Nachteile.

Aber ich stimme zu, dass ich den CatBoost-Code nicht entziffern kann, um ihn zu bearbeiten, leider.

Es gibt jedoch eine Möglichkeit, das Modell zu beeinflussen, vielleicht wird die Nullstellung seltener Beispiele in den Blättern einen positiven Effekt haben, aber es ist dann wünschenswert, die Koeffizienten der Blätter neu zu berechnen - damit ist es komplizierter, aber global lösbar.

Maxim Dmitrievsky:

Nehmen wir ein einfaches neuronales Netz ohne Blätter. Es funktioniert bei neuen Daten genauso schlecht wie beim Boosten. Was sagt Ihnen das?

Ich stimme zu, dass es auch hier zu Übertrainingseffekten kommen wird, die aber anderer Natur sind - die Frage ist, welche dieser Effekte genauer erkannt und bewertet werden können und welche leichter zu bewältigen sind.

Maxim Dmitrievsky:

Es gibt ein ausgezeichnetes SHAP-Tool für die Auswahl und Interpretation von Merkmalen, aber es ist in Python geschrieben. Es ist schon lange alles für Sie getan worden).

In der Tat sprechen die meisten dieser Methoden nur über die Verwendung von Prädiktoren in Modellen, ohne diese zu bewerten. Sie brauchen Schätzungen von Prädiktoren, die unabhängig vom Modell sind - ich arbeite daran, es gibt bescheidene positive Ergebnisse.

Natürlich möchte ich mit vorgefertigten Lösungen in Python oder R herumspielen, aber ich bezweifle, dass ich mit der neuen Syntax zurechtkomme.

 
mytarmailS:

Ich frage mich, was passiert, wenn man ein neues Modell mit diesem Diagramm trainiert?

Eigentlich geht es darum, ein zweites Modell auf den "Innereien" des ersten Modells zu trainieren.

Dieses Modell im Beispiel stammt aus alten Ablagerungen, jetzt habe ich 60k Blätter in den Modellen, was natürlich eine Menge ist, um eine Probe zu bilden. Vielleicht sollte man versuchen, die Anzahl der Bäume deutlich zu reduzieren. Ich stelle jedoch fest, dass ich die Blätter von CatBoost ausgewertet habe und dass sie im Vergleich zu den Blättern eines genetischen Baums in ihren individuellen Eigenschaften sehr schwach sind.

An den Blättern (Tausende von Blättern) des von mir trainierten genetischen Baums kann die metrische Leistung verbessert werden.

 
Aleksey Vyazmikin:

Wenn Sie das Problem verstanden haben, können Sie nach einer Lösung suchen. Solche Bäume haben natürlich Nachteile.

Aber ich stimme zu, dass ich den CatBoost-Code nicht entziffern kann, um ihn zu bearbeiten, leider.

Es besteht jedoch die Möglichkeit, das Modell zu beeinflussen. Vielleicht wirkt sich das Weglassen der seltenen Beispiele in den Blättern positiv aus, aber es ist wünschenswert, die Blattkoeffizienten dann neu zu gewichten - das ist schwieriger, aber global lösbar.

Ich stimme zu, dass es auch hier zu Übertrainingseffekten kommen wird, die aber anderer Natur sind - die Frage ist, welche dieser Effekte genauer identifiziert und bewertet werden können und welche leichter zu bewältigen sind.

In der Tat sprechen die meisten dieser Methoden nur über die Verwendung von Prädiktoren in Modellen, nehmen aber selbst keine Bewertung vor. Wir brauchen Schätzungen von Prädiktoren, die unabhängig vom Modell sind - ich arbeite daran, es gibt bescheidene positive Ergebnisse.

Natürlich möchte ich fertige Lösungen in Python oder R entwickeln, aber ich habe Zweifel, ob ich mit der neuen Syntax zurechtkomme.

Dort werden die Auswirkungen der Merkmale auf das Verhalten eines bestimmten Modells bewertet.

 
Aleksey Vyazmikin:

Wenn Sie das Problem verstanden haben, können Sie nach einer Lösung suchen. Solche Bäume haben natürlich Nachteile.

Aber ich stimme zu, dass ich den CatBoost-Code nicht entziffern kann, um ihn zu bearbeiten, leider.

Es besteht jedoch die Möglichkeit, das Modell zu beeinflussen. Vielleicht wirkt sich das Weglassen der seltenen Beispiele in den Blättern positiv aus, aber es ist wünschenswert, die Blattkoeffizienten dann neu zu gewichten - das ist schwieriger, aber global lösbar.

Ich stimme zu, dass es auch hier zu Übertrainingseffekten kommen wird, die jedoch anderer Natur sind - die Frage ist, welche dieser Effekte genauer identifiziert und bewertet werden können und welche leichter zu bewältigen sind.

In der Tat sprechen die meisten dieser Methoden nur über die Verwendung von Prädiktoren in Modellen, nehmen aber selbst keine Bewertung dieser Faktoren vor. Wir brauchen Schätzungen von Prädiktoren, die unabhängig vom Modell sind - ich arbeite daran, es gibt bescheidene positive Ergebnisse.

Natürlich möchte ich fertige Lösungen in Python oder R entwickeln, aber ich habe Zweifel, ob ich mit der neuen Syntax zurechtkomme.

Ich bin zu dem Schluss gekommen, dass es am besten ist, immer nur 1 Stück hinzuzufügen (oder 1 Stück zu entfernen). Hier ist meine Recherche. Ich nehme an, Sie haben es schon gesehen.

Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
 
Maxim Dmitrievsky:

es wird die Auswirkung der Merkmale auf das Verhalten eines bestimmten Modells bewertet

Das ist es, was ich meine, die Bewertung geht durch das resultierende Modell.

 
elibrarius:

Er kam zu dem Schluss, dass es am besten ist, immer nur 1 Element hinzuzufügen (oder 1 Element zu entfernen). Hier ist meine Recherche. Sie haben es wahrscheinlich schon gesehen.

Ich habe es noch nie gesehen - ich habe es nachgeschlagen - und stimme im Allgemeinen zu, dass die tatsächliche Wirkung durch Entfernung erzielt werden kann. CatBoost verfügt über eine Methode zur Entfernung des Prädiktors und zur Neugewichtung des Modells ohne ihn, aber damit habe ich mich noch nicht beschäftigt. Bislang habe ich mich darauf beschränkt, Prädiktoren hinzuzufügen und zu entfernen, aber nicht nur einen, sondern in Gruppen.

 
Aleksey Vyazmikin:

Das ist es, was ich meine, die Bewertung geht durch das resultierende Modell.

und das ist gut so

können Sie sehen, welche Merkmale in den neuen Daten fehlerhaft sind

 

Ich weiß nicht... vielleicht ist es meine Erfahrung oder vielleicht ist es mein Alkoholkonsum...)

...aber ich glaube, Sie leiden unter...)