Diskussion zum Artikel "Fortschrittliches Resampling und Auswahl von CatBoost-Modellen durch die Brute-Force-Methode" - Seite 7

 
Maxim Dmitrievsky

In diesem Notizbuch gibt nur dieser Codeblock einen Fehler


pr = get_prices(look_back=LOOK_BACK)

pr = add_labels(pr, 10, 25)

rep = tester(pr, MARKUP)

plt.plot(rep)

plt.show()


ValueError: Ein Rahmen ohne definierten Index und einen Wert, der nicht in eine Serie umgewandelt werden kann, kann nicht gesetzt werden .

Was kann der Grund dafür sein?

 
Evgeni Gavrilovi:

In diesem Notizbuch gibt nur dieser Codeblock einen Fehler


pr = get_prices(look_back=LOOK_BACK)

pr = add_labels(pr, 10, 25)

rep = tester(pr, MARKUP)

plt.plot(rep)

plt.show()


ValueError: Kann keinen Rahmen ohne definierten Index und einen Wert, der nicht in eine Serie umgewandelt werden kann, setzen

Was kann der Grund dafür sein?

Datenrahmen ist leer

Prüfen Sie, ob die Anführungszeichen empfangen werden oder nicht

 
elibrarius:
Probieren Sie es aus. Es wird nicht lange dauern. Wäre es nicht interessant, dies in einem Experiment zu testen? Breiman hat es in seinem Zufallswald nicht gemacht.

Es ist langsam. Ich werde es später versuchen.

 
Maxim Dmitrievsky:

Es ist langsam. Ich werde es später versuchen.

Es wird interessant sein, das Ergebnis zu sehen. Ich denke, wir können den Test in zwei Hälften teilen, eine Hälfte für den Test und eine für die Prüfung. Oder ein paar Jahre hinzufügen.
 
Maxim Dmitrievsky:

Datenrahmen leer

prüfen, ob Angebote eingegangen sind oder nicht

das stimmt, ich habe nicht darauf geachtet, dass der Broker ein "m" am Ende des Eurobucks-Paares hat - EURUSDm.

 
elibrarius:
Es wird interessant sein, das Ergebnis zu sehen. Ich denke, wir können den Test in zwei Hälften teilen, eine Hälfte für den Test und die andere Hälfte für die Prüfung. Oder ein paar Jahre hinzufügen.

Ich habe so etwas schon einmal gemacht, ein Glas Holz. Es hat aber nichts Großartiges bewirkt.

Das bezweifle ich auch in diesem Fall. Aber ich werde es später überprüfen.

 
Maxim Dmitrievsky:

Ich habe so etwas schon einmal gemacht, ein Glas Holz. In der Tat, es hat nichts Wunderbares gegeben.

Ich bezweifle es auch in diesem Fall. Aber ich werde es später überprüfen.

Ich stimme zu, im Wald zunächst durchschnittlich die besten Ergebnisse. Aber es schadet nicht, zu überprüfen)

 
Valeriy Yastremskiy:

Ich stimme zu, im Wald zunächst durchschnittlich die besten Ergebnisse. Aber es schadet nicht zu überprüfen)

Nein, alle von ihnen.

Und es ist ein zufälliger Wald genannt, weil alle zufälligen Bäume summiert werden.
Für die beste würde nicht genannt werden zufällige Wald, sondern beste Wald. )))

 
elibrarius:

Nein, alle von ihnen.

Und er heißt Zufallswald, weil sich alle Zufallsbäume addieren.
Denn der beste würde als bester Wald bezeichnet werden, nicht als Zufallswald. )))

Offenbar haben wir unterschiedliche Vorstellungen von Random-Boosting. Beim Entscheidungsbaum geht es um ausgewählte Merkmale aus einer Zufallsmenge. Der Punkt ist, dass die Mengen zufällig sind, aber die Auswahl / Clustering in schlechte gute war ursprünglich da. Es ist wie das Werfen einer Nadel, das Messen von Winkeln und die Berechnung der Zahl Pi)

aus dem Wiki.

  1. Wir erstellen einenEntscheidungsbaum, der die Stichproben der gegebenen Teilstichprobe klassifiziert, und bei der Erstellung des nächsten Knotens des Baums wählen wir eine Reihe von Merkmalen aus, auf deren Grundlage die Partitionierung durchgeführt wird (nicht aus allenM Merkmalen , sondern nur ausm zufällig ausgewählten). Die Auswahl der besten dieserm Merkmale kann auf verschiedene Weise erfolgen. Der ursprüngliche Breiman-Code verwendet dasGini-Kriterium, das auch imCART-Entscheidungsbaum-Algorithmus verwendet wird. Einige Implementierungen des Algorithmus verwenden stattdessen dasKriterium des Informationsgewinns. [3]
 
Valeriy Yastremskiy:

Offenbar haben wir unterschiedliche Vorstellungen vom Zufallsbousting. Beim Decisive Tree geht es um ausgewählte Merkmale aus einer zufälligen Menge. Der Punkt ist, dass die Mengen zufällig sind, aber die Auswahl / Clustering in schlechte gute war ursprünglich da. Es ist, als würde man eine Nadel werfen, Winkel messen und die Zahl Pi berechnen.)

aus dem Wiki

  1. Erstellen wir einenEntscheidungsbaum, der die Proben der gegebenen Teilstichprobe klassifiziert, und wählen wir bei der Erstellung des nächsten Knotens des Baums eine Reihe von Merkmalen aus, auf deren Grundlage die Partitionierung durchgeführt wird (nicht aus allenM Merkmalen , sondern nur ausm zufällig ausgewählten). Die Auswahl der besten dieserm Merkmale kann auf verschiedene Weise erfolgen. Der ursprüngliche Breiman-Code verwendet dasGini-Kriterium, das auch imCART-Entscheidungsbaum-Algorithmus verwendet wird. Einige Implementierungen des Algorithmus verwenden stattdessen dasKriterium des Informationsgewinns. [3]

Ja, es gibt viele Bäume, aber jeder einzelne versucht, am besten auf verschiedenen Merkmalen zu lernen. Dies ist nicht dasselbe wie die Kombination mehrerer Forests (einschließlich schlechter Forests).