Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2649

 
Aleksey Vyazmikin #:

Gut, dass Sie es herausgefunden haben - ich habe es nicht gleich gemerkt, danke für die Aufklärung.

Aber dann stellt sich heraus, dass der Algorithmus in der ersten Phase Paare von Prädiktoren finden sollte, die sich besser in Boxen aufteilen lassen, und dann das "Peeling" auf sie anwenden sollte.

Nein, er funktioniert für eine beliebige Anzahl von Prädiktoren. Bei jedem Schritt wird ausgewählt, welcher Prädiktor und welcher Bereich (links oder rechts) optimal abzuschneiden ist. Herkömmliche Entscheidungsbäume tun dasselbe - bei jedem Schritt werden sowohl der Prädiktor als auch sein Schnittpunkt so gewählt, dass sie optimal sind, um zwei neue Kästchen zu erzeugen. Der einzige Unterschied bei PRIM besteht darin, dass bei jedem Schritt eine begrenzt kleine Scheibe abgeschnitten wird, was zu einem schrittweisen Prozess führt, daher das Wort Patient im Namen.

Ich persönlich finde eine andere Abwandlung des Standardansatzes interessant, bei der jedes Kästchen nicht in zwei, sondern in drei neue Kästchen zerlegt wird. Dazu werde ich irgendwann einmal etwas sagen.

 
Aleksey Nikolayev #:

Ich werde meine Gedanken dazu irgendwann einmal äußern.

Vielleicht ist es besser zu realisieren und zu testen
 
Aleksey Nikolayev #:

Nein, es funktioniert für eine beliebige Anzahl von Prädiktoren. Bei jedem Schritt wählt man aus, welcher Prädiktor und welcher Schnittpunkt (links oder rechts) optimal ist. Herkömmliche Entscheidungsbäume tun dasselbe - bei jedem Schritt werden sowohl der Prädiktor als auch sein Schnittpunkt so gewählt, dass sie optimal sind, um zwei neue Kästchen zu erzeugen. Der einzige Unterschied bei PRIM besteht darin, dass bei jedem Schritt eine begrenzt kleine Scheibe abgeschnitten wird, was zu einem schrittweisen Prozess führt, daher das Wort Patient im Namen.

Ich persönlich finde eine andere Abwandlung des Standardansatzes interessant, bei der jedes Kästchen nicht in zwei, sondern in drei neue Kästchen zerlegt wird. Ich werde bei Gelegenheit einige Überlegungen dazu anstellen.

https://xgboost.readthedocs.io/en/stable/tutorials/feature_interaction_constraint.html
 
Aleksey Nikolayev #:

Nein, es funktioniert für eine beliebige Anzahl von Prädiktoren. Bei jedem Schritt wird entschieden, welcher Prädiktor und welcher Schnittpunkt (links oder rechts) optimal ist. Herkömmliche Entscheidungsbäume tun dasselbe - bei jedem Schritt werden sowohl der Prädiktor als auch sein Schnittpunkt so gewählt, dass sie optimal sind und zwei neue Boxen entstehen.

Ich habe also nicht das Gegenteil behauptet - es funktioniert - es ist nur eine Frage der Implementierung - wenn man zwei Prädiktoren mit guten Grenzen willkürlich nimmt, wird die Box nicht herauskommen - das ist der Punkt! Deshalb bin ich davon ausgegangen, dass die paarweise Suche sofort erfolgt.

Aleksey Nikolayev #:

PRIM unterscheidet sich nur dadurch, dass bei jedem Schritt ein begrenzt kleines Stück abgeschnitten wird, was zu einem schrittweisen Prozess führt, daher das Wort Patient im Namen.

Abgeschnitten - was bedeutet das - ein kleiner Rest nach der Aufspaltung bedingt nahe der Wurzel des Baumes?

Aleksey Nikolayev #:

Ich persönlich finde eine andere Modifikation des Standardansatzes interessant, bei der jedes Kästchen nicht in zwei, sondern in drei neue Kästchen geteilt wird. Ich werde bei Gelegenheit einige Gedanken dazu äußern.

Warum nicht 5? :) Ich bin immer für Experimente zu haben!

 
mytarmailS #:
Vielleicht wäre eine Erkenntnis und ein Test besser

Ich glaube nicht, dass das passieren wird. Bis jetzt gibt es nur eine weitschweifige Annahme.

Angenommen, wir wissen von irgendwoher, dass die wichtige Regel A<x1<B ist, aber im Moment gibt es eine Regel a<x1<b, wobei a<A und B<b. Eine gute Regel erhält man in mindestens zwei Schritten, zum Beispiel 1) a<x1<B und 2) A<x1<B. In der Praxis kann dies bedeuten, dass ein Partitionierungsschritt für einen anderen Prädiktor versehentlich zwischen diesen beiden Schritten eingekeilt wird und diese wichtige Regel am Ende einfach nicht erscheint. Daher darf die Anzahl der Partitionierungsbrocken bei jedem Schritt nicht festgelegt werden, sondern muss aus Optimalitätsüberlegungen heraus bestimmt werden. In besonderen Fällen (fast wie bei Sinus in Kriegszeiten) kann ihre Anzahl dann gleich fünf sein.

 
Aleksey Vyazmikin #:

Abgeschnitten - was bedeutet das - ein kleiner Rest nach der konventionellen Spaltung nahe der Wurzel des Baumes?

Es gibt wahrscheinlich gar keine Idee, einen schönen Baum zu bauen - sie wollen nur ein "gutes Stück" abschneiden.) Ich stehe der Idee nahe, dass man lieber Stücke abschneiden sollte, die für den Handel geeignet sind, als so zu tun, als sei man ein Fliesenleger, der den ganzen Raum lückenlos pflastern muss. Dies steht ganz im Einklang mit dem alten Zitat "versuche nicht, die ganze Zeit auf dem Markt zu sein". Fälle, in denen die Prädiktoren nicht in "gute Stücke" fallen, werden einfach ignoriert, so dass die Bäume am Ende keinen großen Nutzen haben.

Ja, der Verzicht auf den Baum führt dazu, dass man sich mit möglichen Schnittpunkten von Boxen herumschlagen muss, aber wenn es funktionieren soll, sind Bäume nicht bedauernswert)

 
Maxim Dmitrievsky #:
h ttps:// xgboost.readthedocs.io/en/stable/tutorials/feature_interaction_constraint.html

Es scheint etwas Ernsteres zu sein als meine kleinen Experimente). Es hat etwas mit der Berücksichtigung der Abhängigkeitsstruktur zwischen Prädiktoren zu tun, die imVoraus bekannt ist.

 
Aleksey Nikolayev #:

Ich glaube nicht, dass es funktionieren wird. Bisher ist es nur eine weitschweifige Vermutung.

Angenommen, wir wissen von irgendwoher, dass die wichtige Regel A<x1<B ist, aber im Moment gibt es eine Regel a<x1<b, wobei a<A und B<b. Eine gute Regel erhält man in mindestens zwei Schritten, zum Beispiel 1) a<x1<B und 2) A<x1<B. In der Praxis kann dies bedeuten, dass ein Partitionierungsschritt für einen anderen Prädiktor versehentlich zwischen diesen beiden Schritten eingekeilt wird und diese wichtige Regel am Ende einfach nicht erscheint. Daher darf die Anzahl der Partitionierungsbrocken bei jedem Schritt nicht festgelegt werden, sondern muss aus Optimalitätsüberlegungen heraus bestimmt werden. In besonderen Fällen (fast wie bei Sinus in Kriegszeiten) kann ihre Anzahl dann gleich fünf sein.

Verwenden Sie die symbolische Regression, entwerfen Sie genau das, was Sie wollen, nicht das, was andere Algorithmen anbieten.

Sie kennen Rku, es gibt ein Paket, es gibt Beispiele, alles wurde schon vor und für uns gemacht.

 
Aleksey Nikolayev #:

Es scheint etwas Ernsteres zu sein als meine kleinen Experimente.) Es hat etwas mit der Berücksichtigung der Abhängigkeitsstruktur zwischen Prädiktoren zu tun, die imVoraus bekannt ist.

Wenn nur 1 und 2 interagieren können. Oder 3,4,5. Dann werden nach dem ersten Split, zum Beispiel auf 3, alle nachfolgenden Splits nur aus der Menge 3,4,5 bestehen.
Ich nehme an, dass einfach 2 Bäume aus den Mengen 1,2 und 3,4,5 gebildet werden. Wenn es 10 Mengen gibt, dann gibt es auch 10 Bäume. Etc.
 
Das ist aber ein Bousting. Dann der erste Baum auf einem Set. 2. Verfeinerungsbaum auf einem beliebigen anderen Set und so weiter.