Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1255

 
Maxim Dmitrievsky:

Wenn der Markt mehr oder weniger stabil ist, ein Trend oder etwas, dann wird diese Zeit arbeiten, zumindest für mich... die Muster sind die gleichen, warum nicht?

ich habe die Lernkurve auf eine Taste vereinfacht und brauche keine Prädiktoren )) es ist eine lustig aussehende Maschine, ich werde sie vielleicht als ein Exponat des menschlichen Wahnsinns verkaufen

Nun, ich habe mich zunächst nicht um die Prädiktoren gekümmert. Ich habe es aber nicht einmal mit einer Taste versucht. Mit einer Taste habe ich nichts als die gleiche Optimierung, nur im Profil. Wie man das mit einer Taste umgehen kann, ist ein Rätsel).

 
Yuriy Asaulenko:

Nun, ich habe mich zunächst nicht um die Prädiktoren gekümmert. Aber ich habe es noch nicht einmal mit einer Taste versucht. Ich kann nichts mit einer Taste machen, außer die gleiche Optimierung, nur im Profil. Wie man das mit einer Taste umgehen kann, ist ein Rätsel).

Ich suche nur nach dem besten Fehler in einem Testmuster, das ist alles.

Optimierer Optimierer aha
 
Maxim Dmitrievsky:

Monte Carlo und Suche nach dem besten Fehler in der Teststichprobe, das war's.

Ich kann nicht ohne Monte Carlo auskommen.) Aber der beste Fehler ist nicht so einfach. Optimalität ist eine Sache vieler Faktoren und mehrdeutig, und was das Optimum ist, ist alles andere als offensichtlich.

 
Yuriy Asaulenko:

Ohne Monte Carlo geht es nicht.) Und so einfach ist es mit dem besten Fehler nicht. Optimalität ist eine multifaktorielle und mehrdeutige Sache, und was das Optimum ist, ist alles andere als offensichtlich.

Verstehe. Ich nehme jede periodische Gleichung, bei der das Optimum offensichtlich ist und das System zumindest für immer Geld damit verdienen wird).

Es gibt kein Optimum auf dem Markt, nur lokale

 
 

Theorie auf Bäumen lesen.
Ich denke über Beschneidung nach (Beschneidung).

Es ist möglich, die folgende einfache Regel anzuwenden: Bilden Sie einen Baum, schneiden Sie die Zweige ab oder ersetzen Sie sie durch einen Teilbaum, die nicht zu einer Fehlerzunahme führen.

Vielleicht ist es einfacher und schneller, einen Baum zu erstellen, ohne ein Blatt zu beschneiden, es sei denn, Sie finden eine Unterteilung, die den Fehler um mindestens einen Wert reduziert, z. B. 0,1-0,5 %?
Das Ergebnis dürfte dasselbe sein, nur schneller.

Oder ist es möglich, dass nach ein paar Abzweigungen mit einer Modellverbesserung von 0,0001% eine gefunden wird, die das Modell auf einmal um 1-5% verbessert?

 
Maxim Dmitrievsky:

Wie viel schneller? Es ist bereits sehr schnell.

Und Sie werden Ihr eigenes Boosting bauen, nicht wahr?

Die Bayes'schen Methoden sind langsam und nicht für große Stichproben geeignet, aber sie funktionieren anders und werden nicht von vornherein umtrainiert. Jedes Modell hat seine eigenen Besonderheiten. Ich bin begeistert von Bayesian, eine großartige Möglichkeit, TC ohne Umschulung zu optimieren.

Gute Aussichten - sie können aufgerüstet werden, anstatt umgeschult zu werden

Wenn Sie eine Million Strings mit 200-1000 Prädiktoren haben, ist das wahrscheinlich eine lange Zeit...
Beim Beschneiden muss der Baum bis zum Ende aufgebaut und dann beschnitten werden.
Und mit dem Stoppen der Verzweigung durch die Verbesserung des Minimalfehlers, denke ich, dass es erhebliche Einsparungen mit einem ähnlichen Ergebnis geben würde. In xgboost wird der Parameter gamma genannt, aber es scheint kein Pruning zu geben. Offenbar haben die Entwickler auch beschlossen, dass diese Dinge austauschbar sind.
 
elibrarius:
Nun, wenn eine Million Minuten Zeilen mit 200-1000 Prädiktoren, es ist wahrscheinlich lang...
Und beim Beschneiden muss man den Baum bis zum Ende aufbauen und ihn dann beschneiden.
Und mit dem Stoppen der Verzweigung durch die Verbesserung des Minimalfehlers wird es meiner Meinung nach zu erheblichen Einsparungen mit einem ähnlichen Ergebnis kommen. In xgboost lautet der Name des Parameters gamma, aber es scheint kein Pruning zu geben. Offenbar haben die Entwickler auch beschlossen, dass diese Dinge austauschbar sind.

Nun, sie wissen, wie man es macht, es gibt Teams von Spezialisten, die an den Boosts arbeiten und sie testen

die Katbüste scheint gut zu funktionieren, sie ist schnell, die Bäume sind anfangs flach

Millionen von Daten in Forex... Ich bezweifle, dass das notwendig ist.

 
Übrigens habe ich mir eine Situation ausgedacht, in der die erste Division den Fehler kaum verbessert und die zweite Division ihn um 100% verbessert.

4 Sektoren mit je 10 Punkten. 1 Teilung entweder entlang der x-Achse oder der y-Achse. Der Fehler wird sich dadurch kaum verbessern, er wird bei etwa 50 % bleiben. Zum Beispiel, zuerst in der Mitte vertikal gespalten. Eine zweite horizontale Teilung in der Mitte führt zu einer sehr starken Verbesserung des Fehlers (von 50 % auf Null).
Aber das ist eine künstlich geschaffene Situation, so etwas gibt es im Leben nicht.
 
Die Stichprobengröße ist nie groß. Wenn N zu klein ist, um eine ausreichend genaue Schätzung zu erhalten, müssen Sie mehr Daten sammeln (oder mehr Annahmen treffen). Aber sobald N "groß genug" ist, kann man damit beginnen, die Daten zu unterteilen, um mehr zu erfahren (z. B. kann man bei einer öffentlichen Meinungsumfrage, sobald man eine gute Schätzung für das gesamte Land hat, Schätzungen für Männer und Frauen, Nord- und Südländer, verschiedene Altersgruppen usw. vornehmen). N ist nie genug, denn wenn es "genug" wäre, wären Sie schon beim nächsten Problem, für das Sie mehr Daten benötigen.
Grund der Beschwerde: