Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1615

 
Aleksey Vyazmikin:

Es geht nicht um die Schrumpfung, sondern um die Statistik des Prädiktorenverhaltens bei einer Stichprobe außerhalb einer Aufteilung - dies sollte die Zufälligkeit der Auswahl eines Prädiktorenwertes verringern.

Übrigens, macht AlgLib das Raster bei jedem Split oder einmal und verwendet dann dieses Raster? So wie ich es verstehe, geben die Entwickler von CatBoost an, dass das Netz einmal bei ihnen gemacht wird.

Es gibt keine Zufälligkeit. Für jeden Prädiktor wird die beste verfügbare Partition ausgewählt. Der Wald ist zufällig, wenn jeder Baum nicht mit allen Prädiktoren gefüttert wird, sondern zum Beispiel mit der Hälfte der zufällig ausgewählten Prädiktoren.

Es lernt einmal. Es findet keine Umschulung statt. Bei Bäumen/Wäldern scheint es überhaupt kein Umlernen zu geben, wahrscheinlich weil das Umlernen recht schnell geht.
Und warum das Netz? Bäume haben Knoten und Blätter.

 
elibrarius:
Was mir übrigens an den Boostings nicht gefällt, ist, dass die empfohlene Baumtiefe 7-10 beträgt.
Das heißt, wenn wir 100 Prädiktoren haben und die Teilung dort auch in der Mitte jedes Prädiktors beginnt. Es ist sehr wahrscheinlich, dass wir 7 verschiedene Prädiktoren haben werden, die in der Mitte geteilt sind. Vielleicht teilen sich 1 oder 2 auf ein Viertel, unwahrscheinlich kleiner.
Oder arbeitet der Algorithmus bei Boosting-Algorithmen nicht mit halber Teilung, sondern in kleineren Stücken? Weiß das jemand?
Und wer nutzt welche Baumtiefe?


 
Maxim Dmitrievsky:


47 Minuten sind schade... um die Grundlagen zu hören, die meist bekannt sind. Nur eine spezifische Frage ist von Interesse. Wenn Sie es wissen - sagen Sie es mir)

 
elibrarius:

47 Minuten sind schade... auf die Grundlagen zu hören, die zumeist bekannt sind. Nur eine spezifische Frage ist von Interesse. Wenn Sie es wissen, sagen Sie es mir.

Sie sind alle unterschiedlich konstruiert, man muss das Handbuch für jedes Gerät lesen.

es spielt keine Rolle, wenn Sie informative Chips haben, die für das Ziel relevant sind, dann funktioniert jede Methode

Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Boosting hat weniger Overfit, insgesamt +-

 
Maxim Dmitrievsky:

sie sind alle unterschiedlich aufgebaut, Sie müssen die Hilfe für jede

es spielt keine Rolle, wenn es informative Merkmale gibt, die für das Ziel relevant sind, dann funktioniert jede Methode

Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Beim Boosten gibt es weniger Überschneidungen, im Allgemeinen +-

Auf welche Tiefe haben Sie die Verstärkung eingestellt?
 
Maxim Dmitrievsky:

sie sind alle unterschiedlich aufgebaut, Sie müssen die Hilfe für jede

es spielt keine Rolle, wenn es informative Merkmale gibt, die für das Ziel relevant sind, dann funktioniert jede Methode

Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Beim Boosten gibt es weniger Überschneidungen, im Allgemeinen +-

Das ist es, was ich meine. Wenn die Eingaben zweckmäßig sind, funktioniert jede Methode. Das wollte ich überprüfen, denn meine Eingaben sind wirklich gut. Aber nur Reshetovs Optimierer beweist dies, und wie Sie wissen, reicht ein Experte nicht aus, um eine subjektive Bewertung vorzunehmen. Es geht nicht um die Methode, jede der Methoden erfordert nur eine bestimmte Anzahl von Merkmalen (Max, das ist das erste Mal, dass ich dieses Wort deinetwegen verwende), manche brauchen viel davon, manche wenig, aber im Allgemeinen, wenn die Eingabedaten die Ausgangsvariable erklären, dann funktioniert jede Methode. Und ich denke, die Ergebnisse werden ähnlich ausfallen. Ich wünschte, ich könnte meine Eingaben in anderen Systemen als Reshetov verwenden. Es ist notwendig, zum Forum der Programmierer zu gehen, ich weiß nicht, wohin ich gehen soll :-(.
 
elibrarius:
Welche Tiefe haben Sie für das Boosten eingestellt?

2 bis 10, je größer die Tiefe, desto besser die Passform

optimal 3-7

kann auch die Gradientenstufe geändert werden. Im Allgemeinen spielt das keine Rolle, die Ergebnisse sind weniger Streuung, weniger Versatz, weniger Signale usw... und das Durchschnittsbild bleibt erhalten. Das ist eine Frage der Optimierung, das hat nichts mit Qualität zu tun.


 
Max, ehrlich gesagt, ich danke dir für das Video über das natürliche Neuron, aber dieses Video ist nicht sehr gut. Die Sache ist die, dass ich eine Theorie der Umschulung habe, über die ich schon lange nachdenke und die ich für mich ganz gut aufgebaut habe. Ich bin mir sicher, dass die Mitarbeiter von Yandex daran interessiert wären, es zu hören. Äh... Ich wünschte, ich könnte die Kraft aufbringen, ein Video aufzunehmen. Ich bin immer betrunken oder lustig. Ich weiß nicht, ob das stimmt :-(
 
Mihail Marchukajtes:
Max, ich möchte dir für das Video über natürliche Neuronen danken, aber dieses Video ist nicht so gut. Es geht darum, dass ich eine Theorie der Umschulung habe, über die ich schon lange nachdenke und die ich für mich ganz gut aufgebaut habe. Ich bin mir sicher, dass die Mitarbeiter von Yandex daran interessiert wären, es zu hören. Äh... Ich wünschte, ich könnte die Kraft aufbringen, ein Video aufzunehmen. Ich bin immer betrunken oder lustig. Ich weiß nicht, ob das stimmt :-(

))) sollten Regelmäßigkeiten durch statistische Analysen gesucht werden, anstatt Neuronen zu quälen

In meinem vorletzten Artikel habe ich zum Beispiel die saisonalen Schwankungen des EURUSD für 10 Jahre, aufgeschlüsselt nach Monaten, dargestellt. Dieses Jahr wiederholt sich das Ganze. April-Mai werden die interessantesten Monate sein (auf kurze Sicht)
 
Maxim Dmitrievsky:

))) Regelmäßigkeiten sollten durch statistische Analysen gesucht werden, nicht durch das Quälen von Neuronen

Das ist es, was ich meine. Bevor ich JPrediction bemühe, lasse ich nur 150 Stücke aus 6000 Tausend Spalten übrig, die statistisch signifikant sind, und erst dann suche ich nach dem berüchtigten Gesetz, das den Output beschreibt. Die Anzahl der Spalten sollte theoretisch doppelt so groß sein wie die Anzahl der Tabellenzeilen, damit der Algorithmus genügend Daten zur Auswahl hat. Infolgedessen lässt der Optimierer von den 150 von mir vorgeschlagenen Stücken 5 bis 10 übrig, um das endgültige Modell zu bilden.
Grund der Beschwerde: