Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1615
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Es geht nicht um die Schrumpfung, sondern um die Statistik des Prädiktorenverhaltens bei einer Stichprobe außerhalb einer Aufteilung - dies sollte die Zufälligkeit der Auswahl eines Prädiktorenwertes verringern.
Übrigens, macht AlgLib das Raster bei jedem Split oder einmal und verwendet dann dieses Raster? So wie ich es verstehe, geben die Entwickler von CatBoost an, dass das Netz einmal bei ihnen gemacht wird.
Es gibt keine Zufälligkeit. Für jeden Prädiktor wird die beste verfügbare Partition ausgewählt. Der Wald ist zufällig, wenn jeder Baum nicht mit allen Prädiktoren gefüttert wird, sondern zum Beispiel mit der Hälfte der zufällig ausgewählten Prädiktoren.
Es lernt einmal. Es findet keine Umschulung statt. Bei Bäumen/Wäldern scheint es überhaupt kein Umlernen zu geben, wahrscheinlich weil das Umlernen recht schnell geht.
Und warum das Netz? Bäume haben Knoten und Blätter.
Was mir übrigens an den Boostings nicht gefällt, ist, dass die empfohlene Baumtiefe 7-10 beträgt.
Das heißt, wenn wir 100 Prädiktoren haben und die Teilung dort auch in der Mitte jedes Prädiktors beginnt. Es ist sehr wahrscheinlich, dass wir 7 verschiedene Prädiktoren haben werden, die in der Mitte geteilt sind. Vielleicht teilen sich 1 oder 2 auf ein Viertel, unwahrscheinlich kleiner.
Oder arbeitet der Algorithmus bei Boosting-Algorithmen nicht mit halber Teilung, sondern in kleineren Stücken? Weiß das jemand?
Und wer nutzt welche Baumtiefe?
47 Minuten sind schade... um die Grundlagen zu hören, die meist bekannt sind. Nur eine spezifische Frage ist von Interesse. Wenn Sie es wissen - sagen Sie es mir)
47 Minuten sind schade... auf die Grundlagen zu hören, die zumeist bekannt sind. Nur eine spezifische Frage ist von Interesse. Wenn Sie es wissen, sagen Sie es mir.
Sie sind alle unterschiedlich konstruiert, man muss das Handbuch für jedes Gerät lesen.
es spielt keine Rolle, wenn Sie informative Chips haben, die für das Ziel relevant sind, dann funktioniert jede Methode
Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Boosting hat weniger Overfit, insgesamt +-
sie sind alle unterschiedlich aufgebaut, Sie müssen die Hilfe für jede
es spielt keine Rolle, wenn es informative Merkmale gibt, die für das Ziel relevant sind, dann funktioniert jede Methode
Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Beim Boosten gibt es weniger Überschneidungen, im Allgemeinen +-
sie sind alle unterschiedlich aufgebaut, Sie müssen die Hilfe für jede
es spielt keine Rolle, wenn es informative Merkmale gibt, die für das Ziel relevant sind, dann funktioniert jede Methode
Ich habe Forest mit Boosting bei ähnlichen Merkmalen verglichen. Beim Boosten gibt es weniger Überschneidungen, im Allgemeinen +-
Welche Tiefe haben Sie für das Boosten eingestellt?
2 bis 10, je größer die Tiefe, desto besser die Passform
optimal 3-7
kann auch die Gradientenstufe geändert werden. Im Allgemeinen spielt das keine Rolle, die Ergebnisse sind weniger Streuung, weniger Versatz, weniger Signale usw... und das Durchschnittsbild bleibt erhalten. Das ist eine Frage der Optimierung, das hat nichts mit Qualität zu tun.
Max, ich möchte dir für das Video über natürliche Neuronen danken, aber dieses Video ist nicht so gut. Es geht darum, dass ich eine Theorie der Umschulung habe, über die ich schon lange nachdenke und die ich für mich ganz gut aufgebaut habe. Ich bin mir sicher, dass die Mitarbeiter von Yandex daran interessiert wären, es zu hören. Äh... Ich wünschte, ich könnte die Kraft aufbringen, ein Video aufzunehmen. Ich bin immer betrunken oder lustig. Ich weiß nicht, ob das stimmt :-(
))) sollten Regelmäßigkeiten durch statistische Analysen gesucht werden, anstatt Neuronen zu quälen
In meinem vorletzten Artikel habe ich zum Beispiel die saisonalen Schwankungen des EURUSD für 10 Jahre, aufgeschlüsselt nach Monaten, dargestellt. Dieses Jahr wiederholt sich das Ganze. April-Mai werden die interessantesten Monate sein (auf kurze Sicht)))) Regelmäßigkeiten sollten durch statistische Analysen gesucht werden, nicht durch das Quälen von Neuronen