Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1301

 
Aleksey Vyazmikin:

Beeinflusst die Modellbewertung die Leistung des Modells nicht, wenn es auf eine unbekannte Stichprobe angewendet wird?

Was machst du da, baust du einen Haufen verschiedener Modelle und überprüfst, welches davon am besten funktioniert?

Was hat das mit "Blättern" und der Auswahl der besten Blätter usw. zu tun?

Ich versuche nur zu verstehen, worüber Sie schreiben.

oder entspricht jede Zeile dort einem Blatt
 
Maxim Dmitrievsky:

Was machen Sie? Bauen Sie eine Reihe verschiedener Modelle und prüfen, welches am besten funktioniert?

Was hat das mit "Blättern" und der Auswahl der besten Blätter usw. zu tun?

Ich versuche nur zu verstehen, was Sie von Zeit zu Zeit schreiben.

Anscheinend ging es in dem Gespräch um die automatische Auswahl eines Modells, und ich habe erklärt, dass die interessanten Modelle auf zwei Arten ausgewählt werden können: durch ein bekanntes Kriterium und eine Formel (so wie ich es jetzt mache - 3 letzte Spalten werden für jede Stichprobe ausgefüllt, und für jede Stichprobe wird eine Tabelle gebildet, wenn 3 Filterspalten übereinstimmen, wird das Modell ausgewählt), oder man kann maschinelles Lernen verwenden, wenn man weiß, was man von dem Modell in einer unabhängigen Stichprobe will, aber nicht weiß, wie man es erreichen kann. Für den zweiten Weg werden also verschiedene metrische Indikatoren des Modells zu Prädiktoren und das Modell wird auf ihnen trainiert, das durch MO geeignete Modelle aus ähnlichen Daten auswählt. Ich hatte in jenem Jahr eine ähnliche Erfahrung mit der Ausbildung gemacht, und sie zeigte positive Ergebnisse, in Bezug auf die Genauigkeit war sie gut, aber nicht so gut in Bezug auf die Vollständigkeit, dann entschied ich, dass es uns an Vielfalt in der Stichprobe mangelte und verschob die Arbeit auf bessere Zeiten. Inzwischen gibt es viele verschiedene Stichproben, und es ist möglich, diese Arbeit wieder aufzugreifen. Der Grundgedanke besteht nicht darin, den Besten aus dem verfügbaren Pool auszuwählen, sondern den Besten nach absoluten Kriterien, sei es MO oder fester Index, auszuwählen.

Die Blätter werden bei ausgewählten Modellen verarbeitet.

Jede Zeile ist ein eigenes Modell.
 
Aleksey Vyazmikin:

Ich habe erklärt, dass interessante Modelle auf zwei Arten ausgewählt werden können: durch bekannte Kriterien und Formeln (so wie ich es jetzt mache - die letzten drei Spalten werden für jede Stichprobe ausgefüllt und für jede Stichprobe wird eine solche Tabelle erstellt, wenn die drei Filterspalten übereinstimmen, wird das Modell ausgewählt) oder durch maschinelles Lernen, wenn man weiß, was man vom Modell bei der Arbeit an einer unabhängigen Stichprobe erwartet, aber nicht weiß, wie man es erreichen kann. Für den zweiten Weg werden also verschiedene metrische Indikatoren des Modells zu Prädiktoren und das Modell wird auf ihnen trainiert, das durch MO geeignete Modelle aus ähnlichen Daten auswählt. Ich hatte in jenem Jahr eine ähnliche Erfahrung mit der Ausbildung gemacht, und sie zeigte positive Ergebnisse, in Bezug auf die Genauigkeit war sie gut, aber nicht so gut in Bezug auf die Vollständigkeit, dann entschied ich, dass es uns an Vielfalt in der Stichprobe mangelte und verschob die Arbeit auf bessere Zeiten. Inzwischen gibt es viele verschiedene Stichproben, und es ist möglich, diese Arbeit wieder aufzugreifen. Der Grundgedanke besteht nicht darin, den Besten aus dem verfügbaren Pool auszuwählen, sondern den Besten nach absoluten Kriterien, sei es MO oder fester Index.

Die Blätter arbeiten bereits mit den ausgewählten Modellen.

Man nimmt also n-Modelle (wie in der Datei), gibt ihre Metriken als Prädiktoren für den NS ein, und was kommt dann heraus?

einige Schätzungen aus der Erfahrung? mit solchen Indikatoren wird das Modell funktionieren, aber nicht mit diesen Indikatoren

Und dann filtern Sie neue Modelle durch dieses Material? So wie der NS die MI-Modelle von selbst auswählt?

 
Maxim Dmitrievsky:

Das heißt, man nimmt dann n-Modelle (wie in der Datei), gibt ihre Metriken als Prädiktoren für die NS ein, und was kommt dann heraus?

einige Schätzungen aus der Erfahrung? wie mit solchen Indikatoren wird das Modell funktionieren, aber nicht mit solchen?

Und dann filtern Sie neue Modelle durch dieses Material? So wie der NS die MI-Modelle von selbst auswählt?

Bei meinen Experimenten habe ich ähnliche Metriken für die Teststichprobe verwendet und das Ergebnis der Teststichprobe (unabhängig vom Training) in die Zielstichprobe übernommen. Die Zielmetriken waren Gewinn und Drawdown (getrennt für Kauf- und Verkaufstransaktionen) und etwas anderes aus den Metriken des Modells selbst - ich erinnere mich nicht mehr genau. Jetzt muss ich die Metriken aus einer Trainingsstichprobe zu den Daten der Teststichprobe hinzufügen (damals wusste ich noch nicht, dass die Ergebnisse für Catbust signifikant unterschiedlich sein können) und ich muss noch mit der Zielstichprobe experimentieren.

Das resultierende Modell wurde mit Ergebnissen aus anderen Stichproben mit Modellen gefüttert, das Hauptergebnis war dann eine gute Filterung von unrentablen Modellen.
 
Aleksey Vyazmikin:

Bei meinen Experimenten habe ich ähnliche Metriken für die Teststichprobe verwendet und das Ergebnis der Teststichprobe (unabhängig vom Training) in die Zielstichprobe übernommen. Das Ziel war der Gewinn, der Drawdown (getrennt für Kauf- und Verkaufstransaktionen) und etwas anderes aus dem Modell selbst, ich weiß es nicht mehr genau. Jetzt muss ich zu den Daten der Teststichprobe die Metriken aus der Trainingsstichprobe hinzufügen (damals wusste ich nicht, dass die Ergebnisse für Catbust signifikant unterschiedlich sein können) und ich muss mehr mit dem Ziel experimentieren.

Das ist eine sehr merkwürdige, verzierte Lösung, ich habe so etwas noch nie gesehen und kann nichts dazu sagen.

aber wenn es gut funktioniert
 
Maxim Dmitrievsky:

eine sehr merkwürdige verschnörkelte Lösung, ich habe so etwas noch nie gesehen und finde es schwierig, etwas dazu zu sagen

aber wenn es funktioniert, gut

Die Idee ist, dass man durch die Struktur des Modells, sein Verhalten bei der Test- und Trainingsstichprobe, bestimmte Erwartungen an das Verhalten bei der realen Arbeit festlegen kann.

Dies ist eine sehr interessante Richtung, die jedoch Zeit und Ressourcen erfordert. Andererseits kann man gemeinsam Prädiktoren entwickeln und offen austauschen.

Wenn man anhand eines Modells nichts über seine künftige Leistung sagen kann, ist das alles Zeitverschwendung - eine Frage des Zufalls...

 
Aleksey Vyazmikin:

Die Idee ist, dass man durch die Struktur des Modells, sein Verhalten bei der Test- und Trainingsstichprobe, bestimmte Erwartungen an das Verhalten bei der realen Arbeit festlegen kann.

Dies ist eine sehr interessante Richtung, die jedoch Zeit und Ressourcen erfordert. Andererseits kann man gemeinsam Prädiktoren entwickeln und offen austauschen.

Wenn das Modell nichts über die künftige Leistung aussagen kann, dann ist die gesamte MO reine Zeitverschwendung - eine Frage des Zufalls...

Im Laufe der Zeit nimmt die Streuung der Ergebnisse zu, dies muss berücksichtigt werden. Wenn das Modell bei neuen Geschäften sofort bricht, dann ist es nur dann passend, ansonsten kann man versuchen, es nachzuspannen. Der einfachste Weg zur Verbesserung ist die Regularisierung (Gradientenschritt in katbust) oder einfach keine Anpassung.

Schauen Sie sich an, wie die Leute handeln - alles Mögliche an Martingal-Kram. Das MoD bietet bereits eine Art Vorteil.

Ich schreibe nicht über komplexe Bayes'sche Schätzungsmodelle, weil ich selbst noch nicht herausgefunden habe, wie man damit arbeitet.
 
Maxim Dmitrievsky:

Im Laufe der Zeit nimmt die Streuung der Ergebnisse zu, dies muss berücksichtigt werden. Wenn das Muster bei neuen Geschäften sofort durchbrochen wird, müssen Sie eine Feinabstimmung vornehmen, andernfalls können Sie versuchen, weiterzumachen.

Ansonsten beobachten Sie, wie die Leute handeln - all das Martingal-Zeug. MO bietet bereits einen gewissen Vorteil

Gestern habe ich gezeigt, dass Catbust Rauschen in den Blättern (binären Bäumen) erzeugt, das entfernt werden kann und das Modell verbessert. Ich habe ein wenig in diese Richtung experimentiert und die Filterung verstärkt. Dabei habe ich festgestellt, dass ab einem bestimmten Schwellenwert etwas Paradoxes passiert: Die Verbesserungen hören bei der unabhängigen Stichprobe auf, gehen aber bei der Test- und Trainingsstichprobe weiter. D.h. in der Realität stellt sich heraus, dass das Modell (bei einer unabhängigen Stichprobe aus dem Training) weiter funktioniert, indem es auf Verbindungen mit niedrigen Gewichten, eigentlich Fittings, rollt, und dann stellt sich die Frage, dass entweder die Gewichte falsch verteilt sind oder das Modell übertrainiert ist und zufällig auf weißem Rauschen arbeitet (also nicht genau Rauschen, auf weniger signifikanten Indikatoren von Binärbäumen). Ich denke, es ist auch möglich, anhand einer kurzen Stichprobe zu sehen, woher diese Zusammenhänge kommen, und ihre Bedeutung herauszufinden.

 
Aleksey Vyazmikin:

Gestern habe ich gezeigt, dass Catbust Rauschen in den Blättern (binären Bäumen) erzeugt, das entfernt werden kann und das Modell verbessert. Ich habe ein wenig in diese Richtung experimentiert und die Filterung verstärkt. Dabei habe ich festgestellt, dass ab einem bestimmten Schwellenwert etwas Paradoxes passiert: Die Verbesserungen hören bei der unabhängigen Stichprobe auf, gehen aber bei der Test- und Trainingsstichprobe weiter. D.h. in der Realität stellt sich heraus, dass das Modell wie üblich auf Beziehungen mit geringer Gewichtung funktioniert, nämlich auf Armaturen, und es stellt sich die Frage, ob die Gewichte falsch verteilt sind oder ob das Modell neu trainiert wurde und versehentlich auf weißem Rauschen arbeitet (nun ja, nicht gerade Rauschen, auf weniger signifikanten Indikatoren von Binärbäumen). Ich denke, man könnte auch untersuchen, woher diese Beziehungen stammen und ihre Bedeutung anhand einer kurzen Prüfungsprobe ermitteln.

Wie auch immer man gräbt, man wird überall auf illusorische "Regelmäßigkeiten" stoßen, man kann sie in jedem Phänomen finden

Was mich am meisten freut, ist die große Anzahl von "Prädiktoren". Woher soll sie in den Zitaten kommen? Dort gibt es 90% Müll.

 
Maxim Dmitrievsky:

Ich habe keine Ahnung, ich beschäftige mich nicht mit Bäumen und Blättern und habe es auch nicht vor... alles kann auf der Ebene des Modells selbst gemacht werden.

Wie auch immer man gräbt, man wird überall illusorische "Muster" finden, man kann sie in jedem Phänomen finden

also arbeiten Sie einfach auf bekannte Weise.

Und ich bin einfach begeistert vom Hand-Tuning - ich habe den Glauben an passive Magie verloren.

Ich kenne den genauen Algorithmus für die Blattgewichte nicht, aber ich denke, es hängt von der Reihenfolge der gefundenen Links ab, nicht nur von den Links selbst, d.h. wenn ein neuer Baum im Boosting einen Fehler korrigiert, wird das Gewicht durch das Delta der Fehlerkorrektur gegeben, während der neue Link wertvoller sein könnte als die Korrektur selbst. Idealerweise sollten Sie die Verknüpfungen und ihre Gewichte doppelt überprüfen, die Anzahl der an der Entscheidung beteiligten Binärbäume prüfen. Wenn es ein Dutzend Bäume gibt, die insgesamt eine Wahrscheinlichkeit von 0,5 ergeben, könnte es sich um eine schwache Verknüpfung handeln... Andererseits müssen Sie die Größe des Baums selbst berücksichtigen (ich verwende jetzt Tiefe 4, um kurze Regeln in Blättern zu erkennen). Das ist nur ein Gedanke, ich brauche keine Antwort ...

Grund der Beschwerde: