Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3287

 
Forester #:

Ich verwende Valking Forward aus denselben Gründen.
Und ja - starke Abhängigkeit von der Größe des Zugteils. Zum Beispiel, auf 20000 Zeilen etwas auf dem Vorwärts gefunden wird, aber auf 5000 oder 100000 - zufällig.

Wenn "etwas" gefunden wird, wie lange ist seine Lebensdauer außerhalb des Trainings normalerweise?

 
Maxim Dmitrievsky #:
😀

Ich weiß nicht einmal, was die Quadrate bedeuten. Wahrscheinlich das, was der Apfelmann schreibt :)

 
Aleksey Vyazmikin #:

Wenn "etwas" gefunden wird, welche Lebensdauer hat es dann normalerweise außerhalb des Unterrichts?

Ich trainiere das Modell nur einmal pro Woche neu. Vielleicht lebt es länger, ich habe es nicht untersucht.... aber es kann auch weniger sein und man muss wie SanSanych bei jedem Takt neu trainieren (wenn H1, ist es prinzipiell möglich).
Für mich ist einmal pro Woche akzeptabel in Bezug auf die Geschwindigkeit - 5 Jahre für 260 Umschulungen ungefähr vergeht.
 
Aleksey Vyazmikin #:

Daraus lässt sich vorläufig schließen, dass der Erfolg des Trainings tatsächlich von der Stichprobengröße abhängt. Ich stelle jedoch fest, dass die Ergebnisse der "-1p1-2"-Stichprobe mit denen der "-1p2-3"-Stichprobe vergleichbar und nach einigen Kriterien sogar besser sind, während die Ergebnisse der "0p1-2"-Stichprobe doppelt so schlecht sind, was die Anzahl der Modelle betrifft, die das gegebene Kriterium erfüllen.

Jetzt habe ich eine Stichprobe mit umgekehrter Chronologie durchgeführt, bei der die Zugstichprobe aus der anfänglichen Stichprobe Prüfung+Test+Zug_p3 besteht, und die Teststichprobe ist Zug_p2, und die Prüfung ist Zug_p1. Ziel ist es, herauszufinden, ob es möglich ist, mit neueren Daten ein erfolgreiches Modell zu erstellen, das auch vor 10 Jahren funktioniert hätte.

Was denken Sie, wird das Ergebnis sein?

Ich brauchte nicht lange zu warten - das Ergebnis steht in der letzten Spalte der Tabelle

Ich werde versuchen, einen unvoreingenommenen Kommentar abzugeben. Einerseits können wir sagen, dass die Änderung der Chronologie der Stichprobe die Ergebnisse beim Hauptkriterium - der Anzahl der geeigneten Modelle - deutlich verschlechtert hat, andererseits sagt aber gerade die Tatsache, dass solche Modelle gefunden wurden, dass es einige stabile Muster in den Daten gibt. Oder ist es zufällig? Ja, natürlich, wir müssen weitere Stichproben nehmen und ähnliche Studien durchführen, und erst dann können wir mit größerer Sicherheit Schlussfolgerungen ziehen. Im Moment ist dies nur eine Information zum Nachdenken.

Objektiv gesehen gibt es eine Menge Daten - ich verwende für das Training normalerweise ein Vielfaches kleinerer Stichproben, die allerdings mit dem chronologischen Verlauf vergleichbar sind. Umso trauriger sieht die Recall-Rate in allen Experimenten aus. Es wundert mich sogar, dass niemand darauf geachtet hat. Generell kann man immer wieder sagen, dass die Standardmetriken einen schlechten Hinweis auf das finanzielle Ergebnis geben, wenn keine festen Takeouts und Stops verwendet werden.

Wenn Sie irgendwelche Ideen/Wünsche haben, was man hier noch mit irgendetwas kombinieren könnte (Beispielplots) - sagen Sie es mir - ich werde versuchen zu prüfen, was passiert.

 
Forester #:
Ich trainiere das Modell nur einmal pro Woche neu. Es kann länger leben, ich habe es nicht erforscht.... aber vielleicht auch weniger und es ist notwendig, wie SanSanych bei jedem Takt neu zu trainieren (wenn H1, dann ist es im Prinzip möglich).
Für mich ist einmal pro Woche akzeptabel in Bezug auf die Geschwindigkeit - 5 Jahre für 260 Umschulungen ungefähr vergeht.

Was ist das Ergebnis einer solchen Umschulung insgesamt?

 
Aleksey Vyazmikin #:

Was ist das Ergebnis einer solchen Umschulung im Großen und Ganzen?

Alle Diagramme, die ich für das letzte Jahr gezeigt habe, sind auf diese Weise entstanden. Nur OOS von Valking-forward.
 
Andrey Dik #:

Max, ich verstehe nicht, warum du dich über mich lustig machst.

Wenn es keine Annahmen gibt - sag nichts, wenn es welche gibt - sag sie, z.B. "das Ergebnis wird scheiße".

Wenn es lustig ist, kannst du lachen, und wenn es traurig ist, kannst du weinen.

Das, was Aleksey Vyazmikin hier diskutiert, kann keine Vorschläge hervorrufen und es ist unmöglich zu bewerten "scheiße - nicht scheiße".

Ein Beispiel: Ein Mann kommt und sagt:

- Lasst uns ein Bügeleisen auf den Mond schicken.

Wir schauen erstaunt.

Und der Mann sagt:

- Wir ändern die Temperatur des Eisens und geben verschiedene Mengen Wasser hinein.

Werden Sie reagieren : "Wenn es keine Annahmen gibt - schweigen Sie, wenn es welche gibt - äußern Sie sich, wie "das Ergebnis wird beschissen sein"?

Was leksey Vyazmikin tut, hat nichts mit den Problemen des Verteidigungsministeriums zu tun. Er zieht aus einer Oper und versucht, aus einer anderen Oper eine Antwort zu bekommen - alles leeres Geschwätz eines Mannes mit einem Durcheinander in seinem Kopf.

 
Forester #:
Alle Diagramme, die ich für das letzte Jahr gezeigt habe, sind auf diese Weise entstanden. Nur OOS von Valking Forward.

Den Bildern nach zu urteilen, ist auch der Recall niedrig, d.h. das Modell hat wenig Vertrauen in irgendetwas und ist sehr vorsichtig mit Prognosen.

 
Forester #:
Ich trainiere das Modell nur einmal pro Woche neu. Es kann länger leben, ich habe es nicht erforscht.... aber vielleicht auch weniger und es ist notwendig, wie SanSanych bei jedem Takt neu zu trainieren (wenn H1, dann ist es im Prinzip möglich).
Für mich ist einmal pro Woche akzeptabel in Bezug auf die Geschwindigkeit - 5 Jahre für 260 Umschulungen gehen ungefähr vorbei.

Ich habe hier ein grundsätzliches Problem festgestellt: den Blick nach vorne. Es äußert sich folgendermaßen: Wir nehmen Teile einer großen Datei, lernen sie ein, testen sie dann, überprüfen sie - alles ist normal, der Fehler ist ungefähr gleich. Aber sobald wir außerhalb dieser drei Dateien, die Teile einer großen Datei sind, laufen, ist das Ergebnis grundlegend anders, meist katastrophal.

Wenn wir bei jedem Schritt neu trainieren, wird das Problem des "Vorausschauens" beseitigt, da die Vorhersage auf denselben Prädiktorwerten beruht wie das Training.

Wenn man nicht bei jedem Schritt trainiert, werden alle Prädiktoren, einschließlich des Trainingsabschnitts, auf einige Werte trainiert und dann auf diesen Werten vorhergesagt. Und hier stellt sich die Frage: Werden die neuen Werte der Prädiktoren mit den Werten der Prädiktoren in der Lernkurve übereinstimmen oder nicht?

 
СанСаныч Фоменко #:

Hier habe ich ein grundlegendes Problem entdeckt: die Vorausschau. Es äußert sich folgendermaßen: Wir nehmen Teile einer großen Datei, untersuchen sie, testen sie, überprüfen sie - alles ist normal, der Fehler ist ungefähr derselbe. Aber sobald wir außerhalb dieser drei Dateien, die Teile einer großen Datei sind, laufen, ist das Ergebnis grundlegend anders, meist katastrophal.

Wenn wir bei jedem Schritt neu trainieren, wird das Problem des "Vorausschauens" beseitigt, da die Vorhersage mit denselben Prädiktorenwerten wie beim Training durchgeführt wird.

Wenn man nicht bei jedem Schritt lernt, werden alle Prädiktoren, einschließlich des Trainingsabschnitts, auf einige Werte gelehrt und dann auf diesen Werten vorhergesagt. Und hier stellt sich die Frage: Werden die neuen Werte der Prädiktoren mit den Werten der Prädiktoren in der Lernkurve übereinstimmen oder nicht?

Wo ist dieser Blick, den Sie haben?

Ich habe es ein paar Mal gelesen und konnte die Logik hinter den Worten nicht erkennen.

Sie erfinden Probleme - und lösen sie dann heldenhaft - der eine blickt in die Zukunft, der andere sucht nach dem perfekten Markup....