Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3215

 
fxsaber #:

Martin.

Und wenn es einen starken Trend zur Rückstoßfreiheit gibt, wird die Martin funktionieren und warum wird sie nicht funktionieren?

fxsaber #:

Es ist eine Philosophie.

1)wenn ein Algorithmus über einen langen Zeitraum Geld auf dem Markt verdient, ist das eine Regelmäßigkeit, richtig?

2)und wenn man diesem Algorithmus einen anderen Algorithmus überlagert, der den ersten Algorithmus beobachtet und Statistiken darüber sammelt und Handelssignale gibt und Geld verdient.

Dann ist es bereits eine Philosophie, kein Muster, wie Sie sagen.

Das ist genau das, was ich mit dem Beispiel eines Traders beschrieben habe...

 
mytarmailS #:

Sie sagen also, es ist eine Philosophie und kein Muster.

Ich sehe eine gegenseitige Zeitverschwendung. Ich bin mir sicher, wenn wir uns persönlich gegenübersitzen würden, wäre die Wahrscheinlichkeit des gegenseitigen Verständnisses nahe bei eins.


Das Überlagern von TC-Ergebnissen ist eine übliche Praxis. Am häufigsten werden Filter eingesetzt. Seltener - MM (z.B. ein Filter auf der Gleichgewichtskurve: wenn man stärker abweicht, verändert man MM stärker). Noch seltener - die Suche nach Regelmäßigkeiten in Handelsergebnissen.

 
fxsaber #:

Ich sehe eine gegenseitige Zeitverschwendung. Ich bin sicher, wenn wir uns persönlich gegenübersitzen würden, wäre die Wahrscheinlichkeit des gegenseitigen Verständnisses nahezu eins.

Der Vorschlag für eine Konferenz in den Vereinigten Arabischen Emiraten bleibt bestehen)

 
fxsaber #:

Ich sehe eine gegenseitige Zeitverschwendung. Ich bin sicher, wenn wir uns persönlich gegenübersitzen würden, wäre die Wahrscheinlichkeit des gegenseitigen Verständnisses nahezu eins.

Ich stimme zu

 
Maxim Dmitrievsky #:

er buchstabiert es falsch. OOS - Test, Validierung - zweite Teilstichprobe (zusammen mit Trainee) zur Modellbewertung (Validierung).

Die Validierungsstichprobe kann mit der Teststichprobe identisch oder separat sein.

Diese Trennung kam zustande, weil IOs die zweite Teilstichprobe oft dazu verwenden, das Training vorzeitig zu beenden. Man könnte es in gewissem Sinne als Anpassung bezeichnen.

Aus diesem Grund verwenden sie 3 Teilstichproben, von denen eine überhaupt nicht in die Ausbildung einbezogen wird.

Validierung - Bestätigung der Gültigkeit. Ja/Nein. Die Bewertung ist eine schwierige Sache für ein Modell mit guter Anpassung.))) Bewertungen für die gute Anpassung, dann))

Das Gespräch dreht sich um Begriffe und ihre Bedeutung, denke ich.)

 
Valeriy Yastremskiy #:

Validierung - Bestätigung der Gültigkeit. Ja/Nein. Die Bewertung ist für ein zweckmäßiges Modell ein wenig knifflig.))))) Bewertungen für die Zweckmäßigkeit).

Das Gespräch dreht sich um Begriffe und ihre Bedeutung, denke ich).

Die Validierung geht der Evaluierung voraus, oder sie schließt die Evaluierung ein, wie immer Sie wollen. Das ist nicht das, worauf es hinauslaufen sollte.

und worauf Sie eigentlich hinauswollten, ist, dass die MOSer eine verwirrende Teilstichprobe sind :)) Aber sie produzieren multiple utopische Markttheorien im industriellen Maßstab.

Da unser Ziel darin besteht, das Netz mit der besten Leistung auf neuen Daten zu finden, besteht der einfachste Ansatz zum Vergleich verschiedener Netze darin, die Fehlerfunktion auf Daten zu schätzen, die unabhängig von den für das Training verwendeten Daten sind. Die verschiedenen Netze werden trainiert, indem die entsprechende Fehlerfunktion, die in Bezug auf den Trainingsdatensatz definiert ist, minimiert wird. Die Leistung der Netze wird dann durch Auswertung der Fehlerfunktion auf einer unabhängigen Validierungsmenge verglichen, und das Netz mit dem kleinsten Fehler in Bezug auf die Validierungsmenge wird ausgewählt. Dieser Ansatz wird als Holdout-Methode bezeichnet. Da dieses Verfahren allein zu einer gewissen Überlastung des Validierungssatzes führen kann, muss die Leistung des ausgewählten Netzes durch Messung seiner Leistung auf einem dritten unabhängigen Datensatz, dem so genannten Testsatz, validiert werden.

Eine Anwendung dieses Verfahrens ist das Early Stopping, bei dem die Kandidatenmodelle aufeinanderfolgende Iterationen desselben Netzes sind und das Training gestoppt wird, wenn der Fehler auf der Validierungsmenge zunimmt, wobei das vorherige Modell (das mit dem geringsten Fehler) ausgewählt wird.

https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets
 
Maxim Dmitrievsky #: Eine Anwendung dieses Prozesses ist das frühe Stoppen, bei dem die Kandidatenmodelle aufeinanderfolgende Iterationen desselben Netzes sind und das Training gestoppt wird, wenn der Fehler in der Validierungsmenge wächst, wobei das vorherige Modell (das mit dem geringsten Fehler) ausgewählt wird

Bei Daten mit Mustern wird dies funktionieren.
Wenn es fast keine gibt, wird es eine Anpassung an das Diagramm geben, auf dem der vorzeitige Abbruch vorgenommen wurde + eine gute Kurve. Sie können die Kurve einfach um einen zusätzlichen Abschnitt verlängern und erhalten ungefähr das gleiche Modell.

 
Forester #:

Bei Daten mit Mustern wird es funktionieren.
Wenn es fast keine Muster gibt, wird es eine Anpassung an das Diagramm geben, auf dem der frühe Stopp gemacht wurde + eine gute Kurve. Sie könnten die Kurve einfach um einen zusätzlichen Abschnitt verlängern und würden ungefähr das gleiche Muster erhalten.

Das ist eine andere Frage.
 
Maxim Dmitrievsky #:
Das ist eine andere Frage.

Das ist es, was ich angesprochen habe.

 
fxsaber #:

Das ist es, was er gehoben hat.

Zumindest mischen, Bootstrap. Wenn Ihre Stichproben aus verschiedenen Verteilungen stammen, von welchem Vergleich können Sie dann sprechen?
MO sucht nicht nach Mustern, sondern klassifiziert Proben mit bereits bekannten Mustern.
Wenn die Suche nach Mustern mittels MO ein separates Verfahren ist, das ich anwende, dann ist die Suche nach Mustern mittels MO != nur Training auf Teilstichproben.
Grund der Beschwerde: