Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2606

 
Maxim Dmitrievsky #:

Es gibt eine Frage wie diese:

Es werden zwei Modelle verwendet. Der eine sagt voraus, ob man kaufen oder verkaufen soll, der andere, ob man handeln soll oder nicht.

Zuerst wird das erste Modell trainiert, dann schauen wir, wo es schlechte Vorhersagen macht, markieren diese Beispiele als "nicht handeln", die anderen guten als "handeln" und lehren dies dem zweiten Modell.

Das erste Modell wird nicht nur im Trainingsbereich, sondern auch im zusätzlichen Bereich getestet, und das zweite Modell wird in beiden Bereichen trainiert.

Wir wiederholen diesen Vorgang mehrere Male und trainieren beide Modelle mit demselben Datensatz. Die Ergebnisse verbessern sich allmählich bei den Proben. Aber nicht immer bei der Kontrollprobe.

Parallel dazu führen wir ein Protokoll der schlechten Geschäfte für alle Durchgänge, in dem alle "schlechten" Geschäfte für "nicht zu handeln" gesammelt werden, um das zweite Modell zu trainieren und nach einem bestimmten Prinzip zu filtern: je mehr Kopien von schlechten Geschäften für alle Durchgänge, desto größer die Chance, sie als "nicht zu handeln" zu markieren.

Zum Beispiel wird für jedes Datum eine bestimmte Anzahl von schlechten Geschäften für alle Iterationen des Trainings akkumuliert. Wenn diese Anzahl einen Schwellenwert (Mittelwert, Durchschnitt) überschreitet, werden diese Geschäfte als "nicht handeln" markiert. Die restlichen Gewerke werden übersprungen, da es sonst möglich wäre, alle Gewerke auszuschließen, wenn es viele Trainingsiterationen gibt.

Mit dem Koeffizienten können Sie die Anzahl der Abschlüsse am Ausgang anpassen. Je niedriger er ist, desto mehr Abschlüsse werden herausgefiltert.

... An diesem Punkt bin ich schon müde zu schreiben ...

Wie kann eine solche Kombination von Modellen so verbessert werden, dass sie ihre Ergebnisse auf einer neuen unabhängigen Fläche verbessert?
Gibt es eine Philosophie, warum das funktionieren könnte? Abgesehen von der Tatsache, dass sich die Modelle bei jeder Runde der Umschulung natürlich verbessern (der Fehler sinkt), aber wie wird man die Anpassung los?

Interessantes Konzept!

1. Wie man die Anprobe loswird. Ich verstehe nicht viel von Iterationen. Warum können Sie das (zweite) Filtermodell nicht einfach einmal trainieren und bewerten, ob es die Leistung des ersten Modells verbessert oder nicht. Sie könnten einfach die Signale 1 bis 2 filtern oder den Ausgang 2 in den Eingang 1 einspeisen.

2. Wie man sich verbessert.
2.1. Sie könnten versuchen, ein Post-Transaktions-Markup in ein Cluster-Markup zu verwandeln. Sicherlich häufen sich schlechte Signale. Und die guten. Wir markieren die Cluster. Wir können über einen transaktionalen Ansatz trainieren (Chips auf der Basis von Einträgen/Kandidaten), Targeting - uns in guten oder schlechten Clustern wiederfinden. Oder Sie können nach Clustern trainieren (Chips nach Clustern, ein Trainingsmusterobjekt - Cluster), Ziel - entweder dasselbe (nächste Kerze in gutem oder schlechtem Cluster) oder nächster Cluster - gut oder schlecht (nun, das ist wahrscheinlich im Wesentlichen dasselbe).
2.2. Die Merkmalsbeschreibungen sollten für diese Modelle wahrscheinlich unterschiedlich sein, da sonst der Grenznutzen des zweiten Modells meiner Meinung nach gering wäre.


3. Die Philosophie hinter dem Konzept. Wer braucht das schon, die Modelleffizienz, der Gewinn ist das Maß der Dinge. Experimente regieren, nicht die Philosophie).

 
Replikant_mih #:

Interessantes Konzept!

1. Wie man die Armatur loswird. Ich verstehe nicht viel von Iterationen. Warum können Sie nicht einfach das (zweite) Filtermodell einmal trainieren und bewerten, ob es die Leistung des ersten Modells verbessert oder nicht. Sie könnten einfach die Signale 1 bis 2 filtern oder den Ausgang 2 in den Eingang 1 einspeisen.

2. Wie man sich verbessert.
2.1. Sie könnten versuchen, ein Post-Transaktions-Markup in ein Cluster-Markup zu verwandeln. Sicherlich häufen sich schlechte Signale. Und die guten. Wir markieren die Cluster. Wir können über einen transaktionalen Ansatz trainieren (Chips auf der Basis von Einträgen/Kandidaten), Targeting - uns in guten oder schlechten Clustern wiederfinden. Oder Sie können nach Clustern trainieren (Chips nach Clustern, ein Trainingsmusterobjekt - Cluster), Ziel - entweder dasselbe (nächste Kerze in gutem oder schlechtem Cluster) oder nächster Cluster - gut oder schlecht (naja, im Grunde ist es wohl dasselbe).
2.2. Die Merkmalsbeschreibungen sollten für diese Modelle wahrscheinlich unterschiedlich sein, da sonst der Grenznutzen des zweiten Modells meiner Meinung nach gering wäre.


3. Die Philosophie hinter dem Konzept. Wer braucht das schon, die Modelleffizienz, der Gewinn ist das Maß der Dinge. Experimente regieren, nicht die Philosophie).

Wir wollen die Verallgemeinerbarkeit des ersten Modells (und auch des zweiten) verbessern. Wenn wir ihre Signale einfach mit dem zweiten Modell herausfiltern, wird sich der Klassifizierungsfehler des ersten Modells nicht von selbst verringern. Wir lassen also die beiden trainierten Modelle auf dem Datensatz laufen und lassen die schlechten Beispiele aus dem Training für das erste Modell weg, so dass der Fehler geringer wird. Und der Fehler bei der zweiten fällt auch. Und so wiederholen wir dies mehrere Male. Es sollte von Mal zu Mal besser werden. Aber ich möchte, dass es bei der Probe jedes Mal besser wird, aber es gibt große Unterschiede.

Ich überlege, was ich noch hinzufügen sollte, vielleicht sind einige Überlegungen auch gut :)

 
Maxim Dmitrievsky #:

Wir wollen die Verallgemeinerungsfähigkeit des ersten Modells (und auch des zweiten Modells) verbessern. Wenn wir die Signale mit dem zweiten Modell einfach herausfiltern, wird der Klassifizierungsfehler des ersten Modells nicht intern reduziert. Wir lassen also die beiden trainierten Modelle auf dem Datensatz laufen und lassen die schlechten Beispiele aus dem Training für das erste Modell weg, so dass der Fehler geringer wird. Und der Fehler bei der zweiten fällt auch. Und so wiederholen wir dies mehrere Male. Es sollte von Mal zu Mal besser werden. Aber ich möchte, dass es bei der Probe jedes Mal besser wird, aber es gibt große Unterschiede.

Ich denke darüber nach, was ich dort noch hinzufügen sollte, vielleicht funktionieren auch ein paar Ideen :)

Sind Sie sicher, dass Sie 2 Modelle brauchen und dass sie die Ergebnisse bei der Rückmeldung verbessern werden?
Man kann einfach die Grenze des ersten Modells nicht durch 0,5, sondern durch 0,3 und 0,7 oder sogar 0,1 und 0,9 ziehen - so werden Geschäfte mit geringer Wahrscheinlichkeit eliminiert und es gibt weniger von ihnen und das Modell wird nur 1 sein.
 
Aleksey Nikolayev #:

Verstehen Sie mich nicht falsch... Daher ziehe ich es vor, mich aufdie Behauptungen des Überprüfbaren zu stützen.

Verstehen Sie mich nicht falsch. Ich habe nur auf die Ungenauigkeit Ihrer logischen Konstruktion hingewiesen: "Es gibt keine Langspiel-Algorithmen auf dem Markt, sonst wären sie früher oder später die einzigen auf dem Markt". Ich habe Ihnen genau gezeigt, in welcher Nische sie existieren. Warum sie dort isoliert existieren, anstatt den gesamten Markt zu erobern. Und gab einüberprüfbares Beispiel.

Об авторе | QuantAlgos
  • www.quantalgos.ru
Приветствую вас в моем блоге. Меня зовут Виталий, занимаюсь написанием биржевых роботов c 2008 года. В 2009 и 2010 гг. участвовал в конкурсе ЛЧИ (лучший частный инвестор) под ником robot_uralpro, проводимом биржей РТС  (сейчас Московская биржа). Использовались HFT роботы, написанные на C#.  Результаты были следующие: В настоящее время продолжаю...
 
elibrarius #:
Bist du dir sicher, dass du 2 Modelle brauchst und dass sie das Ergebnis bei OOS verbessern werden?
Man könnte die Grenze des ersten Modells nicht durch 0,5, sondern durch 0,3 und 0,7 oder sogar 0,1 und 0,9 ziehen - auf diese Weise werden Geschäfte mit geringer Wahrscheinlichkeit eliminiert und es gibt weniger von ihnen, und das Modell wird nur 1 sein.

bei 2 gibt es mehr Flexibilität, diese Wahrscheinlichkeiten sind... Nur die Anzahl der Abschlüsse nimmt ab, die Stabilität nicht.

 
Maxim Dmitrievsky #:

mit 2 mehr Flexibilität, sind diese Wahrscheinlichkeiten... Nur die Anzahl der Abschlüsse nimmt ab, die Stabilität nicht.

Mit 2 hat man auch keine Stabilität...
 
Dr #:

Verstehen Sie mich nicht falsch. Ich habe nur auf die Ungenauigkeit Ihrer logischen Konstruktion hingewiesen: "Es gibt keine Langspiel-Algorithmen auf dem Markt, sonst wären sie früher oder später die einzigen auf dem Markt". Ich habe Ihnen genau gezeigt, in welcher Nische sie existieren. Warum sie dort isoliert existieren, aber nicht den gesamten Markt erfassen. Und gab einüberprüfbares Beispiel.

Die Überprüfung der tatsächlichen Existenz einer bestimmten Aussage bedeutet nicht die Überprüfung ihres Inhalts.

Selbst wenn wir davon ausgehen (obwohl es damit oft Probleme gibt und geben kann), dass jemand Jahr für Jahr konstant Geld verdient, ist überhaupt nicht klar, wie der Nachweis aussehen kann, dass dies durch denselben Algorithmus geschieht. Ich würde mir mehr substanzielle Optionen wünschen als "Sie können sich auf Ihr Wort verlassen" und "das sage ich Ihnen".

 
Maxim Dmitrievsky #:

mit 2 mehr Flexibilität, sind diese Wahrscheinlichkeiten... Es ist nur so, dass die Anzahl der Abschlüsse abnimmt, die Stabilität jedoch nicht.

es ist besser mit 3.

;)

 
elibrarius #:
Mit 2 hat man auch keine Stabilität...

viele Optionen, es ist schwer zu vergleichen

 
Maxim Dmitrievsky #:

viele Optionen, es ist schwer zu vergleichen

Sie haben bereits ein Beispiel für ein funktionierendes Bündel von 2 Modellen. Eine Variante mit dem 1. Modell (mit einem Cutoff durch 0,1-0,9 oder 0,2-0,8) ist leicht zu machen und ihre Stabilität auf der OOS zu vergleichen.
Grund der Beschwerde: