Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 588

 
Yuriy Asaulenko:

Ich erinnere mich, dass Sie etwa 70 % richtige Vorhersagen hatten. Ich habe den obigen Beitrag geschrieben.

Nun, 70 % richtig ist gar nichts. Von den 70 %, die richtig lagen, um in den Handel einzusteigen, ist es mindestens ein Drittel. Damit verbleiben 23 %. Es spricht nichts gegen 30 % falsche Vorhersagen (wir wissen nicht im Voraus, ob sie richtig oder falsch sind). Und die falschen Vorhersagen liegen sozusagen in den Wendebereichen (Richtungswechsel), und genau diese Bereiche sind am besten für Trades geeignet.

Auf dieser Grundlage ist es meines Erachtens zwecklos, Vorhersagen zu treffen, sondern vielmehr eine Klassifizierung vorzunehmen. D.h. um festzustellen, ob ein bestimmter Zeitpunkt geeignet ist, um ein Geschäft abzuschließen. Bei der Verwendung von Modellen erhalten Sie den Eingangsfehler 20-40% Genauere Zahlen habe ich früher in diesem Thema genannt.


Klassifizierung ist die Vorhersage der Klassenzugehörigkeit bzw. der Wahrscheinlichkeit der Zugehörigkeit.

Sie hat die gleiche Wirkung wie die Regression, aus der Sie auch die Mitgliedschaft ableiten können.

 
SanSanych Fomenko:

Er hat mich davon überzeugt, dass das Problem der Nicht-Stationarität nichts mit MO zu tun hat. Da ich nie mit NS zu tun hatte, hatte ich keine Argumente, um seine Meinung zu widerlegen. Außerdem war man sich intuitiv darüber im Klaren, dass verschiedene Bäume und andere, mit Ausnahme von NS, sehr gut mit nicht-stationären Prädiktoren funktionieren.

Ich stütze mich auf das Axiom, dass es einige Regelmäßigkeiten im Preisverhalten gibt, es handelt sich um einen nicht markovianischen Prozess. Und ich versuche, sie mit MO zu finden.

Verschiedene Modelle können in der Tat die Spreu vom Weizen trennen und Regelmäßigkeiten in einem Preisfluss finden, der größtenteils aus Rauschen und dessen absichtlicher Verzerrung durch Handelsplätze besteht.
Das Problem besteht darin, solche Parameter für das Training des Modells zu finden (für ein Neuron - die Anzahl der Gewichte, die Lerngeschwindigkeit usw.; und für einen Wald - z. B. die Anzahl der Bäume), dass sich das Modell nicht nur die anfänglichen Beispiele merkt, sondern nach Überwindung der Nicht-Stationarität einige stabile Muster in all dem Rauschen findet. Ich finde gute Parameter für das Modelltraining durch mehrfache Kreuzvalidierungen.
Infolgedessen zeigt mein Modell sowohl bei den Trainingsdaten als auch bei den neuen Daten ein sehr kleines, aber positives Ergebnis (R2 ~0,003). Aber ich habe den Spread noch nicht übertroffen.

 
Dr. Trader:

Ich stütze mich auf das Axiom, dass es permanente Muster im Verhalten der Preise gibt, es ist ein nicht-Markovianischer Prozess. Und ich versuche, sie mit MO zu finden.

Verschiedene Modelle können die Spreu vom Weizen trennen und die Muster in den Preisströmen finden, die größtenteils aus Rauschen und absichtlichen Verzerrungen durch die Handelszentren bestehen.
Das Problem besteht darin, solche Parameter für das Training des Modells zu finden (für ein Neuron - die Anzahl der Gewichte, die Lerngeschwindigkeit usw.; und für einen Wald - z. B. die Anzahl der Bäume), dass sich das Modell nicht nur die anfänglichen Beispiele merkt, sondern nach Überwindung der Nicht-Stationarität einige stabile Muster in all dem Rauschen findet. Ich finde gute Parameter für das Modelltraining durch mehrfache Kreuzvalidierungen.
Infolgedessen zeigt das Modell sowohl bei den Trainingsdaten als auch bei den neuen Daten ein sehr kleines, aber positives Ergebnis (R2 ~0,003). Aber ich habe den Spread noch nicht übertroffen.

Ich habe auch noch nicht gewonnen, und bis jetzt gibt es kein Licht. Aber das System funktioniert bei FORTS.

SanSanych prognostiziert eine Stunde voraus. Er kümmert sich nicht um diese Verbreitung).

 

Bei Klassifizierungsproblemen gibt es kein Problem der Nicht-Stationarität. Sie ist für Regressionsprobleme geeignet.

Verwechseln Sie nicht Vorhersage und Prognose. Vorhersagen und Prognosen sind zwei verschiedene Dinge. Die Vorhersage als Ergebnis ist ein numerischer Wert mit einem Konfidenzintervall. Die Klassifizierung sagt die Klasse voraus, zu der das Beispiel gehört, die Wahrscheinlichkeit, dass das Beispiel zu der Klasse gehört, oder die Unterstützung für die Hypothese, dass das Beispiel zu der Klasse gehört.

Viel Glück!

 
Vladimir Perervenko:

Bei Klassifizierungsproblemen gibt es kein Problem der Nicht-Stationarität. Sie ist für Regressionsprobleme geeignet.

Verwechseln Sie nicht Vorhersage und Prognose. Vorhersagen und Prognosen sind zwei verschiedene Dinge. Die Vorhersage als Ergebnis ist ein numerischer Wert mit einem Konfidenzintervall. Die Klassifizierung sagt die Klasse voraus, zu der das Beispiel gehört, die Wahrscheinlichkeit, dass das Beispiel zu der Klasse gehört, oder die Unterstützung für die Hypothese, dass das Beispiel zu der Klasse gehört.

Viel Glück!


Was meinen Sie? Wo kann ich etwas über diesen Unsinn lesen? :)

 
Maxim Dmitrievsky:

Was meinen Sie? Wo kann ich diesen Unsinn nachlesen? :)

Was erscheint Ihnen absurd?
 
Vladimir Perervenko:
Was erscheint Ihnen absurd?

dass aufgrund der Nicht-Stationarität die Muster zwischen Prädiktoren\Ziel und Klassenvorhersage genau wie im Fall der Vorhersage brechen werden

 
Maxim Dmitrievsky:

dass aufgrund der Nicht-Stationarität die Muster zwischen Prädiktoren\Ziel und Klassenvorhersage genau wie im Fall der Vorhersage brechen werden

Können Sie mir ein Beispiel zeigen? Oder ist dies eine spekulative Schlussfolgerung?

In der zahlreichen Literatur zur Klassifikation mit NN/DNN wird nirgends die Nicht-Stationarität als Einflussfaktor erwähnt. Meine zahlreichen Experimente sagen mir das Gleiche.

Es steht Ihnen natürlich frei, Ihre eigene Meinung zu diesem Thema zu haben.

Viel Glück!

 
Vladimir Perervenko:

Können Sie mir ein Beispiel zeigen? Oder ist dies eine spekulative Schlussfolgerung?

In der zahlreichen Literatur zur Klassifikation mit NN/DNN wird nirgends die Nicht-Stationarität als Einflussfaktor erwähnt. Meine zahlreichen Experimente sagen mir das Gleiche.

Es steht Ihnen natürlich frei, Ihre eigene Meinung zu diesem Thema zu haben.

Viel Glück!


Und Klassifizierung oder Regression... was macht das für einen Unterschied?

 

Es gibt ein neues, gutes Buch über Deep Learning. Leider kann ich sie nicht offen verlinken, sie steht auf rutracker.org.

Tiefes Lernen
Jahr der Veröffentlichung: 2018
Autor: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Genre oder Thema: Neuronale Netze
Herausgeber: Peter
Reihe: Programmer's Library
ISBN: 978-5-496-02536-2
Sprache: Russisch
Format: PDF
Qualität: Erkannter Text mit Fehlern (OCR)
Interaktives Inhaltsverzeichnis: Keine
Seitenzahl: 479

Grund der Beschwerde: