Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1200

 
Igor Makanu:

der vernünftigste Beitrag, den ich seit ein paar Monaten bekommen habe! ... Ich muss darüber nachdenken, ich habe es schon lange nicht mehr gemacht, ich muss meinen Körper vorbereiten, die Ferien stehen vor der Tür!


Nun, um Wahrscheinlichkeiten zu erhalten, braucht man Forschung (Experimente, in unserem Fall Tests), es gibt keinen anderen Weg, nur Data Mining wird helfen, aber ich schaue mir keine YouTube-Tutorials an, du kommst immer wieder zu mir zurück, jede Lektion ist Python (((

Lassen Sie uns nach Januar mit Python vor Talov beginnen )) vielleicht im 2Q

 
mytarmailS:

Ich weiß nicht, ob es helfen wird, aber! Sie können die Korrelation ausprobieren. Stellen Sie sich das ideale Ergebnis als die gewünschte Kurve vor, und vergleichen Sie dann bei der Suche nach dem besten Modell das aktuelle Ergebnis mit dem Ideal (Ihrer idealen Kurve), indem Sie die Korrelation berechnen. Das Modell mit der engsten Korrelation zum Ideal kommt dem gesuchten Modell am nächsten

Danke für die Idee, aber sie ist nicht realisierbar, weil das Ideal sehr abstrakt ist - es ist nicht klar, was es sein soll. Auf den ersten Blick sollte jede Iteration zu Verbesserungen führen, oder sogar zu einer inkrementellen Verbesserung, aber das ist eine triviale Idee, und es ist nicht klar, warum die MO-Softwareentwickler sie nicht umgesetzt haben. Entweder ist die Lernkurve zu lang, so dass das Produkt, das das Modell hervorbringt, nicht wettbewerbsfähig ist, oder die Idee wurde tatsächlich getestet und es wurden keine Vorteile festgestellt.

 
Maxim Dmitrievsky:

Aus irgendeinem Grund gibt es nur wenige Artikel über die Suche nach Mustern durch einen Terver.

Und es gibt so gut wie keine Informationen über Bayes, und wo es welche gibt, ist es schwer, sie richtig zu verstehen.

Das Hauptproblem bei Bayes ist die Wahl der richtigen A-priori-Verteilung. In unserem Fall wird alles durch Nicht-Stationarität kompliziert - es kann eine Zeitabhängigkeit auftreten.

Es scheint naheliegend, das a priori auf einer großen Geschichte und das posterior auf einer kleinen Geschichte aufzubauen. Das Problem liegt in der korrekten Trennung dieser Teile der Geschichte unter Nicht-Stationarität.

 
Maxim Dmitrievsky:

Es handelt sich um Artikel über die Suche nach Mustern in einem Terver, die aus irgendeinem Grund wenig Informationen enthalten.


Warum nicht - Unmengen davon, unerschwinglich, unmöglich zu meistern. Es wird GARCH genannt. Dort besteht ein Modell aus drei Teilen:

  • der Trend, modelliert durch ARIMA, oder Sie können es durch FARIMA (fraktionale Integration - in Anlehnung an Hearst) tun;
  • dann die Varianzform;
  • dann die Verteilung und so weiter, wobei zum Beispiel alle 500 Aktien des Index getestet und die entsprechenden Ergebnisse angegeben werden.

Was braucht man noch, um glücklich zu sein, im Sinne eines Theoretikers?


Vielleicht ist das der Grund, warum es nirgendwo erhältlich ist, da alles in einer Vielzahl von Garagen gesammelt wird (ich habe einmal einen Link gepostet - mehr als 100 verschiedene Garagen)?

 
Aleksey Nikolayev:

Das Hauptproblem bei Bayesianern ist die Wahl der richtigen A-priori-Verteilung. In unserem Fall wird dies durch Nicht-Stationarität erschwert - es kann eine Zeitabhängigkeit auftreten.

Es scheint naheliegend, das a priori auf einer großen Geschichte und das posterior auf einer kleinen Geschichte aufzubauen. Das Problem besteht darin, diese Abschnitte der Geschichte angesichts der Nicht-Stationarität korrekt zu isolieren.

Ja, das liegt auf der Hand und ist im Übrigen durch MO (auf der Ebene des eigenen Verständnisses) bereits geschehen. Das zweite Modell korrigiert die Signale des ersten nach jedem Schritt. Es stellte sich heraus, dass es sehr einfach, schnell und anpassungsfähig ist... aber es ist noch mehr Forschung nötig. Ich habe sogar eine Theorie entwickelt (Bayesianisch, auf clevere Weise).

 
SanSanych Fomenko:

Warum nicht - Tonnen, unerschwinglich, unmöglich zu bewältigen. Es wird GARCH genannt. Dort besteht das Modell aus drei Teilen:

  • der Trend, modelliert durch ARIMA, oder Sie können es durch FARIMA (fraktionale Integration - in Anlehnung an Hearst) tun;
  • dann die Varianzform;
  • dann die Verteilung und so weiter, wobei zum Beispiel alle 500 Aktien des Index getestet und die entsprechenden Ergebnisse angegeben werden.

Was braucht man noch, um glücklich zu sein, im Sinne eines Theoretikers?


Vielleicht ist das der Grund, warum es nirgendwo zu finden ist, da alles in einer Vielzahl von Garagen gesammelt wird (ich habe einmal Links gepostet - mehr als 100 verschiedene Garagen)?

oder vielleicht ist es schwierig, im Geiste zu vergleichen... kann man zum Beispiel sagen, dass bedingte Wahrscheinlichkeiten, Verbindungen usw. durch einen Garch definiert werden?

d.h. wenn ich sozusagen nur den Suchbereich festlegen will, nach Mustern aus der Ferne suchen will, in verschiedenen Kombinationen von, sagen wir, Inkrementen, Zeitintervallen oder was auch immer

Ich möchte etwas ähnliches auf Python (die gleiche Zeit wird die Praxis sein).

etwa so: https://www.mql5.com/ru/articles/3264
Наивный байесовский классификатор для сигналов набора индикаторов
Наивный байесовский классификатор для сигналов набора индикаторов
  • www.mql5.com
Хотим мы того или нет, но статистика в трейдинге играет заметную роль. Начиная с фундаментальных новостей, пестрящих цифрами, и заканчивая торговыми отчетами или отчетами тестирования, от статистических показателей никуда не деться. Вместе с тем, тезис о применимости статистики в принятии торговых решений остается одной из самых дискуссионных...
 
Maxim Dmitrievsky:

Ja, das ist offensichtlich und außerdem bereits durch MO (auf der Ebene des Verständnisses) geschehen. Das zweite Modell korrigiert die Signale des ersten nach jedem Schritt. Es stellte sich heraus, dass es sehr einfach, schnell und anpassungsfähig ist... aber es bedarf weiterer Forschung. Ich habe sogar eine Theorie dazu aufgestellt (Bayesianisch, auf eine clevere Art und Weise).

Es gibt eine weitere offensichtliche Möglichkeit, eine A-priori-Verteilung zu erstellen. Wenn man davon ausgeht, dass sich die Preise "im Limit/im Durchschnitt" wie SBs verhalten, dann kann man diese Verteilung auch auf SBs aufbauen. In seltenen Fällen kann dies analytisch geschehen, in der Regel aber durch Monte Carlo. Die Methode ist komplexer und nicht unbedingt besser als frühere Methoden.

 
Aleksey Nikolayev:

Es gibt eine weitere offensichtliche Möglichkeit, eine A-priori-Verteilung zu konstruieren. Wenn man davon ausgeht, dass sich die Preise "im Limit/im Durchschnitt" wie SBs verhalten, dann kann man diese Verteilung auch auf SBs konstruieren. In seltenen Fällen kann dies analytisch geschehen, in der Regel aber durch Monte Carlo. Die Methode ist komplizierter und nicht unbedingt besser als die vorherige.

normal, sharya :) oder wie ein anderer Aleksey zeigte Kurven von Modellsignalverteilungen auf einer trainierten Stichprobe, normale Basis für a priori.

dies sind alles robuste Dinge
 
Maxim Dmitrievsky:

normal, sharite :) oder, wie ein anderer Alexei zeigte, Kurven von Modellsignalverteilungen auf einer trainierten Stichprobe, eine normale Basis für a priori.

dies sind alles robuste Dinge

Alles wird durch die Nicht-Stationarität verdorben, die sowohl scharf als auch schleichend sein kann.

 
Maxim Dmitrievsky:

normal, wissen Sie :) oder wie ein anderer Alexey zeigte Kurven von Modellsignalverteilungen auf einer trainierten Stichprobe, eine normale Basis für a priori.

dies sind alles robuste Dinge

Wenn Sie mich meinen, ich habe Kurven an einer Testprobe und an einer Testprobe gezeigt - ich schaue mir die Probe nicht einmal für die Ausbildung an...