Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 303

 
Yuriy Asaulenko:
Das ist sicherlich wahr. Aber die hohe Eintrittsschwelle erhöht alle möglichen Risiken. Nicht unbedingt finanziell.

Es stimmt, das oben Gesagte kann auch in einer banalen Form ausgedrückt werden: "Der Gewinn ist eine monotone Funktion des angemessenen Risikos", was nicht nur für den Handel, sondern für alle menschlichen Tätigkeiten gilt, außerdem ist bekannt, dass diejenigen, die meinen, überhaupt kein Risiko einzugehen, indem sie beispielsweise einen Beruf wählen, der nicht wettbewerbsfähig ist, und sich auf die staatliche Rente verlassen, extreme Menschen sind)))


Und was ist ein Leben "ohne" Risiko? Das ist überhaupt nicht interessant, da es für alle gleich enden wird.

 
Nun, mein Artikel befasst sich mit dem Konfidenzintervall und so weiter. Ich empfehle Ihnen dringend, ihn aufmerksam zu lesen, und Sie können viel daraus mitnehmen.
 
Yuriy Asaulenko:

Unter einem systematischen Ansatz verstehe ich, dass man versteht, was man tut, und daher in der Lage ist, die Ergebnisse seiner Handlungen zu planen und vorherzusagen.

Vielen Dank für diesen Artikel. Da ich mich mit keiner bestimmten Software auskenne, ist es das Beste für einen Anfänger - einfach und klar. Das Einzige, was ich nicht verstehe, ist, welche Methode verwendet wird: Regression oder Klassifizierung?
Natürlich habe ich es sofort auf meinen eigenen Systemen ausprobiert. Wenn eine Frage unangenehm ist, wird sie vielleicht im Laufe des Spiels geklärt.

1. ich benutze keine Candlesticks zum Ein- und Ausstieg - nur einen Stream von Kursen und Candlesticks nur auf der Historie des vorherigen Candlesticks. Ich kann es zwar nach Kerzenständern lernen lassen, aber es ist mir immer noch ein Rätsel, wie ich Rattle dazu bringen kann, den Fluss der Notierungen innerhalb des aktuellen Kerzenständers zu schlucken. Der Candlestick-Fluss sollte irgendwie analysiert werden.

2) Was ist mit wiederherstellbaren Prädiktoren zu tun? Zum Beispiel mit Regressionslinien und Sigmas. Man kann sie nicht einmal in die Historie einfügen (zum Lernen), wir brauchen Funktionen, die sie im laufenden Betrieb berechnen und ihre früheren Zeichnungen aus der Historie entfernen.

Ebenso gibt es schillernde Prädiktoren, die nicht immer vorhanden sind und sich aus bestimmten Punkten der Serie ergeben und im Allgemeinen auch im Laufe des Stücks neu aufgebaut werden können.

4 Die Frage der Normalisierung der Prädiktoren durch die Punkte 2 und 3 - sie ist grundsätzlich unmöglich.

Und der Verlauf der Prädiktoren sollte sowohl während der Ausbildung als auch während der Arbeit berechnet werden.

Bis jetzt haben wir nichts als Verwirrung.


Rasseln ist in zwei Fällen gut:

  1. Wenn wir uns zum ersten Mal treffen.
  2. zu versuchen... wenn man das Problem kennt...

1. Regression oder Klassifizierung. Dies bestimmt den Typ der Zielvariablen. Eine reelle Zahl ist eine Regression. Nominal (Faktor) - Klassifizierung.

2. Beginnen Sie mit der Zielvariablen. Diese scheinbar einfache Frage ist jedoch sehr komplex. Was werden Sie vorhersagen? Richtung? Ausmaß, Übermaß, Niveau...

3. Prädiktoren. Sie müssen nachweisen, dass sie für die Zielvariable "relevant" sind. Das ist der schwierigste Teil. Ich verbringe bis zu 70 % meiner Zeit mit dieser Frage. Ich habe in diesem Thread schon viel darüber geschrieben.

4. Mit der Statik bin ich nicht zufrieden. Hier kommt der Übergang zu R ins Spiel. rattle erleichtert den Umstieg auf R, da es alle Ihre Aktionen in R protokolliert und dieser fertige Code für Änderungen verwendet werden kann. Der nächste Schritt ist in der Regel die Pflege.

 
SanSanych Fomenko:


2. Sie müssen mit der Zielvariablen beginnen. Trotz ihrer scheinbaren Einfachheit ist diese Frage ziemlich kompliziert. Was werden Sie vorhersagen? Richtung, Ausmaß, Übermaß, Niveau...

Es sieht so aus, als müsste alles vorhergesagt werden). Es gibt jetzt etwa 30 "Indikatoren" (richtiger: Prädiktoren) im Modell (nicht MO) + ihre gegenseitige Verarbeitung und Logik. Es sollten + 10 mehr sein.

Es ist nicht mehr realistisch, ein solches Volumen manuell zu bewältigen und dennoch den Beitrag jedes einzelnen Prädiktors zum Ganzen zu verstehen. Daher übrigens auch die Idee, MO zu verwenden. Alles befindet sich noch in einem sehr frühen Stadium.

SanSanych Fomenko:

3. Prädiktoren. Sie müssen nachweisen, dass sie für die Zielvariable "relevant" sind. Das ist die schwierigste Frage, auf die ich bis zu 70 % meiner Zeit verwende. Ich habe in diesem Thread schon viel darüber geschrieben.

Ja, ich werde es anpassen müssen. Es sieht so aus, als könne man es nicht einfach einstecken).

SanSanych Fomenko:

4. Mit dem Rauschen bin ich nicht zufrieden. Hier kommt der Übergang zu R ins Spiel. rattle vereinfacht das Verlassen von R, da es alle Ihre Aktionen in R protokolliert und dieser fertige Code für Änderungen verwendet werden kann. Der nächste Schritt ist eigentlich caret.

Ich hab's.

 

Interessante Tabelle, die am häufigsten verwendeten MO-Pakete

KlasseNamePaketDownloads
überleben.coxphCox-Proportional-Hazard-ModellÜberleben153681
classif.naiveBayesNaive Bayese1071102249
klassisch.svmSupport-Vektor-Maschinen (libsvm)e1071102249
klassifiziert.ldaLineare DiskriminanzanalyseMASSEN55852
klassifiziert.qdaQuadratische DiskriminanzanalyseMASSEN55852
classif.randomForestZufälliger WaldrandomForest52094
klassif.gaussprGauß-Prozessekernlab44812
klassisch.ksvmSupport-Vektor-Maschinenkernlab44812
klassisch.lssvmKleinste-Quadrate-Support-Vektor-Maschinekernlab44812
cluster.kkmeansKernel K-Meanskernlab44812
regr.rvmRelevanz-Vektor-Maschinekernlab44812
klassifiziert.cvglmnetGLM mit Lasso- oder Elasticnet-Regularisierung (Kreuzvalidiertes Lambda)glmnet41179
klassifiziert.glmnetGLM mit Lasso oder Elasticnet Regularisierungglmnet41179
überleben.cvglmnetGLM mit Regularisierung (Kreuzvalidiertes Lambda)glmnet41179
überleben.glmnetGLM mit Regularisierungglmnet41179
klassisch.cWaldZufallsforst auf der Grundlage von bedingten InferenzbäumenPartei36492
klassifiziert.ctreeBedingte InferenzbäumePartei36492
regr.cforestRandom Forest auf der Grundlage von bedingten InferenzbäumenPartei36492
regr.mobModellbasierte rekursive Aufteilung, die zu einem Baum mit angepassten Modellen führt, die mit jedem Endknoten verbunden sindPartei, Modellierungswerkzeuge36492
überleben.cforestRandom Forest basierend auf bedingten InferenzbäumenParty, Überleben36492
 
SanSanych Fomenko:

Interessante Tabelle, die am häufigsten verwendeten MO-Pakete

KlasseNamePaketDownloads
überleben.coxphCox-Proportional-Hazard-ModellÜberleben153681
classif.naiveBayesNaive Bayese1071102249
klassisch.svmSupport-Vektor-Maschinen (libsvm)e1071102249
klassifiziert.ldaLineare DiskriminanzanalyseMASSEN55852
klassifiziert.qdaQuadratische DiskriminanzanalyseMASSEN55852
classif.randomForestZufälliger WaldrandomForest52094
klassif.gaussprGauß-Prozessekernlab44812
klassisch.ksvmSupport-Vektor-Maschinenkernlab44812
klassisch.lssvmKleinste-Quadrate-Support-Vektor-Maschinekernlab44812
cluster.kkmeansKernel K-Meanskernlab44812
regr.rvmRelevanz-Vektor-Maschinekernlab44812
klassifiziert.cvglmnetGLM mit Lasso- oder Elasticnet-Regularisierung (Kreuzvalidiertes Lambda)glmnet41179
klassifiziert.glmnetGLM mit Lasso oder Elasticnet Regularisierungglmnet41179
überleben.cvglmnetGLM mit Regularisierung (Kreuzvalidiertes Lambda)glmnet41179
überleben.glmnetGLM mit Regularisierungglmnet41179
klassisch.cWaldZufallsforst auf der Grundlage von bedingten InferenzbäumenPartei36492
klassifiziert.ctreeBedingte InferenzbäumePartei36492
regr.cforestRandom Forest basierend auf bedingten InferenzbäumenPartei36492
regr.mobModellbasierte rekursive Aufteilung, die zu einem Baum mit angepassten Modellen führt, die mit jedem Endknoten verbunden sindPartei, Modellierungswerkzeuge36492
überleben.cforestRandom Forest basierend auf bedingten InferenzbäumenParty, Überleben36492

Ich habe vergessen, einen weiteren in die Liste aufzunehmen. Ah ja, ich habe eine einzigartige Software, man könnte sagen selten :-)
 
Yuriy Asaulenko:

Es sieht so aus, als müsste alles vorhergesagt werden). Es gibt jetzt etwa 30 "Indikatoren" (richtiger: Prädiktoren) im Modell (nicht MO) + ihre gegenseitige Verarbeitung und Logik. Es sollten + 10 mehr sein.

Es ist nicht mehr realistisch, ein solches Volumen manuell zu bewältigen und dennoch den Beitrag jedes einzelnen Prädiktors zum Ganzen zu verstehen. Daher übrigens auch die Idee, MO zu verwenden. Alles befindet sich noch in einem sehr frühen Stadium.

SanSanych Fomenko:

3. Prädiktoren. Sie müssen nachweisen, dass sie für die Zielvariable "relevant" sind. Das ist die schwierigste Frage, auf die ich bis zu 70 % meiner Zeit verwende. Ich habe in diesem Thread schon viel darüber geschrieben.

Ja, ich werde es anpassen müssen. Es sieht so aus, als könne man es nicht einfach einstecken).

SanSanych Fomenko:

4. Mit dem Rauschen bin ich nicht zufrieden. Hier kommt der Übergang zu R ins Spiel. rattle vereinfacht das Verlassen von R, da es alle Ihre Aktionen in R protokolliert und dieser fertige Code für Änderungen verwendet werden kann. Der nächste Schritt ist eigentlich caret.

Ich hab's.

Ich werde meine 5 Kopeken hinzufügen. Eigentlich müssen Sie solche Inputs einspeisen, die nicht die Output-Variable, sondern den Preis verursachen! Dann wird jeder TS gut ausgebildet sein. Beispiele für Zielfunktionen:

Die meisten offensichtlichen SIGNAL BETTER, dann wird es einen Pullback zu einem bestimmten Niveau, die von heute Ebenen erreicht werden, etc. Lesen Sie meinen Artikel, seien Sie nicht faul, ich erwähne es. Für alle diese Zielfunktionen gebe ich also dieselben Eingaben ein, und alle Modelle funktionieren recht zufriedenstellend. Und Sie können sehen, wie die gleichen Inputs auf den Markt wirken. Hier auf dem Gewinn, hier auf dem Pullback, hier auf dem Niveau. Sie funktionieren gut, denn die Einträge sind der Grund für den Preis.

Der Grund dafür ist, dass Veränderungen beim Einstieg zu Veränderungen beim Preis führen, und nicht umgekehrt. Dies kann sehr verwirrend sein, da die Statistik des TS selbst sehr schlecht ist. Denn Zscore nimmt genau den Wert an, den ihm der Preis vorgibt, und nicht umgekehrt. Das Delta ist zum Beispiel der Grund für die Preisänderung. :-)

 
Mihail Marchukajtes:

Ich gebe Ihnen meine fünf Cents. Was Sie wirklich tun müssen, ist, Eingaben zu machen, die nicht der Grund für die Ausgangsvariable sind, sondern für den PREIS! Dann wird jeder TS gut trainieren. Beispiele für Zielfunktionen:

Die meisten offensichtlichen SIGNAL BETTER, dann wird es einen Pullback zu einem bestimmten Niveau, die von heute Ebenen erreicht werden, etc. Lesen Sie meinen Artikel, seien Sie nicht faul, ich erwähne es. Für alle diese Zielfunktionen gebe ich also dieselben Eingaben ein, und alle Modelle funktionieren recht zufriedenstellend. Und Sie können sehen, wie die gleichen Inputs den Markt betrachten. Hier auf dem Gewinn, hier auf dem Rückschlag, hier auf dem Niveau. Sie funktionieren gut, denn die Einträge sind der Grund für den Preis.

Um es kurz zu erklären: Der Grund dafür ist, dass Änderungen beim Einstieg zu Änderungen beim Preis führen und nicht umgekehrt. Dies kann sehr verwirrend sein, da die Statistik des TS selbst sehr schlecht ist. Denn der Zscore nimmt genau den Wert an, den ihm der Preis vorgibt, nicht umgekehrt. Das Delta ist zum Beispiel der Grund für die Preisänderung. :-)

Ich habe Ihren Artikel gelesen, wenn Sie den Link auf der vorherigen Seite meinen. Vielleicht habe ich etwas übersehen. Ich werde es noch einmal lesen.

Natürlich sind die Prädiktoren dazu da, die Kursentwicklung vorherzusagen. Aber ihre Überlagerung + Preis gibt ein Signal für den Einstieg, d.h. sie sagen die Reaktion der anfänglichen (Trainings-)Blackbox voraus. Die Frage ist ähnlich wie die nach dem Huhn oder dem Ei? Vielleicht ist die Meinungsverschiedenheit nur eine Frage der Terminologie.

Aus ideologischer Sicht ist es, zumindest in Systemen mit starrer Logik, richtiger, den Preis vorherzusagen, während die Ausgangsvariable bereits das Ergebnis der Verarbeitung ist.

 
Yuriy Asaulenko:

Ihr Artikel, wenn Sie den Link auf der vorherigen Seite meinen, wurde gelesen. Vielleicht habe ich etwas übersehen. Ich werde es noch einmal lesen.

Ja, natürlich sind die Prädiktoren dazu da, die Kursentwicklung vorherzusagen. Aber ihre Überlagerung + Preis gibt ein Signal für den Einstieg, d.h. sie sagen die Reaktion der anfänglichen (Trainings-)Blackbox voraus. Die Frage ist ähnlich wie die nach dem Huhn oder dem Ei? Vielleicht ist die Meinungsverschiedenheit nur eine Frage der Terminologie.

Aus ideologischer Sicht, zumindest in Systemen mit starrer Logik, ist es richtiger, den Preis vorherzusagen, während die Ausgangsvariable das Ergebnis der Verarbeitung ist.


Das ist alles richtig, aber Sie sollten den Preis anhand von Daten vorhersagen, von denen aus er sich ändert. Es gibt eine sehr interessante Beobachtung. Wenn die Eingabe der Grund für den Preis ist, dann wird das Ergebnis der Arbeit außerhalb der Stichprobe etwas schlechter sein als beim Training, d.h. NS funktioniert beim Training und funktioniert auch bei "außerhalb der Stichprobe", aber schlechter, wenn deutlich, wenn nicht. Das hängt vom jeweiligen Modell ab. Und wenn man die Eingabedaten angibt, die nicht vom Preis abhängen, verwandelt sich die Operation im Bereich "Out of sample" in einen CoinFlip, einen Münzwurf. Man weiß nie, wann die NS einen Fehler macht. So....
 
Mihail Marchukajtes:

Gut, aber Sie sollten den Preis mit Hilfe der Daten vorhersagen, aus denen er sich verändert. Es gibt eine sehr interessante Beobachtung. Wenn die Eingabe der Grund für den Preis ist, dann wird das Ergebnis der Arbeit außerhalb der Stichprobe etwas schlechter sein als im Training, d.h. NS funktioniert im Training und funktioniert immer noch in "außerhalb der Stichprobe", nur schlechter, wenn deutlich, wenn nicht. Das hängt vom jeweiligen Modell ab. Und wenn Sie die Eingabedaten eingeben, die vom Preis abhängen, verwandelt sich die Operation im Bereich "Out of sample" in einen CoinFlip, einen Münzwurf. Man weiß nie, wann die NS einen Fehler machen wird. So....

Wir haben nämlich keine Daten, von denen der Preis und seine Veränderungen abhängen. Und das kann es nicht geben, es sei denn, wir sind Insider. Im Allgemeinen suchen wir nach indirekten (sekundären) Daten über die Zukunft im Preisverhalten selbst. Das heißt, unsere Daten hängen genau von dem Preis und seinem Verhalten in der Vergangenheit und Gegenwart ab.

Und diese Aussage:Wir sollten den Preis mit Daten vorhersagen, von denen er sich ändert. Sie können dem nicht zustimmen. Doch je höher die Qualität der Eingabedaten ist, desto besser sind die Ergebnisse, das ist offensichtlich.

------------------------------

Ich habe begonnen, Prädiktoren für die Migration zu MoD vorzubereiten. Ich wollte das alles in R machen. Es stellte sich heraus, dass R, bei aller Leistungsfähigkeit, für die Modellierung und Signalverarbeitung überhaupt nicht geeignet ist. Leider. Alles ist äußerst unbequem.

Ich werde alle vorbereitenden Arbeiten auf SciLab übertragen müssen, wo alles viel einfacher und bequemer ist. SciLab ist eine Umgebung mit einer Schnittstelle und Ideologie, die R sehr ähnlich ist, und ist für die Datenverarbeitung und mathematische Modellierung konzipiert. Es enthält alles von der Funktechnik bis zur Aerodynamik und eine Menge Mathematik, die in R völlig fehlt. Aber Spezifität. Stat-Methoden und Data Mining sind in SciLab recht gut vertreten, aber in dieser Hinsicht ist SciLab R bei der Auswahl solcher Methoden deutlich unterlegen. Sie können keinen SanSanitch-Wald auf SciLab erstellen). Es gibt zwar eine Menge installierter Pakete, aber nichts scheint in der Nähe zu sein.

Im Allgemeinen muss ich verschiedene IDEs kombinieren, um verschiedene Aufgaben zu lösen und Daten zwischen den Umgebungen zu übertragen. Schade. Ich wollte alles auf die beste Art und Weise machen (mit R), aber es ist das Gleiche herausgekommen wie immer.

Grund der Beschwerde: