Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 188

 

Das neue jPrediction 11 Release wurde veröffentlicht

Ein kleiner Fehler wurde behoben (Komma in CSV wurde bei Zahlen nicht durch einen Punkt ersetzt). Verbesserter Algorithmus zur Auswahl signifikanter Prädiktoren für Modelle.

Sie können es von meiner Website herunterladen (in meinem Profil angegeben), erster Beitrag auf der Hauptseite.

 

Und ich wollte auch über die Auswahl der Prädiktoren schreiben...

Neben dem Hauptexperiment führe ich auch eine kleine Analyse zu einem Aktienwert durch.

Dort gibt es normale Lautstärken, die ich auch zu den Features hinzugefügt habe.

Dann habe ich das übliche lineare Modell (OLS-Regression) [Ziel ~ Prädiktor] auf jeden Prädiktor separat auf die verschiedenen Outputs (von denen es 11 gibt) angewendet.

Berechnete f-stat.models. Ich habe ein Bild wie dieses:

Und hier gibt es eine Überraschung - alle Blöcke von Prädiktoren, die mit Volumen verbunden sind, haben sich als unnötig erwiesen. Und wir brauchten auch keine Prädiktoren, die auf der Autokorrelation von Preissteigerungen basieren.

Es ist auch klar, dass die Signifikanz umso schlechter ist, je größer die Verzögerung der Ausgangsvariablen ist.

Dann habe ich das gesamte Rauschen durch F kritisch (auf 0,01 Niveau) eliminiert.

Das Ergebnis sah folgendermaßen aus:

Leider werden dabei mögliche Wechselwirkungen nicht berücksichtigt...

Aber bei einigen Eingaben ist die Aussagekraft des linearen Modells nicht schlecht.

 
Alexey Burnakov:


Ich versuche nicht, die Bedeutung der einzelnen Prädiktoren zu analysieren. Es gab ein gutes Beispiel in dem Thread hier:

Es gibt zwei Prädiktoren,wobei es visuell sehr einfach ist, mit zwei Prädiktoren gleichzeitig zu arbeiten, da das zweite Ziel klare Cluster bildet, die von den Modellen gefunden werden können. Wenn Sie diese Prädiktoren einen nach dem anderen verwenden, ist jeder von ihnen für die Vorhersage nutzlos.

Das Bild ist rein hypothetisch. In Bezug auf Forex kann ich jedoch aus einer Reihe von Anzeichen schließen, dass gute Prädiktoren dort irgendwie ähnliche Cluster bilden, nur brauche ich 30 Prädiktoren statt 2.
 
Wieder einmal hat Reshetov Sie alle übertrumpft. Die Version 11 ist einfach ein Wunder. Früher, in der Version 10 war so, dass der Prädiktor mit mehr Eingaben nicht erhöhen Verallgemeinerung Fähigkeit, und musste neu zu trainieren, aber jetzt mit zunehmender Prädiktoren in das Modell erhöht Verallgemeinerung Fähigkeit des Modells als Ganzes, gut, die Arbeit solcher Modelle dauert länger und besser, so kudos zu Ihnen Yura, aber andere können weiterhin zu plappern und das Rad neu erfinden. Viel Glück!!!!
 
Mihail Marchukajtes:

...

Früher, in Version 10, war es so, dass jPrediction mit mehr Inputs die Verallgemeinerungsfähigkeit nicht erhöhte, und ich musste neu trainieren, aber jetzt, mit mehr Prädiktoren im Modell, erhöht sich die Verallgemeinerungsfähigkeit des Modells im Allgemeinen, und die Arbeit mit solchen Modellen dauert länger und besser...

Vielen Dank für Ihr Feedback!

Beim Testen der Version 11 mit den mir vorliegenden Mustern bin ich zu einem ähnlichen Ergebnis gekommen. Es war notwendig, diese hypothetische Schlussfolgerung durch unabhängige Forschung zu bestätigen (Reproduktion des Experiments). Schließlich hat jeder Mensch andere Ziele. Daher bestand das Risiko, dass der Klassifikator bei einigen Problemen zu gegenteiligen Ergebnissen kam. Außerdem wurde die Zeit für die Auswahl signifikanter Prädiktoren in der neuen Version erheblich verlängert, was nicht von allen begrüßt wurde.

Was die Trainingszeit für das Modell angeht, so kann man sie möglicherweise verringern, ohne die Qualität (Verallgemeinerbarkeit) zu verschlechtern - das ist bereits eine Frage der Technik. Das Wichtigste ist, rechtzeitig konstruktives Feedback zu bekommen, um zu verstehen: Lohnt es sich, jPrediction in diese Richtung zu verbessern, oder war die Richtung falsch und sollte zurückgenommen werden? Andernfalls hätten wir Zeit und Mühe auf sinnlose Funktionen verschwenden müssen.

 
Eidechse_:

...

Ich erhalte 92,3 % (oos) bei den von mir verwendeten Daten.

...

Meine aufrichtigen Glückwünsche! (Wenn Sie nicht lügen).

Und bedauert, dass es irgendwo da draußen ist und nicht öffentlich zugänglich ist.

Es ist sinnlos, darüber zu diskutieren, was öffentlich zugänglich ist, denn es ist unmöglich, Ihre "Behauptungen" über jPrediction zu beweisen oder zu widerlegen.

 

Ich bin gerade auf einen Artikel zu einem Thema gestoßen, das meiner Meinung nach für NS-Liebhaber besonders interessant ist.

Interessant fand ich das Ende des Artikels, in dem der Vorhersagefehlerinnerhalb der Stichprobe mit dem Vorhersagefehleraußerhalb der Stichprobe verglichen wird: Dies geschieht durch die Korrelation dieser Fehler. In meiner Terminologie bedeutet dies, dass das Modell nicht übertrainiert ist, wenn die Korrelation hoch ist (in diesem Artikel 0,8).

Predictability in Network Models
Predictability in Network Models
  • Jonas Haslbeck - r
  • www.r-bloggers.com
Network models have become a popular way to abstract complex systems and gain insights into relational patterns among observed variables in almost any area of science. The majority of these applications focuses on analyzing the structure of the network. However, if the network is not directly observed (Alice and Bob are friends) but estimated...
 
Dr. Trader:

Ich versuche nicht, die Bedeutung der einzelnen Prädiktoren zu analysieren. Es gab ein gutes Beispiel in dem Thread hier:

Es gibt zwei Prädiktoren,wobei es visuell sehr einfach ist, mit zwei Prädiktoren gleichzeitig zu arbeiten, da das zweite Ziel klare Cluster bildet, die von den Modellen gefunden werden können. Wenn Sie diese Prädiktoren einen nach dem anderen verwenden, ist jeder von ihnen für die Vorhersage nutzlos.

Das Bild ist rein hypothetisch. Aber was Forex betrifft, so kann ich aus einer Reihe von Anzeichen schließen, dass gute Prädiktoren dort irgendwie ähnliche Cluster bilden, nur brauche ich nicht 2, sondern 30 Prädiktoren.

Im Großen und Ganzen ist das alles richtig. Es gibt eine zusätzliche Informativität der Wechselwirkungen, die über die Summe der Informationen der marginalen Inputs hinausgeht.

Entscheidungsbäume, Begging- und Boosting-Modellinteraktionen leicht. Das heißt, ohne zusätzlichen Aufwand für den Nutzer. Bei linearen Modellen gibt es viele Probleme. Bei der OLS-Regression wird die Reihenfolge des Auftretens der Prädiktoren berücksichtigt... Die gierige alternierende Hinzufügung von Prädiktoren funktioniert im Prinzip, aber die Gier führt zu einem unausgewogenen Modell. Das Gleiche gilt für Wälder und Bäume.

Aber ich wäre vorsichtig mit der Einbeziehung von Dutzenden von Prädiktoren. Können Sie sich vorstellen, mit 30 Variablen zu interagieren? Bei einem Baum wäre das eine Tiefe von mindestens 30. Man braucht eine riesige Menge an Daten, um sie zu simulieren, ohne wildes Umlernen...

In der Praxis ist eine Interaktionstiefe von 3-5 bereits ausreichend.

 
Alexey Burnakov:

Im Großen und Ganzen ist das alles richtig. Bei Interaktionen gibt es eine zusätzliche Informativität, die die Summe der Informationen der marginalen Inputs übersteigt.

Entscheidungsbäume, Begging- und Boosting-Modellinteraktionen leicht. Das heißt, ohne zusätzlichen Aufwand für den Nutzer. Bei linearen Modellen gibt es viele Probleme. Bei der OLS-Regression wird die Reihenfolge des Auftretens der Prädiktoren berücksichtigt... Die gierige alternierende Hinzufügung von Prädiktoren funktioniert im Prinzip, aber die Gier führt zu einem unausgewogenen Modell. Das Gleiche gilt für Wälder und Bäume.

Aber ich wäre vorsichtig mit der Einbeziehung von Dutzenden von Prädiktoren. Können Sie sich vorstellen, mit 30 Variablen zu interagieren? Bei einem Baum wäre das eine Tiefe von mindestens 30. Man braucht eine riesige Menge an Daten, um sie zu simulieren, ohne wildes Umlernen...

In der Praxis ist eine Interaktionstiefe von 3-5 bereits ausreichend.

Ich halte die Interaktion zwischen Prädiktoren für eine äußerst fragwürdige Sache. Es gibt so viele Probleme.....

Und wenn es bei OLS auch noch eine Interaktion gibt, ist das einfach undenkbar. Schreiben Sie auf einem Blatt Papier sorgfältig alle Bedingungen auf, unter denen OLS angewendet werden kann. Und dann vergleichen Sie alles, was auf dem Papier steht, mit der Realität in den Finanzzeitreihen.

PS.

In fast jedem Buch über Datamining werden die Verfahren zur Entfernung korrelierter Prädiktoren beschrieben.

 
SanSanych Fomenko:

In fast jedem Buch über Datamining werden die Verfahren zur Entfernung korrelierter Prädiktoren beschrieben.

Wenn Sie fast jedes Buch über Datamining nehmen und das Gelesene auf den Markt anwenden, werden Sie feststellen, dass es nicht funktioniert.... Vielleicht zum Teufel mit den gängigen Stereotypen?
Grund der Beschwerde: