Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 626

 
Maxim Dmitrievsky:

Warum, nein, es sind zu viele Bäume... es war auch mit 10 gut (ich weiß nicht mehr, wie viele ich eingestellt habe)

500 ist eine Menge, genug für jeden Datensatz

Warum gab es solche Fehler bei Bruchzahlen? ... seltsam, ich hatte erwartet, dass eine Maschine genau lernt... Im Falle von Mustern (im Forex) ist ihr Aussehen also alles andere als klar (wie das Einmaleins), und es ist gut, wenn man in 60% der Fälle richtige Vorhersagen erhält.
 
Anatolii Zainchkovskii:
Warum treten solche Fehler bei Bruchzahlen auf? ... seltsam, ich hatte erwartet, dass die Maschine genau lernen kann... Im Falle von Mustern (im Forex) ist ihre Form also alles andere als klar (wie das Einmaleins), und es ist gut, wenn Sie in 60 % der Fälle richtige Vorhersagen erhalten.

Die Fehler traten auf, weil der Parameter r niedrig war, was bedeutet, dass nur die Hälfte der Beispiele für das Training verwendet wurde, und diese Hälfte wurde auf der Hälfte der Bäume trainiert :) und es gibt nur wenige Beispiele

müssen Sie r~1 einstellen, um genau zu sein. Wird für die Pseudoregularisierung und für Tests an Proben außerhalb des Beutels verwendet

es ist nur so, dass dieser Mechanismus angepasst werden muss, im Falle des Waldes gibt es nur 2 Einstellungen

Sie sollten sich auch darüber im Klaren sein, dass NS (RF) keine Rechenmaschine ist, sondern eine Funktion annähert, und dass eine zu hohe Genauigkeit für viele Aufgaben eher schlecht als recht ist.

 
elibrarius:

Ich befürchte, dass eine Regression/Prognose im Netz in etwa das Gleiche ergeben wird wie die Suche nach ähnlichen Standorten/Mustern in der Geschichte (was ich vor 3 Monaten getan habe):

und die Klassifizierung ist auch nicht besser :) das Prinzip ist das gleiche, es wird nur in Klassen unterteilt
 
Maxim Dmitrievsky:

Die Fehler traten auf, weil der r-Parameter niedrig war, was bedeutet, dass nur die Hälfte der Beispiele für das Training verwendet wurde, und diese Hälfte wurde auf der Hälfte der Bäume trainiert :) und es gibt nur wenige Beispiele

müssen Sie r~1 einstellen, um genau zu sein. Wird für die Pseudoregularisierung und für Tests an Proben außerhalb des Beutels verwendet

Man muss nur wissen, wie man diesen Mechanismus einstellt, im Falle des Waldes gibt es nur 2 Einstellungen

Wenn man r auf 1 setzt, dann lernt es an allen Beispielen. Das ist im Grunde das, was man braucht, warum sollte man sonst Beispiele sammeln und sie zeigen?
 
Anatoly Zainchkovskii:
Wenn Sie z. B. r auf 1 setzen, wird es auf alle Stichproben trainiert.

Da der Wald ohnehin nicht alle Attribute verwendet, gibt es eine Modelländerung, mit der Sie ihn so einstellen können, dass er alle Attribute verwendet. Dies ist jedoch nicht empfehlenswert, da sich der Wald alle Optionen merken wird

und die Auswahl der Einstellungen ist oft so subjektiv, dass man experimentieren muss

wenn weniger als 1, dann wird das Modell an den verbleibenden Stichproben validiert (das Modell wird an Daten geschätzt, die nicht aus der Trainingsstichprobe stammen). classic r ist 0,67, das Modell wird an den verbleibenden 33% validiert. Dies gilt natürlich für große Stichproben, für kleine Stichproben ist es wie mit dem Einmaleins - es ist besser, 1 zu setzen.

 
Maxim Dmitrievsky:

Da der Wald ohnehin nicht alle Attribute verwendet, gibt es eine Modelländerung, mit der Sie ihn so einstellen können, dass er alle Attribute verwendet. Dies ist jedoch nicht empfehlenswert, da sich der Wald alle Optionen merken wird

und die Auswahl der Einstellungen ist oft so subjektiv, dass man experimentieren muss

Wenn er kleiner als 1 ist, wird das Modell an den verbleibenden Stichproben validiert (das Modell wird an Daten geschätzt, die nicht in die Trainingsstichprobe aufgenommen wurden). r wird klassischerweise auf 0,67 gesetzt, an den verbleibenden 33% wird das Modell validiert.

Danke für die Tipps, ich werde sie einbauen)
 
Ich habe zufällig eine alte Python-MT4-API-Entwicklung gefunden. Jemand scheint sich in letzter Zeit mit diesem Thema beschäftigt zu haben. Schauen Sie es sich an, vielleicht hilft es Ihnen https://github.com/zonquan/PyMT4
 

Auswahl der Merkmale

Ein bisschen Datamining. Ich habe die Merkmalsauswahl mittels Chi^2 + KBest, RFE (rekursive Merkmalseliminierung) + (SGDClassifier, RidgeClassifier), L2 (Ridge, RidgeClassifier), L1 (Lasso) durchgeführt. Die Ridge-Regularisierung führt zu vernünftigeren Ergebnissen.
Einige Diagramme:
rfe

RFE + Ridge & SGD

Kamm l2

Ridge-Regressor (L2).

ridge l2 cl

Ridge-Klassifikator (L2)

Die Datei enthält eine Tabelle mit den Parameterwerten und deren Stichproben durch die Merkmalsauswahl.

Die wichtigsten Koeffizienten sind:

  • 10, 11 - Schließen, Delta (Öffnen-Schließen)
  • 18-20 - Ableitung Hoch, Tief, Schluss
  • 24 - Log-Derivat Schließen
  • 29, 30 - Lowess
  • 33 - Entmagnetisierung schließen - Lowess
  • 35 - EMA 26 (13 als Option)
  • 40 - Abgeleitete EMA 13
PS. Die Zeile "Ridge Classifier" in der Tabelle basiert auf einer Klasse, sie spiegelt nicht die Abhängigkeiten der Parameter von anderen Klassen wider.
Verweis auf das Skript.
Dateien:
 

ein neues Netzdiagramm skizziert hat, ist dies die erste Beschreibung. Später wird es mehr geben (hoffentlich)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Идеальная нейронная сеть для финансовых рынков
Идеальная нейронная сеть для финансовых рынков
  • 2018.01.29
  • rationatrix.blogspot.com.cy
В данной статье, обсудим начало экспериментов с созданием нейронной сети, которая оптимальным образом подходила бы для работы на валютном рынке. Основной недостаток классических НС заключается в их статической/статистической природе, когда модель обучается на исторических данных и, впоследствии, рыночные закономерности меняются, а нейросеть...
 
Maxim Dmitrievsky:

ein neues Netzdiagramm skizziert hat, ist dies die erste Beschreibung. Später wird es mehr geben (hoffentlich)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Ich frage mich, warum der erste Beitrag gelöscht wurde. Er hat den Plan gebloggt. =)

Grund der Beschwerde: