Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1263

 
Rollende Regression, die denselben ARIMA zu Brei schlägt
 
Maxim Dmitrievsky:
Rollende Regression, die denselben ARIMA schlägt

Man kann nicht alles lernen, und alle MoD-Methoden sind ungefähr gleich. Sie können in fast jedem von ihnen etwas Passendes finden, und dann können Sie die anderen ausprobieren. Wenn aber sowohl Bayes als auch NS keine Ergebnisse liefern, ist es reine Zeitverschwendung, die anderen auszuprobieren. Das alles kann bei Bedarf später nachgeholt werden.

 
Yuriy Asaulenko:

Man kann nicht alles lernen, und alle MoD-Methoden sind ungefähr gleich. Sie können in fast jedem von ihnen etwas Passendes finden, und dann können Sie die anderen ausprobieren. Wenn aber, sagen wir, sowohl Bayes als auch NS keine Ergebnisse liefern, ist es reine Zeitverschwendung, die anderen auszuprobieren. All dies kann später erledigt werden.

Nun, sie arbeiten sehr gut zusammen, es ist nur eine Frage der Umsetzung.) Sampling-Beispiele über MCMC, Unterricht in NS ist der beste Weg zu gehen.

einen Vermögenswert oder eine Gruppe von Vermögenswerten auszuwählen, dann kann eine Regression mittels MCMC nützlich sein
 
Yuriy Asaulenko:

Interessant sind hier die Variationsprobleme und Theano.

Ich habe immer wieder vor, Variationsmethoden zu verwenden, um das System abzustimmen, aber ich habe noch nicht die richtigen Ansätze gefunden.

Ich suche dasselbe :)

 
Maxim Dmitrievsky:

Nun, zusammen tun sie es, es ist nur eine Frage der Umsetzung ) Nasenbeispiele über MCMC, über diesen NS zu unterrichten - im Allgemeinen ist mir kein besserer Weg eingefallen

Nun, es ist nicht das Verteidigungsministerium, also ist es auch nicht zusammen). Denn Carla und die Libs werden nicht gebraucht).

 
Yuriy Asaulenko:

Es ist also nicht das Verteidigungsministerium, und deshalb ist es auch nicht zusammen). Kein Bedarf an Carla und lib.)

Nun, ich überlege immer noch, wie ich das alles zusammenbringen kann. Die banale Suche nach Varianten liefert Ergebnisse, warum sie in dem einen oder anderen Fall gut oder weniger gut sind, ist schwer zu verstehen.

Ich werde es mit ähnlichen Libs visualisieren müssen - mal sehen.

 
Maxim Dmitrievsky:

Ich weiß immer noch nicht, wie ich das alles zusammenbringen soll. Die Ergebnisse werden durch triviale Aufzählung von Varianten erzielt, aber es ist schwer zu verstehen, warum sie in diesem oder jenem Fall gut oder weniger gut sind.

Nun, wir alle schwimmen. Nur wechsle ich selten die Optionen, sondern sitze eher auf der Couch und lese entweder (ein Tablet ist eine gute Sache) oder denke nach - was zu tun ist). Bevor ich es tue, wäre es schön, alles vorher im Kopf zu haben, und dann, wie...

 
Maxim Dmitrievsky:

Vergleiche zeigen, dass es keine großen Unterschiede gibt... der Wald ist ein Klassiker. In der alglib ist sie von Haus aus in mt5 vorhanden. Ich wünschte, ich könnte auf eine neuere Version aktualisieren, aber ich habe Probleme damit.

Man kann natürlich eine Delle einbauen, aber wie macht man dann die Leute glücklich?

Wenn ich mich nicht irre, besteht der einzige Unterschied in der Lerngeschwindigkeit. Andernfalls sollte sie auf die gleiche Weise umgeschult werden. Zumindest hat sich die Beschreibung nicht geändert, und die Einschränkungen in Bezug auf Tiefe, Fehler usw. sind nicht hinzugekommen.
Und Wald ist eine der schnellsten Lernmethoden, insbesondere im Vergleich zu NS.

 
elibrarius:

Ja, und der Wald ist eine der schnellsten Lernmethoden, insbesondere im Vergleich zu NS.

Ja, aber die Klassifizierung der Wälder ist auch sehr eigenwillig. NS oder Bayes ist näher an der Fuzzy-Logik, und ja, an der Datenverallgemeinerung.

 
elibrarius:

Wenn ich mich nicht irre, besteht der einzige Unterschied in der Lerngeschwindigkeit. Andernfalls sollte es immer noch das gleiche trainieren. Zumindest hat sich die Beschreibung nicht geändert und es wurden keine Tiefenbegrenzungen, Fehler usw. hinzugefügt.
Und Wald ist eine der schnellsten Lernmethoden, insbesondere im Vergleich zu NS.

Die Lerngeschwindigkeit ist gut, die Reaktionszeit bei der Nutzung und die Downloadzeit der Struktur sind schlecht, da die Walddateien groß sind. Ich habe bis zu 300 MB gehabt.

Mit der Serialisierung ist etwas nicht in Ordnung. Der Wald wird schneller trainiert und gespeichert als er aus der Datei zurückgeladen wird.

Wenn es heißt, dass der Wald jetzt um Größenordnungen kleinere Dateien erzeugt, dann ist das ein sehr großer Geschwindigkeitszuwachs

Bei NS hingegen dauert das Lernen länger, aber die Reaktion erfolgt sofort. Es gibt keinen Unterschied in der Qualität der Klassifizierung. Man kann alles verwenden, aber die Hölzer funktionieren sofort und der NS muss angepasst werden.
Grund der Beschwerde: