Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 472

 
Maxim Dmitrievsky:


mit anderen Worten, nicht alles in mt5 wurde bisher getestet :)

Das kann ich nicht verstehen. (Warum sollte man etwas versuchen, das bereits in MT enthalten ist?

Wenn es ein TC-Konzept gibt, nehmen wir einen Werkzeugkasten mit. Wenn es MT gibt und es gut mit dem Rest des Systems zusammenarbeitet, verwenden wir es. Es interagiert schlecht - wir verwenden die externe Software.

Es ist überhaupt nicht razzo, Informationen hin- und herzuschicken, nur um bestehende MT-Funktionen zu nutzen.

 
Yuriy Asaulenko:

Das kann ich nicht verstehen. (Warum sollte man etwas ausprobieren, das bereits in MT enthalten ist?

Wenn es ein TC-Konzept gibt, nehmen wir einen Werkzeugkasten mit. Wenn es MT gibt und es gut mit dem Rest des Systems zusammenarbeitet, verwenden wir es. Es interagiert schlecht - wir verwenden die externe Software.

Es ist nicht sinnvoll, Informationen hin- und herzuschicken, nur um bestehende MT-Funktionen zu nutzen.

Es gibt also nie ein fertiges Konzept von Anfang an, alles ist eine Laune des Schicksals, je mehr Werkzeuge, desto besser.
 
Maxim Dmitrievsky:
Es gibt also nie von Anfang an ein fertiges Konzept, alles geschieht nach Instinkt, je mehr Werkzeuge, desto besser.

Ich beginne mit einem Konzept und arbeite es in einer Software aus (Excel, SciLab, MatLab, R - manchmal alles zusammen). Dort teste ich es mit meinem Tester (ich habe keinen signifikanten Unterschied zur echten Software festgestellt). Dann übertrage ich einen Teil davon in das Terminal und den Rest in C++/C# und schließe externe Bibliotheken an.

Meine ersten Systeme (seit 2008) wurden mit VBA-Excel erstellt und haben sehr gut mit dem Terminal zusammengearbeitet. Keine Leistungsprobleme, auch nicht bei langsamer VBA. Im Allgemeinen ist eine Verzögerung von 50 ms keine gute Zeit, selbst wenn man innerhalb der 1-m-TF arbeitet.

 
Es ist einfacher, sich für ein intelligentes Signal anzumelden, aber wer braucht das schon? Im Allgemeinen....!!!!
 
Maxim Dmitrievsky:

Übrigens, erinnern Sie sich an Ihren Artikel über die Sequenzierung, in dem Sie vorschlugen, mehrere Signale hintereinander zu zählen... Überlagerung von Signalen

Ich habe eine interessante Lösung gefunden, um so etwas durch Fuzzy-Logik zu implementieren und in den Lernprozess einzubauen ... Ich werde später etwas dazu schreiben :)


Ja, das ist nur aus diesem Artikel..... Vielleicht wurde es dort nicht deutlich erklärt, aber niemand hat die Tatsache der Trennung aufgehoben.

Wir müssen die Aufteilung in gut und schlecht klar sehen, wenn das Modell stetig verliert oder gewinnt, ist das bereits ein Indikator, die Hauptsache ist die Stabilität der Aufteilung, nicht ihre Korrektheit, sondern die Stabilität der Aufteilung.....

 

SanSanych.

Schauen Sie sich die interessante Diskussion über "Overfittinga" an.

Viel Glück!

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko:

SanSanych.

Schauen Sie sich die interessante Diskussion über "Overfittinga" an.

Viel Glück!


Alles, was ich hier schreibe und in meiner Praxis anwende, ist eine Art Trick, um die Auswirkungen des grundlegenden Erkenntnisproblems, das hier Überanpassung oder Übertraining genannt wird, irgendwie zu verringern.


Das Problem der Überanpassung von Modellen ist NICHT prinzipiell gelöst, es ist nicht theoretisch gelöst, und dies ist schon seit langem bekannt. Ein Modell ist immer eine Annäherung, eine Vergröberung der Realität, der äußeren Welt. Daher spiegelt ein Modell IMMER ein Objekt mit einem gewissen Fehler wider. Dies ist die Stärke und die Schwäche eines jeden Modells. Daraus folgt, dass es unmöglich ist, ein Modell zu erstellen, ohne das zu modellierende Objekt gründlich zu untersuchen.


Wenn wir ein Zitat nehmen.

WAS modellieren wir?

Beim Random Forest automatisieren wir die Suche nach Mustern.

Wenn GARCH, dann modellieren wir statistische Merkmale eines Kurses.

Es wird dabei IMMER ein Fehler auftreten. Und ich habe hier eine Art Heuristik vorgeschlagen, dass sich dieser Fehler bei aufeinanderfolgenden Teilen der Zeitreihe NICHT ändern sollte. Wenn das Modell beim nächsten Chunk buchstäblich einen anderen Fehler liefert, dann ist es übertrainiert (over-fitted) und kann im Prinzip nicht verwendet werden.

Bei Random Forests habe ich festgestellt, dass, wenn man die verrauschten Prädiktoren entfernt, das trainierte Modell viel länger den gleichen Fehler liefert als mit den verrauschten Prädiktoren. Aber mir sind keine Lösungen bekannt, die ein Modell für alle Zeiten schaffen würden, und das brauche ich auch nicht. Ich habe kein Problem damit, das Modell auf der Grundlage der neuesten Daten neu zu trainieren. Das Training muss jedoch mit der Überprüfung der Rauschprädiktoren beginnen - ihre Menge ändert sich im Laufe der Zeit. Das heißt, nicht nur das Modell selbst ändert sich, sondern auch der Satz der Eingabedaten. Ich habe Fensterläufe entlang von Zeitreihen durchgeführt, d. h. von meinen 25 Prädiktoren gibt es eine konstante Auswahl von 10-15 Prädiktoren, und die Zusammensetzung dieser Gruppe ändert sich, d. h. etwas geht in Rauschen über und dann wieder zurück. Der Fehler ist sehr stabil und liegt zwischen 23% und 27% = immer unter 30%. Wenn der Fehler bei meinen Prädiktoren weniger als 20 % beträgt, verwende ich dieses Modell nicht und warte ab.


PS.

Aus dem, was ich gesagt habe, können Sie den Grund erkennen, warum ich mich nicht für andere Modelle interessiere.

 
SanSanych Fomenko:

Alles, was ich hier schreibe und in meiner Praxis anwende, ist eine Art von Technik, um die Auswirkungen des Grundproblems der Erkenntnis, das hier Überanpassung, Überlernen genannt wird, irgendwie zu reduzieren.


Der Standpunkt ist klar.

Viel Glück!

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
Als Theorie ist das interessant. Aber wie kann man sie praktisch nutzen? Ist irgendwo eine Software verfügbar?