Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 614

 

Ist es möglich, genau zu lernen, wie man handelt? Schließlich ist das Risiko, dass ich mein Konto verliere, woran ich keinen Zweifel habe, sehr hoch.

 

Aber Micha hat versprochen, Java zu schlagen, also wird er bald wieder glänzen.

Ich frage mich, warum nicht Python? Vielleicht ist es dasselbe R? Das verstehe ich nicht.
 
Dr. Trader:

Ich habe oft in EAs von Market gesehen, dass gute Handelsparameter ein Plateau in der Optimierungsfunktion bilden. Wenn z. B. MA oder RSI in den Parametern enthalten sind, oder ein Koeffizient, dann hat die Änderung des Parameters um einen kleinen Wert keine Auswirkungen auf das Endergebnis.

Aber das ist logisch, denn die meisten Parameter werden in der Formel für die Berechnung des Indikators verwendet, so dass eine kleine Änderung nur geringfügige Auswirkungen auf das Ergebnis hat, das immer noch auf der Grundlage der gleichen Preise berechnet wird.

Beim maschinellen Lernen hingegen können Parameter einen lawinenartigen Effekt auf den gesamten Lernprozess haben, und selbst eine geringfügige Änderung führt zu einem völlig anderen Ergebnis. Zum Beispiel die Anzahl der Neuronen in einer versteckten Schicht - wenn wir sie erhöhen, erhöht sich auch die Anzahl der verwendeten Gewichte, und die Funktion der Initialisierung der Gewichte mit gpsc wird ihre Werte in einer etwas anderen Reihenfolge setzen, was zu einem anderen Ergebnis führen wird.
Für jeden Parameter können Sie den gleichmäßigen oder stochastischen Einfluss auf die resultierende Bewertung des Modells untersuchen, und für gleichmäßig beeinflussende Parameter können Sie zusätzlich einen auf Ableitungen basierenden Optimierer verwenden (Funktion optim(method="L-BFGS-B") und optimize() in R)

Es ist kein Markt, es ist überhaupt kein Markt - es ist eine Statistik mit einer Reihe von Tests zur Stabilität der Verhältnisse. Die bekannteste ist CUSUM.

Vielleicht deutet also die monströse Abhängigkeit des Ergebnisses von den von Ihnen angegebenen Netzwerkparametern darauf hin, dass sie grundsätzlich NICHT für Finanzmärkte geeignet sind?

Oder muss man vielleicht erst etwas konstruieren, das für den Zweck geeignet ist (einen Traktor - hier ist es modisch, oder eine Rakete), und dann über die Stabilität dessen, was man bekommt, streiten?

Aber wie dem auch sei: Entweder wir haben Beweise für die Modellstabilität oder wir brauchen sie gar nicht. Modellfehler und Modellstabilität sind zwei Seiten derselben Medaille.

 
Yuriy Asaulenko:
Ich frage mich, warum nicht Python? Vielleicht das gleiche R? Das verstehe ich nicht.

In der Tat. Da du so wissensdurstig bist, nimmst du eine Bewertung vor und studierst, was von oben herab zu passen scheint.

 
Dr. Trader:

Das Modell von Reschetow ist kein Benchmark. Es sucht zum Beispiel nach einer Reihe von Prädiktoren, indem es verschiedene Optionen ausprobiert - das Modell nimmt eine zufällige Reihe von Prädiktoren, lernt und speichert das Ergebnis. Dies wird in einer Schleife unzählige Male wiederholt, wobei das beste Ergebnis als endgültiges Modell verwendet wird. Dieser Prozess kann deutlich beschleunigt werden, wenn Sie zunächst eine Auswahl von Prädiktoren mit einem speziellen Algorithmus treffen und dann das Reshetov-Modell nur einmal mit dieser speziellen Menge trainieren. Und Sie erhalten die Qualität des Reshetov-Modells mit einer Geschwindigkeit, die mit der von AWS vergleichbar ist. Die "Kosten" eines solchen Modells werden deutlich sinken, aber die Qualität wird auf dem gleichen Niveau bleiben.


Was ist das für ein Algaritmus? Im Allgemeinen stimme ich mit der Aussage überein, dass Preis und Qualität zwei verschiedene Dinge sind. Sie können ein günstiges, aber hochwertiges Modell erwerben. Das eigentliche Problem von Reschetow besteht darin, dass er aufgrund der wiederholten Teilung der Stichprobe nach dem Zufallsprinzip usw. zu lange für die Berechnung braucht.

Noch einmal: Was sind das für Algorithmen, die sofort erkennen können, welcher Prädiktor irrelevant ist? Er hat eine Möglichkeit, dies zu implementieren, aber ich habe es mir noch nicht angesehen.... In der Tat definiert er es über eine Invariante, was logischerweise ziemlich aktuell ist, aber ich denke, dass es trotzdem Fehler gibt :-( Ich glaube nicht, dass es Fehler gibt, sondern eher, dass es keine Korrekturen gibt...

 

Wenn wir 2 versteckte Schichten verwenden, dann ist die 2. Schicht natürlich viel kleiner in der Anzahl der Neuronen als die 1.

Was ist das Minimum für die Anzahl der Neuronen in einer Schicht? Ich glaube nicht, dass es sinnvoll ist, weniger als 3-5 zu machen.

Oder können auch Schichten mit 1 - 2 Neuronen einen wesentlichen Beitrag zum Modell leisten?

 
elibrarius:

Wenn wir 2 versteckte Schichten verwenden, dann ist die 2. Schicht natürlich viel kleiner in der Anzahl der Neuronen als die 1.

Was ist das Minimum für die Anzahl der Neuronen in einer Schicht? Ich glaube nicht, dass es sinnvoll ist, weniger als 3-5 zu machen.

Oder können auch Schichten mit 1 - 2 Neuronen einen wesentlichen Beitrag zum Modell leisten?


Aus der Praxis - 1 Neuron mit 3 Eingängen können normale Signale für 1-1,5 Monate auf 15-Minuten-Charts und etwa 200 Trades, wenn wir eine größere Stichprobe dann die Qualität der Pauken Tropfen dramatisch und so tut die Anzahl der Trades, nicht genug Kombinationen. Das heißt, sofern das System stationär bleibt und sich die Signale wiederholen, würde sogar 1 Neuron ausreichen.

dasselbe mit Fuzzy-Logik auf 3 Eingängen und mit Optimierung von 4 Mitgliedsfunktionen
 
Mihail Marchukajtes:

Noch einmal: Welche Art von Algorithmen gibt es? die auf einen Blick erkennen können, welcher Prädiktor irrelevant ist.

Es gibt viele Algorithmen, sogar mehr als einem lieb ist. Zum Beispiel.

Artikel von Vladimir -https://www.mql5.com/ru/articles/2029

Artikel von Alexey -https://habrahabr.ru/company/aligntechnology/blog/303750/

 

Für diejenigen, die den Prozessor bei der Modellierung gerne mit allen möglichen Dingen belasten, gibt es eine Möglichkeit, die Zeit drastisch zu verkürzen.


Lohnen sich parallele Simulationen in der Cloud? Benchmarking meines MBP gegenüber meiner Workstation und Amazon EC2

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
  • Kristoffer Magnusson
  • www.r-bloggers.com
If you tend to do lots of large Monte Carlo simulations, you’ve probably already discovered the benefits of multi-core CPUs and parallel computation. A simulation that takes 4 weeks without parallelization, can easily be done in 1 week on a quad core laptop with parallelization. However, for even larger simulations reducing the computation time...
 
SanSanych Fomenko:

Für diejenigen, die den Prozessor bei der Modellierung gerne mit allen möglichen Dingen belasten, gibt es eine Möglichkeit, die Zeit drastisch zu verkürzen.

Lohnen sich parallele Simulationen in der Cloud? Benchmarking meines MBP gegenüber meiner Workstation und Amazon EC2

C Dll und eine Aufforderung, mt5, R und die richtigen Pakete zu installieren - anscheinend ist es unrealistisch, das zu erreichen.