Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 347

 
elibrarius:

d.h. wir brauchen =RNN(a0,a1,a2,a3);

Ich verstehe nicht, ob es sich bei RNN um RNN oder um ReshetovNNN (RNN) handelt, das nicht RNN ist.

Jetzt geht es um das eine, jetzt geht es um das andere. Ich verstehe schon nicht, in welchem Zusammenhang.

Рекуррентная нейронная сеть — Википедия
  • ru.wikipedia.org
Рекуррентные нейронные сети (англ.  ; RNN) — вид нейронных сетей, в которых имеется обратная связь. При этом под обратной связью подразумевается связь от логически более удалённого элемента к менее удалённому. Наличие обратных связей позволяет запоминать и воспроизводить целые последовательности реакций на один стимул. С точки зрения...
 
Yuriy Asaulenko:

Ich verstehe nicht, ob es sich bei RNN um RNN oder um ReshetovNNN (RNN) handelt, das kein RNN ist.

Es geht um das eine oder das andere. Ich verstehe schon nicht, in welchem Zusammenhang.

Nach dem Code zu urteilen, gibt es keinen Speicher im direkten Sinne. Die Eingänge erhalten nur Daten vom Indikator für ältere Balken, z.B. die Balken 0,1,2,3 oder 0,2,4,8 oder 0,10,20,30, je nachdem, was Sie bevorzugen. Die Erinnerung befindet sich also nicht im NS selbst, sondern stammt aus einer externen Quelle.
 
Elibrarius:
Nach dem Code zu urteilen, gibt es keinen Speicher im eigentlichen Sinne. Die Eingänge erhalten nur Daten vom Indikator für ältere Balken, z.B. Balken 0,1,2,3 oder 0,2,4,8 oder 0,10,20,30 - wie Sie wollen. Der Speicher befindet sich also nicht im NS selbst, sondern stammt aus einer externen Quelle.


Und es handelt sich nicht mehr um ein RNN. RNN ist nur mit Feedback - mit Rekursion. Jemand muss umbenannt werden)).

Und genau genommen ist es kein Netzwerk, sondern ein einzelnes Neuron.

 
Yuriy Asaulenko:


Und das ist nicht mehr RNN. RNN ist nur mit Feedback - mit Rekursion. Jemand muss umbenannt werden)).

Und genau genommen ist es kein Netzwerk, sondern ein einzelnes Neuron.

Fügen Sie ein weiteres Neuron der gleichen Art hinzu und speisen Sie die Ausgänge dieser beiden Neuronen in das dritte Neuron ein - fertig!) Nur die Gewichte können nicht optimiert werden, wenn das erste Neuron 100 Eingänge hat, das zweite 100 Eingänge und das dritte 2.

Anstatt aus allen 202 Eingaben zu berechnen, sollten wir hier aus den Trainingsbefehlen berechnen... Berechnen Sie die Gleichgewichtsoptimierung nicht im Optimierer, sondern verwenden Sie z. B. 1000 Trainingspunkte und berechnen Sie auf dieser Grundlage Koeffizienten.

 
elibrarius:
Fügen Sie ein weiteres Neuron hinzu und speisen Sie die Ausgänge dieser beiden Neuronen in das dritte Neuron ein - das ist das Gitter.) Nur die Gewichte sind unrealistisch, wenn das erste Neuron 100 Eingänge hat, das zweite 100 Eingänge und das dritte 2.
Die Lösung von Reshetov ist interessant. Wahrscheinlich wird etwas Ähnliches gemacht werden. Nur aus dem Kontext heraus versteht man oft nicht, wovon wir sprechen - von welchem RNN wir sprechen.
 
elibrarius:

Weil es einen Fehler in RNN3 gibt -
es werden Daten für 5 Punkte angefordert und Sie berechnen die Wahrscheinlichkeit für 4 Punkte und Sie beginnen nicht mit dem aktuellen Takt a0, sondern mit der Verschiebung auf die Periode, d.h. mit a1. Die Wahrscheinlichkeit wird nicht für den aktuellen Zeitpunkt, sondern für den Punkt a1 berechnet - daher sind die Ergebnisse für a0 schlecht))

// Преобразование показаний технического осциллятора RSI в диапазон от 0 до 1 включительно
   double a0 = rsi[0] / 100.0;
   double a1 = rsi[p] / 100.0;
   double a2 = rsi[2*p] / 100.0;
   double a3 = rsi[3*p] / 100.0;
   double a4 = rsi[4*p] / 100.0;



// Вычисление вероятности
   double results=RNN(a1,a2,a3,a4);

d.h. =RNN(a0,a1,a2,a3);

Nun, um für 5 Punkte zu rechnen, sollten Sie auch die Log-Matrix auf 25 Regeln, also52, erhöhen. Und so weiter, wenn mehr Punkte/Eingaben erforderlich sind. Wenn es 10 Eingänge gibt, bedeutet das 100 Eingangsvariablen ))))). Ich frage mich, ob MT5 in der Lage ist, dies zu optimieren?


Nein, das ist auch sein Original, ich habe nicht getauscht.

Bei 10 Einträgen wäre es schon problematisch, selbst durch die Wolke zu zählen) Aber ich werde versuchen, 3 solche Expertensysteme zu machen, gefüttert mit der Eingabe 4 ) Wenn die Eröffnungskurse nicht für einen sehr langen Zeitraum getestet werden, dann gut

 
Yuriy Asaulenko:
Reshetov hat eine interessante Lösung. Wahrscheinlich wird etwas Ähnliches gemacht werden. Nur aus dem Kontext heraus versteht man oft nicht, von welchem RNN wir sprechen.

Es ist kein RNN, es ist ein Expertensystem, wie er es nennt... Warum es RNN heißt, weiß ich nicht, vielleicht wegen des Nachnamens :)
 
Maxim Dmitrievsky:


Nö, das ist auch sein Original, ich habe nicht getauscht

Für 10 Einträge wäre es schon ein Problem, auch durch die Wolke zu zählen) Aber ich werde versuchen, 3 solcher Expertensysteme zu machen, die für den Eintrag des 4. eingereicht werden ) Wenn die Eröffnungskurse nicht für einen sehr langen Zeitraum getestet werden, dann gut

Und wenn wir sie in Rahmen mit einer kleinen Überlappung unterteilen? Wir erhalten 2-3 sich teilweise überschneidende Expert Advisors und kombinieren sie dann.
 
Yuriy Asaulenko:
Wie wäre es, wenn wir sie in Rahmen mit einer leichten Überlappung aufteilen? Wir erhalten 2-3 sich teilweise überschneidende EAs, die wir dann zusammenführen.

als Option, ja
 

Ich halte es für unrealistisch, mit einer solchen Matrix mit nur 3 bis 5 Eingaben etwas Gewinnbringendes zu berechnen. Ich stimme zu, dass sie alle möglichen Varianten abdeckt.

Wenn wir aber z.B. ein Netz mit 5 Eingängen erstellen, sind es 32 Koeffizienten für die Berechnungen. Der genetische Algorithmus konvergiert in der Regel in 10000 Durchläufen, d. h. die Eingaben konvergieren im Durchschnitt zu -1,0-1.
Mit 3 Eingaben kann vielleicht ein Muster berechnet werden, aber 3 Eingaben sind meiner Meinung nach nicht genug.

Neuronale Netze können zwar in R oder sogar in ALGLIB erstellt und schnell berechnet werden. Ihre interne Struktur wird nicht so vollständig sein, aber die stärksten Abhängigkeiten werden während der Ausbildung gefunden werden.

Grund der Beschwerde: