Was soll in den Eingang des neuronalen Netzes eingespeist werden? Ihre Ideen... - Seite 80

 
Aleksey Vyazmikin #:

In welchem Zeitraum wurde die Studie durchgeführt? Wurden Schlusskurse angegeben? Von welchem TF? Demo-Test von MQ? Wie hoch ist die matte Erwartung für 1 Lot?

Umstellung auf 21 Jahre: 2000 bis 2021.

Die beiden Diagramme sind zu unvereinbar: 2000 bis 2012 und 2012 bis 2021.
Wenn sie beide nach oben gehen: entweder Umschulung oder etwas funktioniert.

Test auf icMarkets, echtes Konto. Ich kenne die Details nicht, ich bin gerade nicht an meinem Computer.

Was die Auswahl der Eingangspreise betrifft: Ich streue hier noch nicht, ich habe zwei Jahre lang gegraben, ich behalte die besten. Ich kann etwas Neugieriges posten.
 
Forester #:
Wären da nicht die sechsmonatigen Drawdowns, wäre es in Ordnung. Ich habe sie bis zu 2 Jahre lang gehabt. Beim Testen mit 2015 valkingforward.

PS. Wie können Sie alle nachts arbeiten? Tagsüber ist die effizienteste Zeit.
Ja, frontal sind die Ergebnisse gleich null.

Aber ich mochte die Tatsache, dass das "Relais" funktioniert: Wenn Sie es in eine Richtung drehen, gibt es eine Menge Lärm (Müll) auf dem Vorwärts, wenn Sie es in die andere Richtung drehen, gibt es weniger Lärm, aber gute Geschäfte sind nicht abgeschnitten.
 
Ivan Butko #:


Was ist das für ein Programm?

 
Andrey Dik #:

Was ist das für ein Programm?

Ich habe versucht, Chat dazu zu bringen, ein Python-NS auf meiner RTX 3080 laufen zu lassen. Er bot mir eine Entwicklungsumgebung an: Jupiter, GoogleCollab, Idle, oder Spider.

Mir gefällt das Aussehen von Spider, ich lasse die Modellskripte darin laufen.
 
Meine Vorhersage ist, dass das einzige Modell, das in der Lage sein wird, für eine lange Zeit einen stabilen Gewinn zu erzielen, die Zusammenarbeit von CNN + BiLSTM + MLP ist.

DieFaltungsnetzwerke werden besser abschneiden
 
Ich sage voraus, dass das einzige Modell, das in der Lage sein wird, über einen langen Zeitraum hinweg stabile Gewinne zu erzielen, die Zusammenarbeit von CNN + BiLSTM + MLP ist

1) Konvergente Netze werden besser in der Musterextraktion und Generalisierung sein. Das heißt, sie werden die Eingangsdaten vorverarbeiten.

2) Rekurrente Netze arbeiten mit Daten, die bereits von Unrat bereinigt wurden, und ihr Modul für den vorherigen Zustand passt sich an den sich verändernden Markt an.

3) Das mehrschichtige Perzeptron lernt einfach Handelsregeln aus den richtig verarbeiteten Daten. Schließlich ist es das sorgfältigste von allen dreien.


Im Falle starker Veränderungen im Verhalten eines Währungspaares werden die Rekursionsnetzwerke Sie nicht schnell aussteigen lassen, sondern den Handel allmählich zum Stillstand bringen, was das Signal für ein neues Training des gesamten Systems gibt.


Dies ist meine subjektive Meinung, die auf meinem Verständnis dieser Methoden beruht.

Ich habe dieses Bündel noch nicht richtig in meinen Händen gesponnen.

Nochmals, wenn man bedenkt, dass all diese Methoden schon hunderte Male von Fachleuten hier diskutiert wurden, kann ich mich irren. Andererseits haben wir uns von der Standardvorhersage der nächsten Kerze, die normalerweise in Artikeln gemacht wird, zugunsten des TS-Polierens entfernt. Und vielleicht wird es eine Verschiebung geben.
[Gelöscht]  
Ivan Butko Konvergente Netze werden besser in der Musterextraktion und Generalisierung sein. Das heißt, sie werden die Eingangsdaten vorverarbeiten.

2) Rekurrente Netze arbeiten mit Daten, die bereits von Unrat bereinigt wurden, und ihr Modul für den vorherigen Zustand passt sich an den sich verändernden Markt an.

3) Das mehrschichtige Perzeptron lernt einfach Handelsregeln aus den richtig verarbeiteten Daten. Schließlich ist es das sorgfältigste von allen dreien.


Im Falle starker Veränderungen im Verhalten eines Währungspaares werden die Rekursionsnetzwerke Sie nicht schnell aussteigen lassen, sondern den Handel allmählich zum Stillstand bringen, was das Signal für ein neues Training des gesamten Systems gibt.


Dies ist meine subjektive Meinung, die auf meinem Verständnis dieser Methoden beruht.

Ich habe dieses Bündel noch nicht richtig in meinen Händen gesponnen.

Aber wenn man bedenkt, dass all diese Methoden schon hunderte Male von Fachleuten hier diskutiert wurden, kann ich mich auch irren. Andererseits haben wir uns von der Standardvorhersage der nächsten Kerze, die normalerweise in Artikeln gemacht wird, zugunsten des TS-Polierens entfernt. Und vielleicht wird es eine Verschiebung geben.
Das ist alles Blödsinn, aber die Frage ist eine andere
Hat der TS-Spender auch ein Plus auf dem Vorwärts)?
 
Ivan Butko #:

Das Problem der Zahlen.

... Aber es ist so, dass die Eingabedaten eigentlich schon einen Kraftfaktor in sich tragen, der ihrem quantitativen Wert gegenübersteht. ...


Proben, jede der n Zahlen, die den Eingängen X[0 ... n-1] im Trainingsprozess zugeführt werden, sollten so vortrainiert (normalisiert) werden, dass sie unter sonst gleichen Bedingungen gleich sind.


In dem Zusammenhang, dass der Y-Wert am Ausgang eines angepassten Neurons die Summe von X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1] ist, kann diese Äquivalenz nur auf eine Weise erreicht werden:

Die Summen der Werte |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| in allen Trainingsstichproben sollten gleich sein.

Wobei W[n] als "andere gleiche Bedingung" gleich X[n] genommen wird.

Das heißt, bereits unter Berücksichtigung der "anderen gleichen Bedingung" sind zwei Stichproben numerisch gleichwertig, wenn ihre Summen X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 gleich sind.


Zum Beispiel :

Wenn einige Abschnitte des Preises durch seine Inkremente X[n][k]=schließen[n][k]-öffnen[n][k], wobei n die Wertnummer von X und k die Probennummer ist, als Trainingsstichprobenbeutel verwendet werden,

dann wird die Summe der Werte |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| die Weglänge der Kurve, die der Preis innerhalb einer bestimmten Stichprobe k durchläuft.

Das heißt, die Trainingsstichproben k müssen im physikalischen Sinne dieses Beispiels buchstäblich durch ihre Weglänge der Preiskurve zueinander pränormiert werden.

Und nun ist es möglich (und notwendig), eine weitere Normalisierung für sie vorzunehmen, und zwar im Bereich von nicht weniger / nicht mehr als -+1, indem alle X[n][k] durch max geteilt werden, wobei max das Maximum |X[n][k]| ist, das aus allen X[n][k] gefunden wurde.

Im Lernprozess werden dann diese normalisierten Stichproben X[0 ... n-1][k] als Trainingsstichproben verwendet, wobei jede ihre eigene Punktzahl d[k] hat, die den Beitrag dieser Stichprobe zum gesamten Lernergebnis bestimmt.


Nochmals :

Ich nehme an, dass das Training nicht mit allen verfügbaren Stichproben k durchgeführt werden sollte, sondern nur mit denen, die eine "anständige" (ich benutze dieses Wort) Bewertung d[k] haben.

Um jedoch eine "würdige" Stichprobe zu erstellen, müssen wir immer noch alle Stichproben k mit ihren d[k]-Bewertungen haben.

Aber das ist ein anderes Thema ...

 
Maxim Dmitrievsky #:
TC-Spender ist auch Plus auf dem Stürmer)?



Auf jeden Fall habe ich die Theorie beschrieben: der Sinn von NS ist es, die groben TS herauszufiltern, die etwas zeigen.







Und ich habe den Ansatz beschrieben: manuell nach jedem TS suchen, der zumindest einige Ergebnisse zeigt. Und mit NS filtern. Hier ist der ursprüngliche TS.

Untauglich für den Handel, aber ein Lebenszeichen von sich gebend .


Und hier ist derselbe, nur gefiltert durch Python NS: LSTM-key.

 
Evgeny Shevtsov #:


Stichproben mit jeweils n Zahlen, die den Eingängen X[0 ... n-1] während des Trainings zugeführt werden, müssen vortrainiert (normalisiert) werden, so dass sie unter sonst gleichen Bedingungen gleich sind.


In dem Zusammenhang, dass der Y-Wert am Ausgang eines angepassten Neurons die Summe von X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1] ist, kann diese Äquivalenz nur auf eine Weise erreicht werden:

Die Summen der Werte |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| müssen für alle Trainingsproben gleich sein.

Wobei W[n] als "andere gleiche Bedingung" gleich X[n] angesehen wird.

Das heißt, bereits unter Berücksichtigung der "anderen gleichen Bedingung" sind zwei Stichproben numerisch gleichwertig, wenn ihre Summen X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 gleich sind.


Zum Beispiel :

Wenn einige Abschnitte des Preises durch seine Inkremente X[n][k]=schließen[n][k]-öffnen[n][k], wobei n die Wertnummer von X und k die Stichprobennummer ist, als Trainingsmusterpaket verwendet werden,

dann wird die Summe der Werte |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| die Länge des Kurvenverlaufs, den der Preis innerhalb einer bestimmten Stichprobe k durchläuft.

Das heißt, die Trainingsstichproben k müssen im physikalischen Sinne dieses Beispiels buchstäblich durch ihre Weglänge der Preiskurve zueinander vornormormiert werden.

Nun ist es möglich (und notwendig), eine weitere Normalisierung für sie vorzunehmen, und zwar im Bereich von nicht weniger / nicht mehr als -+1, indem alle X[n][k] durch max geteilt werden, wobei max das Maximum |X[n][k]| ist, das aus allen X[n][k] gefunden wurde.

Im Lernprozess werden dann diese normalisierten Stichproben X[0 ... n-1][k] als Trainingsstichproben eingespeist, wobei jede ihre eigene Punktzahl d[k] hat, die den Beitrag dieser Stichprobe zum Gesamtlernergebnis bestimmt.


Nochmals :

Ich bin der Meinung, dass das Training nicht mit allen verfügbaren Stichproben k durchgeführt werden sollte, sondern nur mit denen, die eine "anständige" (ich benutze dieses Wort) Bewertung d[k] haben.

Um jedoch eine Stichprobe von "würdigen" Stichproben zu bilden, müssen wir immer noch alle Stichproben k mit ihren d[k]-Bewertungen haben.

Aber das ist ein anderes Thema ...



Sie schreiben interessant Hier kommt die Dissonanz mit der Problemzahlentheorie ins Spiel:

Nun ist es möglich (und notwendig), eine weitere Normalisierung für sie vorzunehmen, und zwar im Bereich von mindestens / höchstens -+1, indem man alle X[n][k] durch max teilt, wobei max das Maximum |X[n][k]| ist, das man aus allen X[n][k] findet.
Nach der Normalisierung wird jeder Kringel durch eine quantitative Zahl beschrieben, die das endgültige NS-Ergebnis umso mehr beeinflusst, je größer ihr Wert ist. Und tatsächlich ist ein solcher "Ausreißer" in der Trajektorie möglicherweise kein Muster, sondern hat die "gewichtigste" Zahl.

Das ist unvernünftig und ungerechtfertigt, denn einem Muster eine "Stärke" zuzuschreiben, kommt, grob gesagt, der Suche nach einem Gral gleich. Man braucht keine NS, man nimmt einfach die Muster mit dem höchsten (numerischen) Power-Index, kombiniert sie mit einem anderen ähnlichen Muster und eröffnet eine Position, weil nach dieser Logik die Gewinnwahrscheinlichkeit angeblich höher ist.



Deshalb wollte ich von den Zahlen wegkommen, oder eine Methode finden, die irgendwie objektiv (so objektiv wie möglich) einem Muster eine bestimmte Potenz gibt, die in irgendeinem Kontext (Mischung mit anderen Mustern) eine hohe Wahrscheinlichkeit ergibt, dass es funktioniert. Dann gibt es einen Sinn der Vorverarbeitung.