Was soll in den Eingang des neuronalen Netzes eingespeist werden? Ihre Ideen... - Seite 80
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
In welchem Zeitraum wurde die Studie durchgeführt? Wurden Schlusskurse angegeben? Von welchem TF? Demo-Test von MQ? Wie hoch ist die matte Erwartung für 1 Lot?
Wären da nicht die sechsmonatigen Drawdowns, wäre es in Ordnung. Ich habe sie bis zu 2 Jahre lang gehabt. Beim Testen mit 2015 valkingforward.
PS. Wie können Sie alle nachts arbeiten? Tagsüber ist die effizienteste Zeit.
Was ist das für ein Programm?
Was ist das für ein Programm?
Das Problem der Zahlen.
Proben, jede der n Zahlen, die den Eingängen X[0 ... n-1] im Trainingsprozess zugeführt werden, sollten so vortrainiert (normalisiert) werden, dass sie unter sonst gleichen Bedingungen gleich sind.
In dem Zusammenhang, dass der Y-Wert am Ausgang eines angepassten Neurons die Summe von X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1] ist, kann diese Äquivalenz nur auf eine Weise erreicht werden:
Die Summen der Werte |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| in allen Trainingsstichproben sollten gleich sein.
Wobei W[n] als "andere gleiche Bedingung" gleich X[n] genommen wird.
Das heißt, bereits unter Berücksichtigung der "anderen gleichen Bedingung" sind zwei Stichproben numerisch gleichwertig, wenn ihre Summen X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 gleich sind.
Zum Beispiel :
Wenn einige Abschnitte des Preises durch seine Inkremente X[n][k]=schließen[n][k]-öffnen[n][k], wobei n die Wertnummer von X und k die Probennummer ist, als Trainingsstichprobenbeutel verwendet werden,
dann wird die Summe der Werte |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| die Weglänge der Kurve, die der Preis innerhalb einer bestimmten Stichprobe k durchläuft.
Das heißt, die Trainingsstichproben k müssen im physikalischen Sinne dieses Beispiels buchstäblich durch ihre Weglänge der Preiskurve zueinander pränormiert werden.
Und nun ist es möglich (und notwendig), eine weitere Normalisierung für sie vorzunehmen, und zwar im Bereich von nicht weniger / nicht mehr als -+1, indem alle X[n][k] durch max geteilt werden, wobei max das Maximum |X[n][k]| ist, das aus allen X[n][k] gefunden wurde.
Im Lernprozess werden dann diese normalisierten Stichproben X[0 ... n-1][k] als Trainingsstichproben verwendet, wobei jede ihre eigene Punktzahl d[k] hat, die den Beitrag dieser Stichprobe zum gesamten Lernergebnis bestimmt.
Nochmals :
Ich nehme an, dass das Training nicht mit allen verfügbaren Stichproben k durchgeführt werden sollte, sondern nur mit denen, die eine "anständige" (ich benutze dieses Wort) Bewertung d[k] haben.
Um jedoch eine "würdige" Stichprobe zu erstellen, müssen wir immer noch alle Stichproben k mit ihren d[k]-Bewertungen haben.
Aber das ist ein anderes Thema ...
Auf jeden Fall habe ich die Theorie beschrieben: der Sinn von NS ist es, die groben TS herauszufiltern, die etwas zeigen.
Und ich habe den Ansatz beschrieben: manuell nach jedem TS suchen, der zumindest einige Ergebnisse zeigt. Und mit NS filtern. Hier ist der ursprüngliche TS.
Untauglich für den Handel, aber ein Lebenszeichen von sich gebend .
Und hier ist derselbe, nur gefiltert durch Python NS: LSTM-key.
Stichproben mit jeweils n Zahlen, die den Eingängen X[0 ... n-1] während des Trainings zugeführt werden, müssen vortrainiert (normalisiert) werden, so dass sie unter sonst gleichen Bedingungen gleich sind.
In dem Zusammenhang, dass der Y-Wert am Ausgang eines angepassten Neurons die Summe von X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1] ist, kann diese Äquivalenz nur auf eine Weise erreicht werden:
Die Summen der Werte |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| müssen für alle Trainingsproben gleich sein.
Wobei W[n] als "andere gleiche Bedingung" gleich X[n] angesehen wird.
Das heißt, bereits unter Berücksichtigung der "anderen gleichen Bedingung" sind zwei Stichproben numerisch gleichwertig, wenn ihre Summen X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 gleich sind.
Zum Beispiel :
Wenn einige Abschnitte des Preises durch seine Inkremente X[n][k]=schließen[n][k]-öffnen[n][k], wobei n die Wertnummer von X und k die Stichprobennummer ist, als Trainingsmusterpaket verwendet werden,
dann wird die Summe der Werte |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| die Länge des Kurvenverlaufs, den der Preis innerhalb einer bestimmten Stichprobe k durchläuft.
Das heißt, die Trainingsstichproben k müssen im physikalischen Sinne dieses Beispiels buchstäblich durch ihre Weglänge der Preiskurve zueinander vornormormiert werden.
Nun ist es möglich (und notwendig), eine weitere Normalisierung für sie vorzunehmen, und zwar im Bereich von nicht weniger / nicht mehr als -+1, indem alle X[n][k] durch max geteilt werden, wobei max das Maximum |X[n][k]| ist, das aus allen X[n][k] gefunden wurde.
Im Lernprozess werden dann diese normalisierten Stichproben X[0 ... n-1][k] als Trainingsstichproben eingespeist, wobei jede ihre eigene Punktzahl d[k] hat, die den Beitrag dieser Stichprobe zum Gesamtlernergebnis bestimmt.
Nochmals :
Ich bin der Meinung, dass das Training nicht mit allen verfügbaren Stichproben k durchgeführt werden sollte, sondern nur mit denen, die eine "anständige" (ich benutze dieses Wort) Bewertung d[k] haben.
Um jedoch eine Stichprobe von "würdigen" Stichproben zu bilden, müssen wir immer noch alle Stichproben k mit ihren d[k]-Bewertungen haben.
Aber das ist ein anderes Thema ...
Sie schreiben interessant Hier kommt die Dissonanz mit der Problemzahlentheorie ins Spiel:
Das ist unvernünftig und ungerechtfertigt, denn einem Muster eine "Stärke" zuzuschreiben, kommt, grob gesagt, der Suche nach einem Gral gleich. Man braucht keine NS, man nimmt einfach die Muster mit dem höchsten (numerischen) Power-Index, kombiniert sie mit einem anderen ähnlichen Muster und eröffnet eine Position, weil nach dieser Logik die Gewinnwahrscheinlichkeit angeblich höher ist.
Deshalb wollte ich von den Zahlen wegkommen, oder eine Methode finden, die irgendwie objektiv (so objektiv wie möglich) einem Muster eine bestimmte Potenz gibt, die in irgendeinem Kontext (Mischung mit anderen Mustern) eine hohe Wahrscheinlichkeit ergibt, dass es funktioniert. Dann gibt es einen Sinn der Vorverarbeitung.