Wie man die Eingabewerte für die NS richtig bildet. - Seite 10

 
TheXpert писал (а) >>

Macht nichts, tut mir leid, wenn ich falsch liege.

Ich werde versuchen, genauer zu erklären, worum es sich bei dieser Gegenprobe handelt, falls dieser Beitrag nicht eindeutig ist. Nehmen wir an, wir trainieren ein Netz auf minimalen Fehler. Nehmen wir an, wir haben es im Jahr 2007 ausprobiert und das Zwischenergebnis 0,5 erhalten. Wir überprüfen es im Jahr 2008 und erhalten 0,8. Dieses Netzwerk wird gespeichert und wir setzen das Training fort. Dann erhielten wir 0,4 für 2007 und überprüften es mit 0,7 für 2008. Alte Netze werden weggeworfen, und wir lernen dieses Netz auswendig und folgen ihm mit Training. Dann erhielten wir 0,3 für 2007 und 0,6 für 2008. Das alte Netz wird weggeworfen, man erinnert sich an dieses Netz und trainiert weiter. Für 2007 - 0,2, für 2008 - 0,8. Dieses Netz wird nicht gespeichert, das vorherige bleibt erhalten. Sie wird im Gedächtnis bleiben und weiter trainiert. Wenn wir es nicht geschafft haben, den Wert 2008 unter 0,6 zu senken, behalten wir das Netz mit 0,6 im Jahr 2008 und 0,3 im Jahr 2007 bei, und nicht das mit 0,2 oder weniger im Jahr 2007. Ein weiteres Training des Netzes ist in der Tat ein Übertraining. Dadurch wird ein Übertraining vermieden, auch wenn es nicht immer zu retten ist.

Und wie Sie sehen können, hat die Vorwärtsprüfung nichts damit zu tun......)))))

 
TheXpert писал (а) >>

...

Und was den Code angeht - werden Neurosolutions oder Neuroshel 2 den Code auf MQL4 portieren? Ich werde ein paar Funktionen schreiben, von denen ich denke, dass sie für die Bewohner hier und vielleicht auch für mich nützlich sein werden. Ein Grund mehr, hundert Zeilen Code zu schreiben - dafür brauche ich eine Stunde.

Nein. Durch Importieren von dll/def oder Neuschreiben von "c".

Ich werde ein paar Funktionen schreiben, von denen ich denke, dass sie für die Bewohner hier und vielleicht auch für mich nützlich sein werden. Ein Grund mehr, hundert Zeilen Code zu schreiben - es ist eine Stunde Zeit.

Vor allem, wenn sie sich dem Thema "1. Vorbereiten der Eingabedaten. (Mittelwertverschiebung, Dekorrelation, Kovarianzausgleich).", dann sehr cool, und wenn ... eine andere Implementierung von NS in MQL4, dann ...

Ich habe zum Beispiel nie verstanden, wie man die schönen Worte "Signifikanz der Eingaben" und "Kreuzkorrelation der Eingaben" in den Code einbauen kann (es ist kein Ezhov zur Hand, um schönere Worte einzufügen). D.h. Formeln/Algorithmen kenne ich, aber zu OHLC, Rauschen oder umgekehrt DC-Filter und eben "diskrete Werte", wenn Minuten lustig und Tage spät sind. :)

 
SergNF писал (а) >>

Nein. Durch Importieren von dll/def oder Neuschreiben von "s".

Vor allem, wenn sie sich dem "1. Vorbereitung der Eingabedaten. (Mittelwertverschiebungen, Dekorrelation, Kovarianzausgleich).",

>> Das ist richtig.

Ich für meinen Teil habe nie herausfinden können, wie man die schönen Worte "Signifikanz der Eingaben" und "Kreuzkorrelation der Eingaben" in Code umsetzt (kein Ezhov zur Hand, um weitere schöne Worte einzufügen). D.h. Formeln/Algorithmen kenne ich, aber zu OHLC, Rauschen oder umgekehrt DC-Filter und eben "diskrete Werte", wenn Minuten lustig und Tage spät sind. :)

Was ist denn so schlimm daran? Den Formeln ist es egal, ob sie Minuten- oder Wochendaten enthalten.

 
LeoV писал (а) >>

Ich werde versuchen, genauer zu erklären, worum es sich bei dieser Gegenprüfung handelt, falls dieser Beitrag nicht klar ist. Angenommen, wir trainieren ein Netz auf einen minimalen Fehler. Nehmen wir an, wir haben es im Jahr 2007 ausprobiert und das Zwischenergebnis 0,5 erhalten. Wir überprüfen es im Jahr 2008 und erhalten 0,8. Dieses Netzwerk wird gespeichert und wir setzen das Training fort. Dann erhielten wir 0,4 für 2007 und überprüften es mit 0,7 für 2008. Alte Netze werden weggeworfen, und wir lernen dieses Netz auswendig und folgen ihm mit Training. Dann erhielten wir 0,3 für 2007 und 0,6 für 2008. Das alte Netz wird weggeworfen, man erinnert sich an dieses Netz und trainiert weiter. Für 2007 - 0,2, für 2008 - 0,8. Dieses Netz wird nicht gespeichert, das vorherige bleibt erhalten. Sie wird im Gedächtnis bleiben und weiter trainiert. Wenn wir es nicht geschafft haben, den Wert 2008 unter 0,6 zu senken, behalten wir das Netz mit 0,6 im Jahr 2008 und 0,3 im Jahr 2007 und nicht das mit 0,2 oder weniger im Jahr 2007. Ein weiteres Training des Netzes bedeutet in der Tat ein Übertraining. Dadurch wird ein Übertraining vermieden, auch wenn es nicht immer zu retten ist.

Und wie Sie sehen können, hat die Vorwärtsprüfung nichts damit zu tun......)))))

Mit anderen Worten: Das Training bzw. die Optimierung endet nicht, wenn der Fehler in der Trainingsstichprobe minimal ist, sondern bevor der Fehler in der Teststichprobe zu steigen beginnt.

 
Erics писал (а) >>

Mit anderen Worten: Das Training bzw. die Optimierung endet nicht, wenn der Fehler in der Trainingsstichprobe minimal ist, sondern bevor der Fehler in der Teststichprobe zu steigen beginnt.

Also grundsätzlich ja. Denn die Theorie besagt, dass das Ausmaß des Fehlers in der Teststichprobe zunächst abnimmt, wenn der Fehler in der Ausbildungsstichprobe abnimmt, und dann zuzunehmen beginnt, obwohl der Fehler in der Ausbildungsstichprobe weiter abnimmt. Die Kunst besteht darin, diesen Tiefpunkt zu erwischen. Dies ist der Punkt des Übertrainings (bei Netzen) oder der Überoptimierung (bei TC).

 
LeoV писал (а) >>

Nun, ja. Die Theorie besagt nämlich, dass der Fehler in der Teststichprobe zunächst sinkt, wenn der Fehler in der Ausbildungsstichprobe abnimmt, und dann zu steigen beginnt, obwohl der Fehler in der Ausbildungsstichprobe weiter abnimmt. Die Kunst besteht darin, diesen Tiefpunkt zu erwischen. Dies ist der Punkt des Übertrainings (bei Netzen) oder der Überoptimierung (bei TC).

 
sergeev писал (а) >>

Völlig richtig. Es gibt nur einen kleinen Punkt, der zu beachten ist. Wenn die Kurve ansteigt, kann es Minima geben, die aber (theoretisch) höher als das erste Minimum liegen sollten. Zwar kann es manchmal weniger sein (in der Praxis), aber das ist selten.

 

Und hier ist ein Bild zum Thema Übertraining

 
LeoV писал (а) >>

Völlig richtig. Es gibt nur einen kleinen Punkt, der zu beachten ist. Wenn die Kurve ansteigt, kann es Minima geben, die aber (theoretisch) höher als das erste Minimum liegen sollten. Es kann zwar manchmal weniger sein (in der Praxis), aber es ist selten.

Gutes Argument.

Im Allgemeinen hat die Theorie in diesem Thread schon eine Menge gesagt (Sie können eine These in unserem Forum verteidigen :).

Und der Geist dürstet nun nach praktischen Erfahrungen und Wissen.

Wenn möglich, lassen Sie die Praktiker ihre Erfahrungen mit der Analyse und der Vorbereitung der Eingabewerte teilen. Das sind konkrete Beispiele.

>> Danke.

 
sergeev писал (а) >> Wenn möglich, lassen Sie die Praktiker ihre Erfahrungen bei der Analyse und Vorbereitung der Inputs teilen. Das heißt, konkrete Beispiele.

Auch die Eingabewerte sind keine einfache Frage. Was in den Netzeingang eingespeist werden soll, hängt von vielen Faktoren ab -

1. Welche Art von neuronalem Netz wird verwendet?

2. Was wollen wir vom neuronalen Netz erhalten - Preis oder Bewegungsrichtung oder Umkehrpunkte oder die nächste Kerze oder etwas anderes.

Sie müssen also zuerst über diese Fragen entscheiden und dann über den Input.

Grund der Beschwerde: