Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 408

 

Guten Tag zusammen.


Zur Klarstellung: Welche ML-Pakete verwenden die Teilnehmer, oder wird alles über MQL abgewickelt?

 

Überraschenderweise ist die Datei lesbar, die Qualität des Modells ist schlecht, wer will schon die Validierung überprüfen....

Dateien:
 
Mihail Marchukajtes:

Überraschenderweise ist die Datei lesbar, die Qualität des Modells ist schwach, wer will schon auf Validierung prüfen....

In einer Datei wird geschrieben
* TruePositives: 853
* TrueNegatives: 1098
* FalschePositive: 732
* FalschNegative: 985

d.h. fast 50/50.
Bei einem etwas einfacheren Logikproblem habe ich ungefähr das gleiche Ergebnis erhalten, weshalb ich annahm, dass die Rauscheingänge das RNN-Ergebnis wirklich durcheinander bringen.

 
elibrarius:

In der Akte steht
* TruePositives: 853
* TrueNegatives: 1098
* FalschePositive: 732
* FalschNegative: 985

d.h. fast 50/50.
Bei einem etwas einfacheren Logikproblem habe ich in etwa das gleiche Ergebnis erhalten, weshalb ich annahm, dass Rauscheingaben das RNN-Ergebnis wirklich vermasseln.


Doch, die Verallgemeinerbarkeit des Modells liegt bei 52 Prozent, also...
 
Aleksey Terentev:

Guten Tag zusammen.


Zur Klarstellung: Welche ML-Pakete verwenden die Teilnehmer, oder wird alles über MQL abgewickelt?

In der Regel wird alles in R gemacht, mit Ausnahme einiger Enthusiasten, die versuchen, einige Modelle in MQL umzuschreiben. Was die Pakete betrifft, so hängt es davon ab, welches Modell man verwendet - Bäume, neuronale Netze, tiefe neuronale Netze usw.

An welchem Modell sind Sie interessiert?

Viel Glück!

 
Vladimir Perervenko:

In der Regel wird alles in R durchgeführt, mit Ausnahme einiger Enthusiasten, die versuchen, einige Modelle in MCL umzuschreiben. Was die Pakete betrifft, so hängt es davon ab, welches Modell man verwendet - Bäume, neuronale Netze, tiefe neuronale Netze usw.

An welchem Modell sind Sie interessiert?

Viel Glück!


Sie haben den Optimierer von Reshetov vergessen, er wird auch hier verwendet....
 
elibrarius:

In der Akte steht
* TruePositives: 853
* TrueNegatives: 1098
* FalschePositive: 732
* FalschNegative: 985

d.h. fast 50/50.
Bei einem etwas einfacheren Logikproblem habe ich in etwa das gleiche Ergebnis erhalten, weshalb ich annahm, dass Rauscheingaben das RNN-Ergebnis stark beeinträchtigen.


Ein normaler MLP 20-5-1 kann das gleiche Problem lösen:

Durchschnittlicher Fehler beim Training (60,0%) plot =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Mittlerer Fehler bei der Validierung (20,0%) Abschnitt =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Mittlerer Fehler beim Test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Berechnungszeit=0,77 min.

Obwohl es manchmal auch 50% gibt, brauche ich wohl mehr als 2 Umschulungszyklen.
---------------------------------

Netzwerk nnet 20-1-1 von R :
Vorhersage
Aktuell 0 1 Fehler
0 0.41 0.09 0.18
1 0.24 0.26 0.48

Etwas schlechter, aber das Problem ist in wenigen Sekunden gelöst.

Aber das RNN hat einen Fehler = 0, auf dem Trainingsabschnitt. Und das ist auch gut so. Ich werde mein Experiment wahrscheinlich in einem Blog veröffentlichen.

 
elibrarius:

Ein gewöhnliches MLP 20-5-1 kann dies zum gleichen Problem erzeugen:

Durchschnittlicher Fehler beim Training (60,0%) plot =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Mittlerer Fehler bei der Validierung (20,0%) Abschnitt =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Mittlerer Fehler beim Test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Berechnungszeit=0,77 min
---------------------------------

Netzwerk nnet 20-1-1 von R :
Vorhersage
Aktuell 0 1 Fehler
0 0.41 0.09 0.18
1 0.24 0.26 0.48

Etwas schlechter, aber das Problem ist in wenigen Sekunden gelöst.

Wir müssen hier etwas anderes verstehen, nämlich dass es nicht schwierig ist, ein Problem zu lösen, sondern dass die Frage ist, wie sich das Modell weiter verhalten wird. Wir können schnell und ohne Fehler lernen. Aber mit neuen Daten werden wir nichts haben. Predikshin hat eine sehr gute Eigenschaft - bei neuen Daten arbeitet es mit der gleichen Fehlerquote wie beim Training. Weil es keine Umschulung ist und bla bla bla. Und die anderen Netze können dieses Beispiel sehr schnell lernen, zeigen aber viel schlechtere Ergebnisse bei neuen Daten... IMHO
 
Mihail Marchukajtes:

Wir müssen erkennen, dass die Lösung des Problems keine schwierige Aufgabe ist, aber die Frage ist, wie sich das Modell danach verhalten wird. Wir können schnell und ohne Fehler lernen. Und mit neuen Daten werden wir nichts haben. Predikshin hat eine sehr gute Eigenschaft - bei neuen Daten arbeitet es mit der gleichen Fehlerquote wie beim Training. Weil es keine Umschulung ist und bla bla bla. Und die anderen Netze können dieses Beispiel sehr schnell lernen, zeigen aber viel schlechtere Ergebnisse bei neuen Daten... IMHO

Hier sind also die neuen Daten:

Durchschnittlicher Fehler bei der Validierung (20,0%) Abschnitt =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Durchschnittlicher Fehler beim Test (20,0%) Standort =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2

 
elibrarius:

Hier sind also die neuen Daten:

Durchschnittlicher Fehler bei der Validierung (20,0%) plot =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Durchschnittlicher Fehler beim Test (20,0%) plot =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2


Ich bestreite nicht, dass es sein könnte... :-)
Grund der Beschwerde: