Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1854

 
Wie kommt es, dass es an der Börse kein OI-Archiv gibt? Es scheint dort einige kostenpflichtige Dienste zu geben, vielleicht verkaufen sie
 
Maxim Dmitrievsky:
Wie kommt es, dass es kein OM-Archiv in der Börse gibt?
Das ist der Punkt, dass es kein Archiv gibt. Es wurde schon lange vorgeschlagen, dass die Entwickler OM in den Kopierer einbauen, das man aus der Geschichte übernehmen kann. Aber offenbar gibt es einige Einschränkungen. Ich kann auch den Typ, der mich beraten hat, fragen. Er schreibt es immer wieder, aber nicht für alle Symbole. Ich habe nur wegen der schlechten Leistung des Indikators aufgehört, ihn zu schreiben :-(.
 

Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.

   oob   RMSEr     AvgEr     AvgRelEr    Train  RMSEr     AvgEr     AvgRelEr

        0.409762  0.333394  0.431368          0.406325  0.330199  0.430042
        0.384805  0.293965  0.377680          0.380747  0.289936  0.377605
        0.383891  0.286546  0.356373          0.370912  0.275152  0.358349
        0.370671  0.261466  0.321370          0.353781  0.250322  0.326013
        0.380332  0.259588  0.299060          0.337633  0.227993  0.296931
        0.388428  0.248587  0.245976          0.309293  0.191325  0.249176
        0.401764  0.237416  0.195562          0.273932  0.150077  0.195456

Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.

Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:

for (r=0;r<rows;r++){
  RMSEr += Sqr (pred[r] - y[r]);
  AvgEr += fabs(pred[r] - y[r]);
}
//После суммирования:
RMSEr= sqrt(RMSEr / rows);
AvgEr = AvgEr / rows;

Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?

 
elibrarius:

Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.

Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.

Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:

Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?

Und das ist tatsächlich ein Thema, wenn der Fehler bei der Optimierung erst einmal reduziert wird und damit zu wachsen beginnt. Wenn wir rein theoretisch davon ausgehen, dass das Übertraining beginnt, wenn der Fehler zu wachsen beginnt, dann sollten wir das Training im Grunde bei oder kurz bevor der Fehler zu wachsen beginnt, beenden. Es ist eine Frage der Nachweismethode selbst. Welche Bewertungsmethoden dies umsetzen werden, ist eine andere Frage, aber die Tatsache, dass der Fehler als Zeichen für den Beginn der Umschulung zu wachsen beginnt, ist genial. ohne jeden Sarkasmus :-) Jetzt werde ich darüber nachdenken, was es möglich machen wird...
 
Mihail Marchukajtes:
Und das ist tatsächlich ein Thema, wenn während der Optimierung der Fehler zunächst abnimmt und dann zu wachsen beginnt. Wenn wir rein theoretisch davon ausgehen, dass zu Beginn des Fehlerwachstums ein Übertraining einsetzt, dann sollten wir das Training genau in dem Moment beenden, in dem der Fehler zu wachsen beginnt oder kurz davor. Es ist eine Frage der Nachweismethode selbst. Welche Bewertungsmethoden dies umsetzen werden, ist eine andere Frage, aber die Tatsache, dass der Fehler als Zeichen für den Beginn der Umschulung zu wachsen beginnt, ist genial. ohne jeden Sarkasmus :-) Jetzt werde ich darüber nachdenken, was es möglich machen wird...

Dies ist eine seit langem bekannte Methode zur Ermittlung von Übertraining, ich glaube, seit etwa 50 Jahren, d. h. seit den Anfängen der neuronalen Netze und Bäume. Siehe z. B. Artikel von V. Perervenko.
Ich bin mir in dieser Situation über das unterschiedliche Fehlerverhalten nicht im Klaren. Anhand des RMSE können wir den Beginn der Umschulung bestimmen, bei anderen nicht.

 
elibrarius:

Dies ist eine seit langem bekannte Methode zur Ermittlung von Übertraining, ich glaube, seit etwa 50 Jahren, d. h. seit den Anfängen der neuronalen Netze und Bäume. Siehe zum Beispiel Artikel von V. Perervenko.
Ich bin mir in dieser Situation über das unterschiedliche Verhalten von Fehlern nicht im Klaren. Anhand des RMSE können Sie den Beginn der Umschulung bestimmen, bei anderen nicht.

Ja, ja, ja... Ich bin ein Fan von so etwas :-)
 
elibrarius:

Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.

Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.

Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:

Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?

Es ist wie die SMA und EMA, AvrEr ist mehr verzögert - ich nehme es - ein Zahlenspiel.

 
Hat jemand mit Keras, wie man Daten für LSTM vorbereiten behandelt?
 
Mihail Marchukajtes:
Das ist das Problem: Es gibt kein Archiv. Wir haben schon lange vorgeschlagen, dass die Entwickler das OM in das Copybook aufnehmen, damit es aus der Geschichte übernommen werden kann. Aber es scheint, dass es einige Einschränkungen gibt. Ich kann auch den Kerl fragen, der es für mich gemacht hat. Er schreibt es immer wieder, aber nicht für alle Symbole. Ich habe nur wegen der schlechten Leistung des Indikators aufgehört, es zu schreiben :-(.

Misha, ich habe ein Video für dich aufgenommen.

 
Maxim Dmitrievsky:

Mischa, ich habe ein Video für dich gemacht, ich werde es bald hochladen.

Fahren Sie fort. Mal sehen, was für ein Biest :-)
Grund der Beschwerde: