Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3211

 
mytarmailS #:

Um Peekings zu vermeiden, hat Forester Recht, wenn er sagt, dass man bei jeder Iteration der Schleife die Prädiktoren ohne Peekings berechnen sollte.

Das ist die Lösung.

Bei dem ZZ-Beispiel war das offensichtlich.

Aber ohne ZZ erhalte ich oft einen Klassifikationsfehler von weniger als 10 %. Das entpuppt sich als Quatsch. Ich habe es weggeworfen.

 
СанСаныч Фоменко #:

Und man kann nicht auf der Datei INE laufen und glücklich leben, wie Maxim es mit sehr schönen Bildern tut.

Sie werden von vielen Dingen in Ihren Träumen träumen
 
Maxim Dmitrievsky #:
Ich bin nicht daran interessiert, die mentalen Probleme anderer Leute zu lösen.

Sie sind für schöne Bilder zuständig, auch auf dem Markt. Das ist also Ihr Hauptproblem.

 
СанСаныч Фоменко #:

Sie sind für schöne Bilder zuständig, auch auf dem Markt. Das ist also Ihr Hauptproblem.

Ich habe überhaupt keine Probleme, auch keine geistigen. Wenn Sie versuchen wollen, sie zu schaffen, versuchen Sie es.
 

Es ist eine einfache Rechnung, dass die Auswahl von Merkmalen aus einem Haufen heterogener Informationen erfolgt, die oft für den Gegenstand der Studie irrelevant sind.

Die abgeleiteten BPs sind alle auf diesen BP bezogen, man kann nur besser/schlechter wählen, oft macht das überhaupt keinen Sinn.

Ich spreche hier nicht von "peeking", das sind eher kindische Probleme. Offensichtlich haben solche Spielereien im Laufe der Jahre zu nichts geführt. Aber sie wiederholen es immer wieder.

Und die Fehler treten sogar in der Stichprobe auf, weil man die Abschlüsse einfach nicht richtig auszeichnen kann.
Bei neuen Daten kann es Varianten geben, z. B. Verzerrungen aufgrund von Trends oder Umlernen auf unvorhersehbare Schwankungen, Verwirrung. Abhilfe schafft die Modellfehlerkorrektur mit der CV-Methode.

Wo in Ihren Artikeln wird auch nur ein einziger Hinweis auf einfache und wirksame Fehlerkorrekturmethoden gegeben?

Lassen Sie mich raten: Es gibt keinen Pfeil zu solch heiligem Wissen in der P-Rubrik, und wir sind es nicht gewohnt zu googeln und zu denken :).
 
Maxim Dmitrievsky #:

Es ist eine einfache Rechnung, dass die Auswahl von Merkmalen aus einem Haufen heterogener Informationen erfolgt, die oft für den Gegenstand der Studie irrelevant sind.

Die abgeleiteten BPs sind alle auf diesen BP bezogen, man kann nur besser/schlechter wählen, oft macht das überhaupt keinen Sinn.

Ich spreche hier nicht von "peeking", das sind eher kindische Probleme. Offensichtlich haben solche Spielereien im Laufe der Jahre zu nichts geführt. Aber sie wiederholen es immer wieder.

Und die Fehler treten sogar in der Stichprobe auf, weil man die Geschäfte einfach nicht richtig auszeichnen kann.
Bei neuen Daten kann es Varianten geben, z. B. Verzerrungen aufgrund von Trends oder Umlernen auf unvorhersehbare Schwankungen, Verwirrung. Heilung durch Korrektur der Modellfehler mit der cv-Methode.

Wo in Ihren Artikeln wird ein einziger Hinweis auf einfache und wirksame Fehlerkorrekturmethoden gegeben?

CV-Fehler werden nicht durch ihre Bedeutung geheilt, da sie eine Suche nach optimalen Parametern mit Fehlerminimierung sind. Wenn ein Lehrer und seine Prädiktoren falsch korreliert sind, wird CV zwangsläufig etwas Besseres in diesem Unsinn finden, aber es wird das Unsinnsproblem nicht lösen.

Das Müllproblem wird durch die "Vorhersagefähigkeit" gelöst, d. h. die Fähigkeit der Prädiktorwerte, entweder die eine oder die andere Klasse vorherzusagen. Dann ist klar, dass der Klassifizierungsfehler dadurch bestimmt wird, dass dieselben Prädiktorenwerte zu bestimmten Zeitpunkten eine Klasse und zu anderen Zeitpunkten eine andere Klasse vorhersagen. Rattle hat sogar Bilder zu diesem Thema.

 
СанСаныч Фоменко #:

CV heilt keine Fehler in seinem Sinne, da es eine Suche nach optimalen Parametern mit Fehlerminimierung ist. Wenn ein Lehrer und seine Prädiktoren falsch korreliert sind, wird CV sicherlich etwas Besseres in diesem Unsinn finden, aber es wird das Unsinnsproblem nicht lösen.

Das Müllproblem wird durch die "Vorhersagefähigkeit" gelöst, d. h. die Fähigkeit der Prädiktorwerte, entweder die eine oder die andere Klasse vorherzusagen. Es ist dann klar, dass der Klassifikationsfehler dadurch bestimmt wird, dass dieselben Prädiktorenwerte zu manchen Zeitpunkten die eine Klasse und zu anderen Zeitpunkten eine andere Klasse vorhersagen. Rattle hat sogar Bilder zu diesem Thema.

Und nun? Suchen Sie nicht nach Korrelationen, suchen Sie nach Kausalität über Randomisierung und cv. Oder muss ich Sie belehren, Terver?

Fast jedes Modell mit einer festen Stichprobe ist fehlerhaft, wenn man keine Fehlerkorrektur vornimmt. Weil Sie nicht wissen, wie man ein Diagramm auszeichnet. Wenn du es könntest, aber du kannst es nicht. Sie werden den kleineren Teil zufällig immer richtig beschriften, egal was Sie darüber denken.
 
СанСаныч Фоменко #:

Das oben erwähnte Problem ist, dass es ein Modell gibt, das hervorragende Ergebnisse in einer Trainingsdatei und einer OOS-Datei erzielt. Soweit ich weiß, kann die Trainingsdatei auch durch Stichproben gewonnen werden, und die OOS-Datei ist das Residuum der Trainingsdatei.

Aber wenn man das Modell auf eine externe Datei anwendet, ist das Ergebnis katastrophal schlecht.

Ich glaube, ich habe in letzter Zeit ein paar Mal über OOS gesprochen. Aber dort war gutes OOS nach Ihrer Terminologie "separate Datei".

SanSanych Fomenko #:

Und wie erkennt man vorausschauend?

Wenn das Lernen in mehreren Durchgängen erfolgt (die nächste Stufe verwendet die Berechnungen der vorherigen), ist die Wahrscheinlichkeit des "Vorausschauens" hoch. Es gibt kein allgemeines Rezept, aber in einem Fall habe ich Folgendes getan.


Um die Berechnung zu beschleunigen, war es notwendig, unnötige Ticks zu beseitigen. Wenn Sie beispielsweise die Anzahl der Ticks um das 10-fache reduzieren, werden die Berechnungen um den gleichen Betrag beschleunigt. Das ist eine sehr anspruchsvolle Maßnahme.

In meinem Fall wusste ich, welche Ticks ich brauchte und welche ich kaum brauchte. Jedenfalls erstellte ich ein benutzerdefiniertes Symbol und startete Backtests mit dem benutzerdefinierten und dem ursprünglichen Symbol.

Hier war es wichtig, die Nerdigkeit einzuschalten und eine Übereinstimmung von über 99 % zu erreichen. Es stellte sich heraus, dass ich anfangs zu viel wegwarf und ein anderes Ergebnis erzielte (natürlich besser als beim Original).


Schließlich fing ich an, weniger als das Original herauszuwerfen, und alles stimmte überein. Das heißt, ich verwende beim Training tatsächlich eine Methode mit zwei Durchgängen.


Wahrscheinlich kann man die oben beschriebene Prüfung sogar vor ernsthaften Berechnungen verwenden, um Peeking nach dem vorherigen Durchgang zu erkennen. Tja, und es gibt auch eine großväterliche Methode, um das Vorausschauen zu erkennen - "zu schön, um wahr zu sein". Anfänger freuen sich über die coolen Ergebnisse, während reifere Leute sich ärgern, weil sie erkennen, dass sie lange nach ihrem eigenen Fehler suchen müssen.

 
fxsaber #:

Die Neulinge freuen sich über die coolen Ergebnisse, die Älteren sind verärgert, weil sie wissen, dass sie noch lange nach ihren eigenen Fehlern suchen müssen.

Und die Profis schauen sie mitleidig und herablassend an und sagen sich im Stillen: Wann denkt ihr daran, das Konzept zu ändern, nicht die Kulisse?

 
mytarmailS #:

Und Fachleute...

Ich habe keine getroffen.

Grund der Beschwerde: