Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3321

 
Maxim Dmitrievsky #:

Sie führen an, dass dies das Minimum/Maximum des Kriteriums ist? Dies hat nichts mit dem globalen Minimum/Maximum des Modells selbst zu tun.

Zeigen Sie mir das Diagramm.

Bitte.

Zeigen Sie auf dem Kriteriendiagramm, wo Sie das Training beenden müssen.

 

Das ist sehr weit weg,

Ich werde versuchen, ein Lied zu machen.

Es ist schwer zu sagen, ich habe es schon vergessen und es ist lang, die Musik, wenn wir sie lernen, ist eine lange Melodie:

 
Andrey Dik #:

Zeigen Sie mir das Diagramm.

Bitte.

Zeigen Sie in diesem Diagramm die Kriterien, bei denen Sie das Training abbrechen müssen.

Wie geht es weiter, wenn das Kriterium für die gesamte Stichprobe mindestens erfüllt ist?

 
Wenn man sich in ein neues Mädchen verliebt, fängt man an, Frauenmusik zu hören.
 

Sie wissen, was ich meine?

Ein echter KI-Spezialist braucht rote Zigaretten und grünes Parfüm.

 
Maxim Dmitrievsky #:

dasMinimum des Kriteriums der Bruttostichprobe erreicht, was kommt dann?

Bingo!

Jetzt haben Sie endlich begriffen, dass jegliches Lernen nichts anderes als eine Optimierung mit Suche nach einem globalen Extremum ist. Oder vielleicht haben Sie es noch nicht begriffen, aber das werden Sie.

Es kann nicht anders sein, Sie brauchen immer ein eindeutiges Kriterium, um das Lernen zu beenden, und dieses Kriterium ist immer so ausgelegt, dass es ein globales Extremum ist. Normalerweise wird ein integrales Kriterium entworfen (nicht immer). Sie haben integrale Kriterien genannt.

 
Andrey Dik #:

Bingo!

Jetzt haben Sie endlich begriffen, dass jegliches Lernen nichts anderes als eine Optimierung mit der Suche nach einem globalen Extremum ist. Oder vielleicht haben Sie es noch nicht begriffen, aber das werden Sie.

Es kann nicht anders sein, Sie brauchen immer ein eindeutiges Kriterium, um das Lernen zu beenden, und dieses Kriterium ist immer so gestaltet, dass es ein globales Extremum ist. In der Regel konstruiert man ein integrales Kriterium (nicht immer). Sie haben integrale Kriterien genannt.

Im ursprünglichen Beitrag ging es um die Modellkomplexität, nicht um Extrema. Du ziehst nur deine eigene Linie und vergisst, was ich geschrieben habe.

Das heißt, Sie betreiben wieder einmal Pee-Hacking oder dehnen Daten, um sie Ihren Worten anzupassen.

 
Andrey Dik #:

Zeigen Sie mir das Diagramm.

Bitte.

Zeigen Sie in diesem Diagramm die Kriterien, bei denen Sie das Training abbrechen müssen.


Hier ist eine typische Darstellung des Modellanpassungsfehlers.

Er nähert sich asymptotisch einem bestimmten Wert der Abweichung von der Achse.

Die Höhe der Abweichung ist eine Eigenschaft des Ziel-Prädiktor-Paares. Durch die Optimierung der Parameter eines bestimmten Modells können einige Krümel erhalten werden, aber es ist unmöglich, die Eigenschaft "Ziel-Prädiktoren" durch irgendeine Optimierung zu überspringen.

Wenn die Verzerrung 45 % des Fehlers beträgt, ist es unmöglich, durch Änderung der Modellparameter 10 % weniger zu erhalten. Und keine Optimierung wird helfen.

Und wenn es Ihnen gelingt, ein Paar "Zielprädiktoren" mit einem Fehler von 20% zu finden, wird der Fehler bei 20% liegen, egal was Sie tun.

Außerdem. Wenn die Fehler in der Ausbildung und dann bei der Validierung um mehr als 5 % voneinander abweichen, bedeutet dies, dass Sie das "Ziel-Prädiktoren"-Paar sinnvoll bearbeiten müssen. Wenn es nicht möglich ist, zu konvergieren, dann muss das "Ziel-Prädiktoren"-Paar verworfen werden.

 
Maxim Dmitrievsky #:

Im ursprünglichen Beitrag ging es um die Komplexität von Modellen, nicht um Extreme. Sie ziehen einfach Ihre eigene Linie durch und vergessen, was ich geschrieben habe.

Das heißt, Sie machen wieder Pi-Hacking oder dehnen die Daten, um sie Ihren Worten anzupassen.

Was meinen Sie mit "ursprünglich"? Wir haben die Modellkomplexität gesondert diskutiert, und damals haben wir gesagt, dass die Erhöhung der Modellkomplexität nur bis zu einem bestimmten Punkt effektiv ist, dann sinkt die Effektivität, und das ist richtig, ja, das habe ich nicht bestritten und bestätige es. Dann habe ich nur angedeutet, dass die Effizienz vielleicht dramatisch steigen kann, wenn man das Modell sehr stark vergrößert, weil das hier noch niemand getan hat (und ich kann verstehen, warum).

Ich habe schon vor langer Zeit gesagt, dass jegliches Lernen eine Optimierung mit der Suche nach einem globalen Extremum ist, aber Sie haben dies (und einige andere) bestritten und gesagt, dass Sie kein "Optimierer" sind. Jetzt habe ich Ihnen deutlich gezeigt, dass das Lernen nur dann gestoppt werden kann, wenn ein globales Extremum gefunden wird, andernfalls gibt es einfach keine Möglichkeit, es anders zu machen (man weiß nicht, wann man das Lernen stoppen muss, man braucht ein Kriterium dafür). Deshalb ist das Metakriterium des Anhaltens die Essenz der Optimierung beim Lernen auf ein globales Extremum.

Wenn man dies erkennt, kann man das Lernen aus neuen Blickwinkeln betrachten.

 
Es gibt einen Fehler in meiner Zeichnung, die rote Val-Linie sollte oberhalb der Trayne sein.
Grund der Beschwerde: