Regressionsgleichung - Seite 4

 
Wie sieht es mit der Wahl des Polynoms aus?
 
j21 20.09.2010 02:32 Und wie sieht es mit der Wahl des Polynoms aus?

Ich denke, wenn die Anzahl der Freiheitsgrade einfach ist und die Art der Abhängigkeit a priori klar ist - was ist dann die Frage?

Privatperson:


Z.I. Ich habe Desert Island verpasst. Ich würde gerne etwas lesen, das Sinn macht...

Ich weiß es nicht, aber diese Insel scheint in der Noosphäre zu schweben...

Und die Bevölkerung macht sich Illusionen über ihre Unsterblichkeit.

Imho.

 
FreeLance:

Können Sie das genauer erläutern?

Die MOC wird u. a. als Methode zur Schätzung der besten Parameter für eine vom Forscher a priori ausgewählte Funktion positioniert.

Formeln zur Berechnung dieser Parameter, die das Quadrat der Abweichung der tatsächlichen Daten von der Proxying-Funktion minimieren, werden für eine Vielzahl von Funktionen abgeleitet.

Wo erscheinen die fetten Schwänze?

Bitte klären Sie mich auf...

Fat Tails können auftreten, wenn das vom Forscher gewählte Modell den realen Reihen nicht angemessen ist. Die Standardprüfung der Angemessenheit eines jeden Regressionsmodells für die realen Daten ist die Residuenverteilung. Residuen sind die Abweichung der realen Daten von den Modelldaten. Wenn das Modell angemessen ist, dann muss die Verteilung der Residuen normal sein. Die ANC minimiert die Summe dieser Abweichungen, aber die Verteilung der Residuen ist nicht notwendigerweise normal, obwohl sie es in einigen Teilen der Reihe sein kann. Lineare Regression ist sinnvoll für SB-Modelle mit Drift oder für einige Teile der Reihe, die diesem Modell entsprechen. Wenn man weiß, wie man solche Segmente erkennt, bevor sie enden, ist die lineare Regression praktisch sinnvoll. Und ANC nimmt nur die Parameter des gewählten Modells auf - es garantiert nicht die Angemessenheit des Modells selbst. Deshalb ist es nicht die Schuld von MNC - es kommt auf die Auswahl eines geeigneten Modells und dessen korrekte Parametrisierung an. Dabei kann es sich um ein beliebiges Modell handeln, z. B. stationär/nichtstationär oder eine Summe verschiedener Verteilungen. imha

Siehe https://www.mql5.com/go?link=http://emm.ostu.ru/lect/lect6_2.html[hash]vopros11 "Überprüfung der Angemessenheit von Regressionsmodellen" für weitere Einzelheiten.

 
Avals:

Fat Tails können auftreten, wenn das vom Forscher gewählte Modell für die realen Reihen nicht geeignet ist. Der Standardtest für die Angemessenheit eines Regressionsmodells für die realen Daten ist die Verteilung der Residuen. Residuen sind die Abweichung der realen Daten von den Modelldaten. Wenn das Modell angemessen ist, dann muss die Verteilung der Residuen normal sein. Die ANC minimiert die Summe dieser Abweichungen, aber die Verteilung der Residuen ist nicht notwendigerweise normal, obwohl sie es in einigen Teilen der Reihe sein kann. Lineare Regression ist sinnvoll für SB-Modelle mit Drift oder für einige Teile der Reihe, die diesem Modell entsprechen. Wenn man weiß, wie man solche Segmente erkennt, bevor sie enden, ist die lineare Regression praktisch sinnvoll. Und ANC nimmt nur die Parameter des gewählten Modells auf - es garantiert nicht die Angemessenheit des Modells selbst. Deshalb ist es nicht die Schuld von MNC - es kommt auf die Auswahl eines geeigneten Modells und dessen korrekte Parametrisierung an. Dabei kann es sich um ein beliebiges Modell handeln, z. B. stationär/nichtstationär oder eine Summe verschiedener Verteilungen. imha

Für weitere Einzelheiten https://www.mql5.com/go?link=http://emm.ostu.ru/lect/lect6_2.html[hash]vopros11 "Überprüfung der Angemessenheit von Regressionsmodellen".

Haben Sie das für mich geschrieben? o)

Genau darüber habe ich neulich gesprochen...

FreeLance 19.09.2010 15:52
Mathemat:
Ermitteln Sie eine empirische Verteilung der Fehler bei der Approximation durch ein Polynom. Und vergleichen Sie sie mit der normalen. Achten Sie besonders auf die Schwänze, nicht auf den mittleren Teil.

Geht es um die Auswahl der besten (im Sinne von MNC) Polynom-Parameter?

Oder darum, sie auszuwählen - aber die besten in einem anderen Sinn?

Oder über die Korrektheit des Polynoms für die Annäherung?

Ich bat um eine Erklärung für die Ineffizienz von MNC bei der Berechnung von Parametern einer vorausgewählten Funktion (schließlich kann der Grund für die Dickschwanzigkeit in einer unglücklichen Funktion liegen :).

Und wenn es ähnlich einfache Verfahren zur Bestimmung dieser Parameter gibt - ich mache mich gerne mit ihnen vertraut.

Aber ich bin überrascht von der Formulierung der Frage: Da es bei Fehlern Schwänze gibt, ist der MNC nicht gut...

;)

Es gibt eine andere Idee, die hier verbreitet wird.

Mathemat:

Eine solche Zielfunktion - Summe der Fehlerquadrate - ist nur dann optimal, wenn die Fehlerverteilung selbst normal ist.

;)

 
FreeLance:

Haben Sie das an mich geschrieben? o)

Das habe ich neulich auch gesagt...

Freiberufler 19.09.2010 15:52

Ich habe nicht gegen das Zitierte geschrieben, ich war sogar dafür :)

 
Avals:

Ich bin nicht gegen das Zitat, ich bin sogar dafür :)

Ich danke Ihnen für Ihre Hilfe bei der Diskussion.

Die Frage/Antwort von Alexey bleibt jedoch offen.

Wenden Sie ISC nur an , wenn Sie sicher sind, dass die zukünftige Fehlerverteilung normal ist?

Wie in - kenne den Preis...

;)

 
FreeLance:

Wenden Sie ISC nur an , wenn Sie sicher sind, dass die zukünftige Fehlerverteilung normal ist?

;)

Es scheint, dass (laut Google :)), MNC optimal ist, wenn der Messfehler normal verteilt ist. Für andere Fehlerverteilungen gibt es die Methode der kleinsten Moduli (Fehler sind nach Laplace verteilt) und die Maximum-Likelihood-Methode (im Allgemeinen, wenn die Fehlerverteilung bekannt ist). MNC ist nicht immer das Beste :)

In unserem Fall ist die Fehlerverteilung jedoch noch unbekannt...

 

FreeLance:

Wenden Sie ANC nur an , wenn Sie sicher sind, dass die zukünftige Fehlerverteilung normal ist?


Ja, und ich stimme Alexey zu, dass MNC im Gaußschen Fall der Maximum-Likelihood-Methode entspricht. Bei anderen Verteilungen führt es zu schlechteren und sogar sehr viel schlechteren Ergebnissen. Ich erinnere mich, als ich am Institut für Mathematik studierte, war ein Standardsatz der Lehrer, der mich immer verwirrte: "Da es einfacher ist, Berechnungen auf diese Weise durchzuführen (!!!!), nehmen wir an, dass die Fehlerverteilung Gauß ist". Nur wenige denken daran, dass selbst die Begründer dieser Methoden (insbesondere Euler) die Forscher vor der Gefahr gewarnt haben, die Logik des Denkens zugunsten der Einfachheit der Berechnungen zu opfern. Das hat zur Folge, dass der mathematische Apparat der alternativen Methoden schlecht entwickelt ist und man alles halbherzig selbst machen und erfinden muss. Gut, dass meine Eltern mich zum Ingenieurstudium geschickt haben :)))

j21,

Was die Wahl des Polynoms anbelangt, so sehe ich persönlich keinen Sinn darin, über den dritten oder vierten Grad hinauszugehen.

 
Avals:

Es scheint, dass (laut Google :)), MNC optimal ist, wenn der Messfehler normal verteilt ist. Für andere Fehlerverteilungen gibt es die Least-Modulus-Methode (Fehler sind nach Laplace verteilt) und die Maximum-Likelihood-Methode (im Allgemeinen, wenn die Fehlerverteilung bekannt ist). MNC ist nicht immer das Beste :)

Stimmt, in unserem Fall ist die Fehlerverteilung noch unbekannt...

Das bedeutet lediglich, dass wir uns der "plausiblen" Funktion annähern sollten, nicht der...

des vierten Grades.

;)

 

Lassen Sie mich dies anhand eines Beispiels erläutern


P.S. Nur für den Fall, dass ich etwas erklären muss: Diese Abbildung zeigt deutlich, was ein starker Auswurf dem MNC antun kann. Der Rauswurf ist hier natürlich sehr auffällig, offenbar um der Klarheit willen.

Grund der Beschwerde: