Matstat Ökonometrie Matan

 
Willkommen an alle Gurus der mathematischen Statistik, Ökonometrie und mathematischen Analyse.
Ein Forum für den konstruktiven Dialog über verschiedene Themen aus den oben genannten wissenschaftlichen Bereichen.
Angemessene Kommunikation ist erwünscht!
 

Forum zum Thema Handel, automatisierte Handelssysteme und Testen von Handelsstrategien

Von der Theorie zur Praxis. Teil 2

Aleksey Nikolayev, 2021.05.05 22:38

Grob gesagt, schwächt das Mischen die Abhängigkeit ab, beseitigt sie aber nicht vollständig.
In der Tat ist die probabilistische Abhängigkeit der wichtigste Teil des Theorems im Hinblick auf praktische Anwendungen.
Als ich am MIT einen Youtube-Kurs über Theoretiker für Ingenieure besuchte, ging es nur darum.


Meinen Sie das Bestimmungskoeffizient r2 ?
Oder etwas anderes durch Wahrscheinlichkeitsabhängigkeit?

Ich berücksichtige r2 in Echtzeit, um die "Stärke des Einflusses" der Variable x auf y abzuschätzen.
Überraschenderweise hält es sich bei einigen Währungsreihen ziemlich konstant bei hohen Werten

r2

 
Ist die Wahrscheinlichkeit nicht einfach zu gering? Wenn dies die Theorie der Wahrscheinlichkeit ist...
 
Dmitry Fedoseev:
Reicht die bloße Wahrscheinlichkeit nicht aus? Wenn es die Wahrscheinlichkeitstheorie ist...

Ich wollte klären, welches Bewertungskriterium in diesem Zusammenhang gemeint ist.
Wenn konventionelle Korrelation, dann mit r2 haben sie einen Unterschied in der Berechnung, entsprechend unterschiedliche Schätzungen.
In der Statistik wird normalerweise empfohlen, r2 als zuverlässiger zu verwenden.

r

und buchstäblich zehn Minuten später

rr

 
Roman:

Meinen Sie das Bestimmungskoeffizient r2 ?
Oder meinen Sie mit Wahrscheinlichkeitsabhängigkeit etwas anderes?

Die (stochastische) Wahrscheinlichkeitsabhängigkeit ist eines der wichtigsten Konzepte der Theoretiker und Statistiker. Das Konzept wird (über die bedingte Wahrscheinlichkeit) zunächst für Zufallsereignisse definiert und dann auf Zufallsvariablen in Form einer bedingten Verteilung übertragen. Abhängigkeit ist die Nichtübereinstimmung der bedingten Verteilung mit der unbedingten Verteilung, während Unabhängigkeit ihre Übereinstimmung bedeutet. Eine beliebte Erklärung für die Abhängigkeit ist - Wenn man weiß, welchen Wert der eine c.c. hat, erhält man Informationen über den Wert des anderen c.c. Die Abhängigkeit liegt zwischen ihren beiden Extremzuständen - Unabhängigkeit und starre funktionale Verbindung.

Der allgemeine Sinn ist, dass wir immer mit einer gemeinsamen Verteilung von Zufallsvariablen beginnen, auf deren Grundlage alle Arten von spezifischen Abhängigkeitsmetriken konstruiert werden. Dies können Copulas, gegenseitige Entropie, Korrelation usw. sein.

Korrelation, R2 usw. sind nur dann sinnvoll anwendbar, wenn die gemeinsame Verteilung multivariat normal ist. In der Praxis werden sie (der Einfachheit halber) auch angewandt, wenn die Normalität nicht sicher ist, aber dann wird ihre Nützlichkeit nur durch die Erfahrung bestimmt.

 
Aleksey Nikolayev:

Die Wahrscheinlichkeit (Stochastik) ist eines der wichtigsten Konzepte in der Theoriebildung und in der Mathematik. Das Konzept wird (über die bedingte Wahrscheinlichkeit) zunächst für Zufallsereignisse definiert und dann auf Zufallsvariablen in Form einer bedingten Verteilung übertragen. Abhängigkeit ist die Nichtübereinstimmung der bedingten Verteilung mit der unbedingten Verteilung, während Unabhängigkeit ihre Übereinstimmung bedeutet. Eine beliebte Erklärung für die Abhängigkeit ist - Wenn man weiß, welchen Wert der eine c.c. hat, erhält man Informationen über den Wert des anderen c.c. Die Abhängigkeit liegt zwischen ihren beiden Extremzuständen - Unabhängigkeit und starre funktionale Verbindung.

Der allgemeine Sinn ist, dass wir immer mit einer gemeinsamen Verteilung von Zufallsvariablen beginnen, auf deren Grundlage alle Arten von spezifischen Abhängigkeitsmetriken konstruiert werden. Dies können Copulas, gegenseitige Entropie, Korrelation usw. sein.

Korrelation, R2 usw. sind nur dann sinnvoll anwendbar, wenn die gemeinsame Verteilung multivariat normal ist. In der Praxis werden sie (der Einfachheit halber) auch angewandt, wenn keine Gewissheit über die Normalität besteht, aber dann wird ihr Nutzen nur durch die Erfahrung bestimmt.

Ah, das ist eine knifflige Verteilung, ich vergesse das immer ))
Alle statistischen Modelle erfordern also dieses Kriterium?
Und da es keine Normalität bei Preisreihen gibt, beginnt die Tortur der Aufbereitung der Daten,
, um sie irgendwie einer Normalverteilung anzunähern, ohne die ursprünglichen Eigenschaften zu verlieren.

Daraus folgt das Problem, wie man diese Daten aufbereiten kann.
Standardisierung, Kusum, Ableitung usw. führen meines Erachtens nicht zu Qualitätsergebnissen.
Sie fangen also an, sich zu verdünnen oder so. Welche Methoden gibt es im Allgemeinen?

Auch hier komme ich zu dem Schluss, dass die Aufbereitung qualitativer Daten für statistische Modelle ein großes Thema ist, das untersucht werden sollte.
Ich suchte nach Tutorials zu diesem Thema, aber nichts gefunden, bigdata, MO, neuronka sind überall, aber wie man qualitative Daten für sie vorzubereiten, aus irgendeinem Grund ist nicht offenbart.

 

Ich kann die folgende Anomalie einfach nicht verstehen, warum das passiert.
Ich habe ein orthogonales Modell berechnet, das besser sein soll als MNC.
Ich habe die Startkoeffizienten.
Dann werden die Modellparameter (Koeffizienten) durch den Median-Algorithmus angepasst, d.h. eine Art Robustheit gegenüber Ausreißern.
Das Modell beschreibt die ursprüngliche Reihe qualitativ.

In blau - Originalserie.
Grau ist das Modell.

p1

Aber in einem der Abschnitte der Historie beobachte ich eine Divergenz, die weiter konvergiert, und zwar genau so wie im Screenshot oben

p2


Ich kann die Wahrheit nicht sehen, warum passiert das? Und was trägt dazu bei?
Die Koeffizienten werden bei jedem Schritt neu berechnet und sollten (x) an (y) anpassen
Handelt es sich um einen Anpassungsfehler? Ich verstehe, dass bei einem oder zwei oder sogar drei Berechnungsschritten ein Fehler auftreten kann (
), aber es erscheint seltsam, dass der Fehler so lange anhält. Vielleicht handelt es sich nicht um einen Anpassungsfehler? Ist es etwas anderes?

 
Roman:

Ich kann die folgende Anomalie einfach nicht verstehen, warum das passiert.
Ich habe ein orthogonales Modell berechnet, das besser sein soll als MNC.
Ich habe die Startkoeffizienten.
Dann werden die Modellparameter (Koeffizienten) durch den Median-Algorithmus angepasst, d.h. eine Art Robustheit gegenüber Ausreißern.
Das Modell beschreibt die ursprüngliche Reihe qualitativ.

In blau - Originalserie.
Grau ist das Modell.



Aber in einem der Abschnitte der Historie beobachte ich eine Divergenz, die weiter konvergiert, und zwar genau so wie im Screenshot oben


Ich kann die Wahrheit nicht sehen, warum passiert das? Und was trägt dazu bei?
Die Koeffizienten werden bei jedem Schritt neu berechnet und sollten (x) an (y) anpassen
Handelt es sich um einen Anpassungsfehler? Ich verstehe, dass bei einem oder zwei oder sogar drei Berechnungsschritten ein Fehler auftreten kann,
, aber es erscheint mir seltsam, dass der Fehler so lange anhält. Vielleicht handelt es sich nicht um einen Anpassungsfehler? Ist es etwas anderes?

Ich kann nur raten, ein Statistikpaket zu finden, das Ihr Modell (oder ein ähnliches) implementiert, und zu sehen, wie es sich mit Ihren Daten verhält. Dies kann Ihnen helfen zu verstehen, ob das Problem ein fehlerhaftes Modell oder ein Implementierungsfehler ist.

 
Roman:

Da die Preisreihen nicht normalverteilt sind, besteht die mühsame Aufgabe der Aufbereitung der Daten (
) darin, sie einer Normalverteilung anzunähern, ohne die ursprünglichen Eigenschaften zu verlieren.

Logarithmische Inkremente würden nicht funktionieren?
 
Aleksey Nikolayev:

Ich kann nur empfehlen, ein Statistikpaket zu finden, das Ihr Modell (oder ein ähnliches) implementiert, und zu sehen, wie es sich mit Ihren Daten verhält. Es kann helfen zu verstehen, ob das Problem ein fehlerhaftes Modell oder ein Implementierungsfehler ist.

Danke für die Idee, das habe ich nicht gewusst.

 
secret:
Logarithmierung der Inkremente - nicht gut genug?

Ja, das ist im Grunde das, was ich als eine mehr oder weniger gute Option anstrebe.
Bei einem anderen, ähnlichen Modell beobachte ich manchmal auch kleine Abweichungen, wie die Divergenz.
Allerdings nicht so lange wie auf dem obigen Screenshot, sondern recht kurzzeitig. Ich habe mich gefragt, warum das so ist.
Ich habe dieses Modell ausprobiert und eine noch längere Divergenz festgestellt.

Ich verstehe also nicht, woher diese Divergenz kommt. Nicht korrektes Modell oder minderwertige Quelldaten.
Ich verstehe die Logik des Handelns nicht.
Entweder sollte ich die Ausgangsdaten annähernd auf normal einstellen,
oder ich sollte andere Modelle schaufeln.
Aber versuchen Sie, dieses Modell zuerst zu schreiben, es ist nicht so einfach, es zu überprüfen und wegzuwerfen ))

Grund der Beschwerde: