Abhängigkeitsstatistik in Anführungszeichen (Informationstheorie, Korrelation und andere Methoden der Merkmalsauswahl) - Seite 23

 
joo:
... und in welcher Kombination?"
Es ist viel komplizierter als das. Das ist viel komplizierter und rechenintensiver. Lassen Sie es mich so ausdrücken: Die Auswahl einer Gruppe informativer Variablen ist einfach, das Entfernen redundanter (gegenseitig informativer) Variablen ist schwieriger; und die Auswahl von Paaren, Dreiergruppen.... Die Suche nach Variablen, deren Kombinationen die Zielvariable beeinflussen, ist exponentiell schwieriger, zum einen wegen des enormen Rechenaufwands.
 
alexeymosc:
Es ist viel komplizierter als das. Das ist viel komplizierter und rechenintensiver. Lassen Sie es mich so ausdrücken: Es ist einfach, einen Satz informativer Variablen auszuwählen, schwieriger ist es, redundante (gegenseitig informative) Variablen zu entfernen; und noch schwieriger ist es, Paare, Dreiergruppen.... von Variablen, deren Kombinationen die Zielvariable beeinflussen, ist exponentiell schwieriger, erstens wegen der enormen Menge an Berechnungen.
und wie wird die Suche durchgeführt, nicht mit roher Gewalt?
 

Es ist sehr merkwürdig, dass die resultierende Verteilung für GARCH(1,1) normal aussieht. Mehr noch, es kann einfach nicht sein. Ein Markenzeichen solcher Modelle ist die "fat-tailedness" und die Dehnung - nur um reale Marktverteilungen zu imitieren. Offensichtlich ist das resultierende Diagramm nicht repräsentativ oder der Zeitraum der Volatilitätsberechnung (P=1, Q=1) ist nicht lang genug, weshalb es Anzeichen von Dünnheit aufweist.

Aber eine andere Sache ist interessant:

Auf dem berechneten Diagramm ist die Spur des GARCH(1,1)-Einflusses deutlich zu erkennen, d.h. auf der ersten Etappe gibt es eine signifikante Störung der "Beziehung" und Unsicherheit bei allen anderen Daten. Das ist genau so, wie es sein sollte, denn das Modell merkt sich nur die Volatilität des vorherigen Balkens. Ich bin sicher, dass die ersten drei Lags für GARCH(3,3), die ersten zwanzig Lags für GARCH(20, 20) usw. deutlich gekennzeichnet sind.

Ich werde versuchen, mit MathLab zu kämpfen und die GARCH(20, 20)-Daten zu erhalten. Wenn ihre Analyse die Korrelation von 20 Perioden zeigt, ist die Sache klar - die Formel zeigt die Korrelation der Volatilität.

 
C-4:


Ich werde versuchen, mit MathLab zu kämpfen und GARCH(20, 20)-Daten zu erhalten. Wenn ihre Analyse die Korrelation für 20 Perioden zeigt, ist die Sache klar - die Formel zeigt die Korrelation der Volatilität.

Das ist nicht der Fall. Ich weiß bereits, dass die Formel DIESE Aspekte berücksichtigt... Werfen Sie einen Blick auf das 5-Minuten-Chart. Die offensichtliche Beziehung der Vol. bei den engsten Verzögerungen und bei Verzögerung 288 ist ein Tageszyklus. Aber nur zu, wenn Sie wollen. Ich werde es überprüfen.

Wir versuchen, "andere Abhängigkeiten" zu finden, denn die gegenseitige Information absorbiert alle möglichen Abhängigkeiten. Wir müssen in der Lage sein, sie zu trennen.

 

EURUSD H1.

I auf die ursprüngliche Reihe (gleiche Diskretisierung durch 5 Quantile):

Summe der gegenseitigen Informationen: 3,57 Bits! Der höchste Wert von allen getesteten Zeitrahmen.

Nehmen wir nun die Rendite ^ 2, lassen das Vorzeichen weg und untersuchen die Volatilität:

Sieht so aus. Aber die Summe von I = 5,35 Bits.

Das macht Sinn! Schließlich ist die Unsicherheit bei den Netto-Volatilitätsreihen geringer.

Und was passiert, wenn man das eine vom anderen abzieht?

 
alexeymosc: So sieht eine Häufigkeitsmatrix (1. Lag ist die Zielvariable) für Zufallsdaten mit 5-Minuten-Merkmalen aus.

Verdammte Scheiße. Ihre Matrizen erweckten bei mir den Eindruck eines Durchbruchs und eines Logits. Ich habe es in der Suchmaschine nachgeschlagen, und was es damit auf sich hat... Dann wurde mir klar, dass es sich nur um die Wahrscheinlichkeit und ihren Logarithmus handelt.

P.S. Lu-u-u-u-dee, ist für Sie in diesen Tabellen alles klar? Wenn Sie etwas nicht verstehen, fragen Sie nach. Bei dummen Fragen werden wir nicht zuschlagen (weil ich mich hier ein bisschen dumm fühle).

Für einmal gibt es ein anständiges Thema, das fast keinen Humor hat, abfällig ist und sich auf den unmittelbaren Fisch statt auf die Angelrute konzentriert - aber es ist ein sehr interessanter Prozess der Suche nach der Wahrheit...

Wo kann man in der Ökonometrie solche Fragen finden?

 
anonymous:


Es stimmt, der Markt ist komplexer. Aber das ist kein Grund, das beobachtete Phänomen zu ignorieren

Ich betreibe keine wissenschaftliche Marktforschung. Das spezifische Ziel besteht darin, eine Vorhersage einen Schritt voraus zu machen.

Zu den Tests: Heteroskedastizität ist eine allgemein anerkannte Tatsache in der Literatur

Es ist ein Slogan, der sagt, dass er irgendwo etwas gesehen hat. Durch die Lektüre dieser Veröffentlichungen verdiene ich kein Geld mehr.

Um genau zu sein, beziehen sich Heteroskedastizitätstests auf Heteroskedastizität nicht nur auf die Residuen, die mit verschiedenen Formeln berechnet werden, sondern auch auf die Modellresiduen, was in Ökonometrie-Paketen der Standard ist.

Manchmal werden Heteroskedastizitätstests auf Prädiktoren und Modellfehler angewendet.

Wenn Sie mit "Modellfehler" das Residuum des Modells = die Differenz zwischen dem ursprünglichen Zitat und dem Modell meinen, dann stimme ich zu. Und Heteroskedastizitätstests werden nicht manchmal, sondern immer angewendet. Wenn das Residuum des Modells heteroskedastisch ist, wird es modelliert, und das endgültige Ziel des aggregierten Modells ist es, ein stationäres Residuum zu erhalten (mo und Varianz sind konstant). Wenn Mo und/oder Varianz Variablen sind - dann ist eine Vorhersage nicht möglich, da der Vorhersagefehler zu einer Variablen wird.

 
Mathemat:?

Endlich mal ein anständiges Thema...

Ich möchte darauf hinweisen, dass alle Beiträge, die den Anstand des Themas in Frage stellten, ignoriert wurden.

 
keine SBs auf der Grundlage von GARCH erzeugen. Sie müssen eine reale Reihe nehmen und eine SB auf der Grundlage der realen Volatilität erstellen. Ich habe hier ein Skript gepostet https://forum.mql4.com/ru/41986/page10, das die Offline-Historie eines realen Instruments durch eine SB mit Tick-Volumetrie ersetzt. Eine solche SB wird die reale Vol. zu fast 100 % nachbilden. GARCH usw. berücksichtigen sie viele Nuancen nicht, wie z. B. unterschiedliche Wellenzyklen und viele andere. Wenn es einen Unterschied zwischen dieser Zeile von SB und der Zeile, aus der sie generiert wurde, gibt, ist sie interessanter :)
 
alexeymosc:

EURUSD H1.

I auf die ursprüngliche Reihe (gleiche Diskretisierung durch 5 Quantile):

Erinnere ich mich richtig, dass es sich bei den Rohdaten um das prozentuale Zuwachsmodul handelt?

Wenn es sich aber tatsächlich um dieselbe Volatilität handelt (d. h. um ihre monotone und eindeutige Funktion), ist zu erwarten, dass alle volatilitätsbedingten Effekte auch hier auftreten, wenn auch in etwas gefilterter Form. Und da die Auswirkungen der Volatilität alle anderen Marktphänomene bei weitem zu überwiegen scheinen, erscheint die Aussicht, "etwas anderes" in ihrem Hintergrund zu sehen, eher problematisch. Ich wiederhole: Ich halte es für vielversprechender, zu versuchen, bekannte, aber "nutzlose" Effekte konsequent aus den Rohdaten auszuschließen.

Übrigens, Alexey(Mathemat), haben Sie die Rohdaten auch als Module?