Diskussion zum Artikel "Ökonometrische Instrumente zur Prognose der Volatilität: das GARCH-Modell"

 

Neuer Artikel Ökonometrische Instrumente zur Prognose der Volatilität: das GARCH-Modell :

Der Artikel beschreibt die Eigenschaften des nichtlinearen Modells der bedingten Heteroskedastizität (GARCH). Der Indikator iGARCH wurde auf seiner Grundlage für die Vorhersage der Volatilität einen Schritt weiter entwickelt. Die numerische Analysebibliothek ALGLIB wird zur Schätzung der Modellparameter verwendet.

Die Volatilität ist ein wichtiger Indikator für die Bewertung der Variabilität der Preise von Finanzanlagen. Bei der Analyse von Börsenkursen wird seit langem festgestellt, dass große Preisänderungen sehr oft zu noch größeren Veränderungen führen, insbesondere in Finanzkrisen. Auf kleine Veränderungen folgen in der Regel auch kleine Preisänderungen. Auf ruhige Zeiten folgen also Zeiten relativer Instabilität. 

Das erste Modell, mit dem versucht wurde, dieses Phänomen zu erklären, war ARCH, entwickelt von Engle: „Autoregressive conditional heteroscedasticity (heterogeneity)“ (Autoregressive bedingte Heteroskedastizität (Heterogenität)). Neben dem Clustering-Effekt (Gruppierung der Renditen in Bündel von großen und kleinen Werten) erklärt das Modell auch das Auftreten von starken Ausläufer und positiver Kurtosis, die für alle Verteilungen von Preissteigerungen charakteristisch sind. Der Erfolg des bedingten Gauß-Modells ARCH führte zur Entstehung einer Reihe von Verallgemeinerungen dieses Modells. Ihr Ziel war es, Erklärungen für eine Reihe anderer Phänomene zu liefern, die bei der Analyse von Finanzzeitreihen beobachtet werden. Historisch gesehen ist eine der ersten Verallgemeinerungen von ARCH das Modell GARCH (verallgemeinertes ARCH) Modell. 

Der Hauptvorteil von GARCH im Vergleich zu ARCH liegt in der Tatsache, dass es sparsamer ist und bei der Anpassung von Stichprobendaten keine langfristige Struktur erfordert. In diesem Artikel möchte ich das Modell GARCH beschreiben und vor allem ein fertiges Tool für die Volatilitätsprognose auf der Grundlage dieses Modells anbieten, da die Prognose eines der Hauptziele bei der Analyse von Finanzdaten ist.

Autor: Evgeniy Chernish

 

Sehr gute Arbeit!

Ich habe sie in einem Augenblick gelesen.

Ich danke Ihnen!

 
Renat Akhtyamov #:

Sehr gute Arbeit!

Ich habe es in Windeseile gelesen.

Ich danke Ihnen!

Ich danke Ihnen!

 
Евгений Черныш #:

Guter Artikel. Es wäre interessant, Ihre Meinung zu Stepanovs Artikel zu erfahren, in dem er eine Hypothese über die nicht-stochastische Natur von Volatilitätsschwankungen aufstellt.

 
Der Artikel ist lobenswert, danke :)
 
Aleksey Nikolayev #:

Guter Artikel. Es wäre interessant, Ihre Meinung zu Stepanovs Artikel zu erfahren, in dem er eine Hypothese über die nicht-stochastische Natur von Volatilitätsschwankungen aufstellt.

Sie haben mich direkt mit meinem TS konfrontiert. Ich versuche es mit Splines anstelle von HP.

Ich habe mich gefragt, wie ich die Periode und den Grad der Glättung am besten wählen soll.

Es stellt sich heraus, dass es besser ist, sich auf den Test auf Normalverteilung der Residuen zu verlassen?

 
Maxim Dmitrievsky #:

Du hast mich genau in meinem TC getroffen. Ich versuche es mit Splines anstelle von HP.

Ich habe mich gefragt, was besser ist, um die Periode und den Grad der Glättung zu wählen.

Es stellt sich heraus, dass es besser ist, sich auf den Test auf Normalverteilung der Residuen zu verlassen?

Imho, ja, wenn man Modelle für Inkremente in konstanten Zeitintervallen erstellt, muss man am Ende alles auf Gaußsches Rauschen reduzieren. Das ist wahrscheinlich der ganze Sinn der Ökonometrie - alle Faktoren, die im Modell nicht berücksichtigt werden, sollten sich wie glattes Rauschen verhalten.
 
Aleksey Nikolayev #:

Guter Artikel. Es wäre interessant, Ihre Meinung zu Stepanovs Artikel zu erfahren, in dem er eine Hypothese über die nicht-stochastische Natur von Volatilitätsschwankungen aufstellt.

Der Artikel ist komplex und widersprüchlich. Einerseits verwendet der Autor eine probabilistische Terminologie und statistische Instrumente, charakterisiert Preissteigerungen und Volatilität als Zufallsvariablen, konstruiert Verteilungen verschiedener Volatilitätsmaße usw., andererseits lehnt er stochastische Modelle der Volatilität ab.

Einerseits glaubt der Autor, dass Korrelationen in Volatilitätsreihen ein statistisches Artefakt sind, das durch die Nicht-Stationarität der Daten verursacht wird, andererseits hält er es für eine Frage der Zukunft, die Volatilität mit Hilfe glatter deterministischer Funktionen der Zeit vorherzusagen.


 
Evgeniy Chernish #:
Der Artikel ist komplex und widersprüchlich. Einerseits verwendet der Autor eine probabilistische Terminologie und statistische Instrumente, charakterisiert Preissteigerungen und Volatilität als Zufallsvariablen, konstruiert Verteilungen verschiedener Volatilitätsmaße usw., andererseits hält er nichts von stochastischen Volatilitätsmodellen.

Einerseits ist der Autor der Ansicht, dass Korrelationen in Volatilitätsreihen ein statistisches Artefakt sind, das durch die Nicht-Stationarität der Daten verursacht wird, andererseits hält er es für eine Frage der Zukunft, die Volatilität mit Hilfe glatter deterministischer Funktionen der Zeit vorherzusagen.


Sein Artikel vermittelt auch ein gewisses Gefühl des Widerspruchs. Aufgrund des sessionalen Charakters des Marktes hat er offensichtlich Recht, wenn es um Intraday-Inkremente geht, aber ich bin mir nicht sicher, ob seine Hypothese für tägliche Inkremente praktisch nützlich ist.
 
Aleksey Nikolayev #:
Imho, ja, wenn man Modelle für Inkremente über konstante Zeitintervalle erstellt, muss man am Ende alles auf Gaußsches Rauschen reduzieren. Das ist wahrscheinlich der ganze Sinn der Ökonometrie - alle Faktoren, die im Modell nicht berücksichtigt werden, sollten sich wie glattes Rauschen verhalten.

Interessant, ich habe das noch nicht gemacht. In dem Artikel hat der Autor die Parameter sozusagen empirisch ausgewählt. Es ist jedoch möglich, eine Optimierung über die Likelihood-Funktion durchzuführen.

Ein Thema für die Forschung :)

 
Maxim Dmitrievsky #:

Interessant, ich habe das noch nicht gemacht. In dem Artikel hat der Autor die Parameter sozusagen empirisch ausgewählt. Aber es ist möglich, eine Optimierung durch die Likelihood-Funktion durchzuführen.

Ein Thema für die Forschung :)

Ich habe LLM DeepSeek mit Gottes Hilfeentwickelt. Sie können Ihre eigenen Daten ersetzen.

Zur Erläuterung:

Um die Residuen während des Optimierungsprozesses so nahe wie möglich an eine Normalverteilung heranzuführen, kann ein Übereinstimmungskriterium (z.B. Shapiro-Wilk-Kriterium oder Kolmogorov-Smirnov-Kriterium) verwendet werden, um die Normalität der Residuen zu beurteilen. Die Parameter k k und s skönnen dann so optimiert werden, dass die Abweichung der Residuen von der Normalverteilung minimiert wird.

  1. Fehlerfunktion unter Berücksichtigung der Normalität der Residuen: Es wird eine neue Funktion spline_error_with_normality eingeführt, die die Residuen berechnet und das Shapiro-Wilk-Kriterium zur Bewertung ihrer Normalität verwendet. Der negative p-Wert wird minimiert, um die Normalität der Residuen zu maximieren.

  2. Optimierung: Sie wird zur Optimierung der Parameter k k und s s auf der Grundlage einer neuen Fehlerfunktion verwendet .

Mit diesem Ansatz können die Spline-Parameter so angepasst werden, dass die Residuen die Normalverteilung maximieren, was die Qualität des Modells und die Interpretierbarkeit der Ergebnisse verbessern kann.

Da Splines nicht auf neue Daten angewendet werden können, ist es möglich, eine Wiederholung mit HP oder einem anderen Filter durchzuführen. Wenn der Wunsch besteht, ein bestimmtes Modell zu erstellen.