Discusión sobre el artículo "Herramientas econométricas para la previsión de la volatilidad: el modelo GARCH"

 

Artículo publicado Herramientas econométricas para la previsión de la volatilidad: el modelo GARCH:

El presente artículo describe las propiedades de un modelo de heteroscedasticidad condicional no lineal (GARCH). Sobre esta base se construye el indicador iGARCH para predecir la volatilidad un paso por delante. Para estimar los parámetros del modelo se usará la biblioteca de análisis numérico ALGLIB.

La volatilidad supone una medida importante a la hora de evaluar la volatilidad de los precios de los activos financieros. Al analizar las cotizaciones, se ha observado desde hace tiempo que las grandes variaciones de precios suelen conllevar cambios aún mayores, sobre todo en tiempos de crisis financiera. A su vez, los pequeños cambios suelen ir seguidos de pequeñas variaciones de precio. Así, a periodos tranquilos de volatilidad siguen otros de relativa inestabilidad. 

El primer modelo que intentó explicar este fenómeno fue el modelo ARCH, desarrollado por Engle, la Heteroscedasticidad condicional autorregresiva (heterogeneidad). Además del efecto de agrupamiento (agrupación de los rendimientos en conjuntos de valores grandes y pequeños), este modelo también explicaba la aparición de colas pesadas y curtosis positiva, característica de todas las distribuciones de incrementos de precio. El éxito del modelo gaussiano condicional ARCH ha dado lugar a la aparición de una serie de generalizaciones del modelo ARCH para explicar otros fenómenos observados en el análisis de series temporales financieras. Históricamente, una de las primeras generalizaciones del modelo ARCH es el modelo GARCH, (Generalized ARCH). 

La principal ventaja de GARCH en comparación con ARCH es que es más parsimonioso y no requiere una estructura long-lag al ajustar los datos de muestra. En este artículo, queremos ofrecer una descripción de lo que es un GARCH y, lo que es más importante, ofrecer una herramienta de previsión de la volatilidad basada en él, ya que la previsión es uno de los principales objetivos del análisis de datos financieros.

Autor: Evgeniy Chernish

 

Muy buen trabajo.

Lo leí en un santiamén.

Gracias.

 
Renat Akhtyamov #:

¡Muy buen trabajo!

Lo leí en un santiamén.

¡Gracias!

¡Gracias a ti!

 
Евгений Черныш #:

Buen artículo. Sería interesante conocer su opinión sobre el artículo de Stepanov, en el que plantea una hipótesis sobre la naturaleza no estocástica de las fluctuaciones de la volatilidad.

 
El artículo es digno de crédito, gracias :)
 
Aleksey Nikolayev #:

Buen artículo. Sería interesante conocer su opinión sobre el artículo de Stepanov, en el que plantea una hipótesis sobre la naturaleza no estocástica de las fluctuaciones de la volatilidad.

Me has dado de lleno en mi TS. Estoy probando con splines en lugar de HP.

Me preguntaba qué es mejor para elegir el período y el grado de suavizado.

Resulta que es mejor confiar en la prueba de distribución normal de los residuos?

 
Maxim Dmitrievsky #:

Me has dado justo en el TC. En lugar de HP, estoy tratando de splines.

Me preguntaba qué es mejor elegir el período y el grado de suavizado.

Resulta que es mejor confiar en la prueba de distribución normal de los residuos?

Imho, yes, if you build models for increments at constant time intervals, you need to reduce everything to Gaussian noise in the end. Ese es probablemente el sentido de la econometría: todos los factores que no se tienen en cuenta en el modelo deben comportarse como ruido suave.
 
Aleksey Nikolayev #:

Buen artículo. Sería interesante conocer su opinión sobre el artículo de Stepanov, en el que plantea una hipótesis sobre la naturaleza no estocástica de las fluctuaciones de la volatilidad.

El artículo es complejo y contradictorio. Por un lado, el autor utiliza terminología probabilística, herramientas estadísticas, caracteriza el incremento de los precios y la volatilidad como variables aleatorias, construye distribuciones de diferentes medidas de volatilidad, etc., por otro lado, no le gustan los modelos estocásticos de volatilidad.

Por un lado, el autor cree que las correlaciones en las series de volatilidad son un artefacto estadístico causado por la no estacionariedad de los datos, por otro, considera que es una cuestión de futuro prever la volatilidad utilizando funciones deterministas suaves del tiempo.


 
Evgeniy Chernish #:
El artículo es complejo y contradictorio. Por un lado, el autor utiliza terminología probabilística, herramientas estadísticas, caracteriza el incremento de los precios y la volatilidad como variables aleatorias, construye distribuciones de diferentes medidas de volatilidad, etc., por otro lado, no le gustan los modelos estocásticos de volatilidad.

Por un lado, el autor cree que las correlaciones en las series de volatilidad son un artefacto estadístico causado por la no estacionariedad de los datos, por otro, considera que es una cuestión de futuro prever la volatilidad utilizando funciones deterministas suaves del tiempo.


De su artículo también se desprende cierta sensación de contradicción. Debido a la naturaleza sesional del mercado, es obvio que tiene razón sobre los incrementos intradía, pero no estoy seguro de que su hipótesis sea útil en la práctica para los incrementos diarios.
 
Aleksey Nikolayev #:
En mi opinión, sí, si se construyen modelos para incrementos en intervalos de tiempo constantes, al final hay que reducirlo todo a ruido gaussiano. Ese es probablemente el objetivo de la econometría: todos los factores que no se tienen en cuenta en el modelo deberían comportarse como ruido suave.

Interesante, aún no lo he hecho. En el artículo, el autor seleccionaba empíricamente los parámetros. Pero es posible optimizarlos mediante la función de verosimilitud.

Tema de investigación :)

 
Maxim Dmitrievsky #:

Interesante, aún no lo he hecho. En el artículo, el autor seleccionó empíricamente los parámetros. Pero es posible hacer la optimización a través de la función de verosimilitud.

Tema de investigación :)

Hice LLM DeepSeek con la ayuda de Dios. Usted puede sustituir sus propios datos.

Explicación:

Para que los residuos se aproximen lo más posible a una distribución normal durante el proceso de optimización, se puede utilizar un criterio de concordancia (por ejemplo, el criterio de Shapiro-Wilk o el criterio de Kolmogorov-Smirnov) para evaluar la normalidad de los residuos. Los parámetros k k y s spueden optimizarse para minimizar la desviación de los residuos respecto a la distribución normal.

  1. Función de error que tiene en cuenta la normalidad de los residuos: Se introduce una nueva función spline_error_with_normality , que calcula los residuos y utiliza el criterio de Shapiro-Wilk para evaluar su normalidad. El valor p negativo se minimiza para maximizar la normalidad de los residuos.

  2. Optimización: Se utiliza para optimizar los parámetros k k y s s basándose en una nueva función de error.

Este enfoque permite ajustar los parámetros del spline para que los residuos maximicen la distribución normal, lo que puede mejorar la calidad del modelo y la interpretabilidad de los resultados.

Dado que los splines no funcionan con datos nuevos, es posible rehacerlos con HP o cualquier otro filtro. Si se desea construir un modelo concreto.