Comercio Cuantitativo - página 11

 

6. Regression Analysis



6. Regression Analysis

In this comprehensive video, we delve into the topic of regression analysis, exploring its significance in statistical modeling. Linear regression takes center stage as we discuss its goals, the setup of the linear model, and the process of fitting a regression model. To ensure a solid foundation, we begin by explaining the assumptions underlying the distribution of residuals, including the renowned Gauss-Markov assumptions. Moreover, we introduce the generalized Gauss-Markov theorem, which provides a method for estimating the covariance matrix in regression analysis.

We emphasize the importance of incorporating subjective information in statistical modeling and accommodating incomplete or missing data. Statistical modeling should be tailored to the specific process being analyzed, and we caution against blindly applying simple linear regression to all problems. The ordinary least squares estimate for beta is explained, along with the normalization equations, the hat matrix, and the Gauss-Markov theorem for estimating regression parameters. We also cover regression models with nonzero covariances between components, allowing for a more flexible and realistic approach.

To further expand our understanding, we explore the concept of multivariate normal distributions and their role in solving for the distribution of the least squares estimator, assuming normally distributed residuals. Topics such as the moment generating function, QR decomposition, and maximum likelihood estimation are covered. We explain how the QR decomposition simplifies the least squares estimate and present a fundamental result about normal linear regression models. We define the likelihood function and maximum likelihood estimates, highlighting the consistency between least squares and maximum likelihood principles in normal linear regression models.

Throughout the video, we emphasize the iterative steps involved in regression analysis. These steps include identifying the response and explanatory variables, specifying assumptions, defining estimation criteria, applying the chosen estimator to the data, and validating the assumptions. We also discuss the importance of checking assumptions, conducting influence diagnostics, and detecting outliers.

In summary, this video provides a comprehensive overview of regression analysis, covering topics such as linear regression, Gauss-Markov assumptions, generalized Gauss-Markov theorem, subjective information in modeling, ordinary least squares estimate, hat matrix, multivariate normal distributions, moment generating function, QR decomposition, and maximum likelihood estimation. By understanding these concepts and techniques, you'll be well-equipped to tackle regression analysis and utilize it effectively in your statistical modeling endeavors.

  • 00:00:00 In this section, the professor introduces the topic of regression analysis, which is covered today, and its importance in statistical modeling. The methodology, particularly linear regression, is powerful and widely used in finance and other disciplines that do applied statistics. The professor discusses the various goals of regression analysis, including extracting/exploiting the relationship between independent and dependent variables, prediction, causal inference, approximation, and uncovering functional relationships/validating functional relationships among variables. Furthermore, the linear model is set up from a mathematical standpoint, and the lecture covers ordinary least squares, the Gauss-Markov theorem, and formal models with normal linear regression models, followed by extensions to broader classes.

  • 00:05:00 In this section, the concept of linear regression analysis is explored, where a linear function models the conditional distribution of a response variable given independent variables. The regression parameters are used to define the relationship, and residuals describe the uncertainty or error in the data. Furthermore, polynomial approximation and Fourier series can be applied to provide a complete description, especially for cyclical behavior. The key steps for fitting a regression model involve proposing a model based on the scale of the response variable and identifying key independent variables. It's worth noting that these independent variables can include different functional forms and lag values of the response variable, making the set up relatively general.

  • 00:10:00 In this section, the speaker discusses the steps involved in regression analysis. Firstly, one needs to identify the response of the explanatory variables and specify the assumptions underlying the distribution of the residuals. Secondly, one needs to define a criterion for how to judge different estimators of the regression parameters, with several options available. Thirdly, the best estimator needs to be characterized and applied to the given data. Fourthly, one must check their assumptions, which can lead to modifications to the model and assumptions, if necessary. Finally, the speaker emphasizes the importance of tailoring the model to the process being modeled and not applying simple linear regression to all problems. The section ends with a discussion of the assumptions that can be made for the residual distribution in a linear regression model, with the normal distribution being a common and familiar starting point.

  • 00:15:00 In this section, the speaker explains the Gauss-Markov assumptions used in regression analysis, which focus on the means and variances of the residuals. The assumptions include a zero mean, constant variance, and uncorrelated residuals. The speaker also discusses generalized Gauss-Markov assumptions that involve matrix-valued or vector-valued random variables. The speaker demonstrates how the covariance matrix characterizes the variance of the n-vector, and provides examples using mu and y values.

  • 00:20:00 In this section, the generalized Gauss-Markov theorem is introduced as a way of estimating the covariance matrix in regression analysis. The theorem allows for a general covariance matrix with nonzero covariances between the independent variables, the dependent variables, and the residuals, and assumes that they can be correlated. Nonlinear examples of why residuals might be correlated in regression models are discussed, as well as the use of various distribution types beyond the Gaussian distribution in fitting regression models to extend applicability. The lecture then covers the estimation criterion for regression parameters and various methods used to judge what qualifies as a good estimate, including least squares, maximum likelihood, robust methods, Bayes methods, and accommodation for incomplete or missing data.

  • 00:25:00 In this section, the speaker discusses the importance of incorporating subjective information in statistical modeling and the usefulness of Bayes methodologies in appropriate modeling. He also emphasizes the need to accommodate incomplete or missing data by using statistical models. Additionally, the speaker explains how to check assumptions in regression models by analyzing the residuals to determine if the Gauss-Markov assumptions apply. He also mentions the importance of influence diagnostics and outlier detection in identifying cases that might be highly influential or unusual, respectively. Finally, he introduces the concept of ordinary least squares and the least squares criterion to calculate the sum of square deviations from the actual value of the response variable.

  • 00:30:00 In this section, we learn about regression analysis and how to solve for the ordinary least squares estimate for beta. We use matrices, taking the y vector, the n values of the independent variable and X, the matrix of values of the dependent variable, to define the fitted value, y hat, equal to the matrix x times beta. By taking the cross product of the n-vector minus the product of the X matrix times beta, which yields the ordinary least squares estimates for beta, we can solve for the second derivative of Q with respect to beta, which ends up being X.transpose X, a positive definite or semi-definite matrix. Finally, we define the derivative of Q with respect to the regression parameters as minus twice the j-th column stacked times y.

  • 00:35:00 In this section, the concept of normal equations in regression modeling is introduced. The set of equations must be satisfied by the ordinary least squares estimate, beta. With the assistance of matrix algebra, the equation can be solved, and the solution for beta hat assumes that X transpose X inverse exists. To have X transpose X inverse, X must have full rank, indicating that having independent variables that are explained by other independent variables would result in reduced rank. It is discovered that if beta hat doesn't have full rank, our least squares estimate of beta may not be unique.

  • 00:40:00 In this section on regression analysis, the hat matrix is introduced as a projection matrix which takes the linear vector of the response variable into fitted values. Specifically, it's an orthogonal projection matrix that projects onto the column space of X. The residuals are the difference between the response value and the fitted value, and can be expressed as y minus y hat, or I_n minus H times y. It turns out that I_n minus H is also a projection matrix which projects the data onto the space orthogonal to the column space of x. This is important to keep in mind because it helps to represent the n-dimensional vector y by projection onto the column space, and to understand that the residuals are orthogonal to each of the columns of X.

  • 00:45:00 In this section, the Gauss-Markov theorem is introduced as a powerful result in linear models theory that is useful for estimating a function of regression parameters by considering a general target of interest, which is a linear combination of the betas. The theorem states that the least squares estimates are unbiased estimators of the parameter theta and provides a way to show that these estimates have the smallest variance among all linear unbiased estimators, assuming certain conditions are met. The concept of unbiased estimators is also briefly explained.

  • 00:50:00 In this section, the speaker discusses the Gauss-Markov theorem, which states that if the Gauss-Markov assumptions apply, then the estimator theta has the smallest variance amongst all linear unbiased estimators of theta. This means that the least squares estimator is the optimal estimator for theta as long as this is the criteria. The proof for this theorem is based on considering another linear estimate which is also an unbiased estimate and evaluating the difference between the two estimators which must have an expectation of 0. The mathematical argument for the proof includes a decomposition of the variance and keeping track of the covariance terms. This result is where the term BLUE estimates or the BLUE property of the least squares estimates comes from in econometrics class.

  • 00:55:00 In this section, the video discusses the regression model with nonzero covariances between the components and how the data Y, X can be transformed to Y star and X star to satisfy the original Gauss-Markov assumptions, making the response variables have constant variance and be uncorrelated. The video explains that with response values that have very large variances, these generalized least squares discount those by the sigma inverse. The video then delves into distribution theory for normal regression models, assuming residuals are normal with mean 0 and variance sigma squared and that the response variables will have a constant variance, though not be identically distributed because they have different means for the dependent variable.

  • 01:00:00 In this section, the concept of multivariate normal distribution is discussed with respect to the mean vector and covariance matrix. The goal is to solve for the distribution of the least squares estimator assuming normally distributed residuals. The moment generating function is introduced as a way to derive the joint distribution of Y and beta hat. For multivariate normal distributions, the moment generating function for Y is the product of the individual moment generating functions, with the distribution of Y being a normal with mean mu and covariance matrix sigma. The moment generating function for beta hat is solved for in order to determine its distribution, which is a multivariate normal.

  • 01:05:00 In this section, the speaker discusses the moment generating function of beta hat and how it is equivalent to a multivariate normal distribution with mean the true beta and covariance matrix given by a certain object. The marginal distribution of each of the beta hats is given by a univariate normal distribution with mean beta_j and variance equal to the diagonal, which can be proven from the Gaussian moment generating function. The speaker then moves on to discuss the QR decomposition of X, which can be achieved through a Gram-Schmidt orthonormalization of the independent variables matrix. By defining the upper triangular matrix R and solving for Q and R through the Gram-Schmidt process, we can express any n by p matrix as a product of an orthonormal matrix Q and an upper triangular matrix R.

  • 01:10:00 In this section, the QR decomposition and its application in simplifying the least squares estimate is discussed. By using the Gram-Schmidt process to orthogonalize columns of X, the QR decomposition can be calculated to obtain a simple linear algebra operation to solve for least squares estimates. The covariance matrix of beta hat equals sigma squared X transpose X inverse, and the hat matrix is simply Q times Q transpose. The distribution theory is further explored to provide a fundamental result about normal linear regression models.

  • 01:15:00 In this section, the professor discusses an important theorem for any matrix A, m by n, which can transform a random vector y into a random normal vector. The theorem proves that the least squares estimate beta hat and residual vector epsilon hat are independent random variables while constructing such statistics. The distribution of beta hat is multivariate normal while the sum of squared residuals is a multiple of a chi-squared random variable. The regression parameter estimates and t statistics are also discussed. Maximum likelihood estimation is also explained in the context of normal linear regression models. It turns out that ordinary least squares estimate are maximum likelihood estimates.

  • 01:20:00 In this section, the likelihood function and maximum likelihood estimates are defined. The likelihood function is the density function for the data given the unknown parameters of a multivariate normal random variable, and the maximum likelihood estimates determine the values of these parameters that make the observed data most likely. It is noted that using least squares to fit models is consistent with applying the maximum likelihood principle to a normal linear regression model. Additionally, generalized M estimators are briefly mentioned as a class of estimators used for finding robust and quantile estimates of regression parameters.
 

7. Modelos de valor en riesgo (VAR)



7. Modelos de valor en riesgo (VAR)

El video proporciona una discusión en profundidad sobre el concepto de modelos de valor en riesgo (VAR), que se utilizan ampliamente en la industria financiera. Estos modelos emplean cálculos basados en la probabilidad para medir las pérdidas potenciales que puede enfrentar una empresa o individuo. Mediante el uso de un ejemplo simple, el video ilustra de manera efectiva los conceptos fundamentales detrás de los modelos VAR.

Los modelos VAR sirven como herramientas valiosas para que las personas evalúen la probabilidad de perder dinero a través de decisiones de inversión en un día determinado. Para comprender el riesgo asociado con las inversiones, los inversores pueden analizar la desviación estándar de una serie temporal. Esta métrica revela cuánto se ha desviado el rendimiento promedio de la media a lo largo del tiempo. Al valorar un valor en la media más o menos una desviación estándar, los inversores pueden obtener información sobre el rendimiento potencial ajustado al riesgo del valor.

El video destaca que los modelos VAR se pueden construir utilizando diferentes enfoques. Si bien el video se enfoca principalmente en el enfoque paramétrico, reconoce el método alternativo de emplear la simulación de Monte Carlo. El último enfoque ofrece una mayor flexibilidad y opciones de personalización, lo que permite evaluaciones de riesgo más precisas.

Además, el video explora la creación de conjuntos de datos sintéticos que reflejan las propiedades de los conjuntos de datos históricos. Al emplear esta técnica, los analistas pueden generar escenarios realistas para evaluar con precisión los riesgos potenciales. El video también demuestra la aplicación de la trigonometría para describir los patrones estacionales observados en los datos de temperatura, mostrando los diversos métodos empleados en el análisis de riesgos.

Además de discutir los modelos VAR, el video profundiza en los enfoques de gestión de riesgos empleados por los bancos y las empresas de inversión. Enfatiza la importancia de comprender el perfil de riesgo de una empresa y protegerse contra concentraciones excesivas de riesgo.

En general, el video ofrece información valiosa sobre la utilización de modelos VAR como herramientas de evaluación de riesgos en la industria financiera. Al cuantificar los riesgos asociados con las inversiones y emplear análisis estadísticos, estos modelos ayudan a tomar decisiones informadas y mitigar posibles pérdidas financieras.

  • 00:00:00 En este video, Ken Abbott analiza los enfoques de gestión de riesgos que utilizan los bancos y las empresas de inversión. Primero analiza el riesgo y luego analiza cómo la gestión de riesgos implica comprender el perfil de riesgo de la empresa y protegerse contra concentraciones de riesgo que son demasiado grandes.

  • 00:05:00 Los modelos de valor en riesgo son una forma de estimar el riesgo asociado con inversiones específicas y se pueden usar para ayudar a tomar decisiones informadas sobre cuáles poseer. Estos modelos se basan en una comprensión estadística de cómo se comportan las acciones, los bonos y los derivados, y se pueden utilizar para cuantificar la sensibilidad de un inversor a los cambios en las tasas de interés, los precios de las acciones y los precios de las materias primas.

  • 00:10:00 El video explica que los modelos VAR se utilizan para medir el riesgo y determinar cuánto dinero necesita tener un inversor para respaldar una posición en un mercado determinado. El video también proporciona una descripción general del análisis de series temporales, que se utiliza para comprender el comportamiento de los mercados a lo largo del tiempo.

  • 00:15:00 El video analiza el concepto de valor en riesgo (VAR), que es un modelo financiero que utiliza la probabilidad para medir las pérdidas potenciales que una empresa puede experimentar. El video utiliza un ejemplo simple para ilustrar los conceptos.

  • 00:20:00 Los modelos de valor en riesgo (VAR) ayudan a las personas a evaluar la probabilidad de perder dinero en un día determinado a través de decisiones de inversión. La desviación estándar de una serie de tiempo les dice a los inversores cuánto se ha desviado el rendimiento promedio de la media a lo largo del tiempo. Valorar un valor a la media más o menos una desviación estándar da una idea del rendimiento potencial ajustado al riesgo del valor.

  • 00:25:00 Los modelos de valor en riesgo (VAR) permiten identificar escenarios en los que una inversión podría perder más del 4,2% de su valor en un período de cinco años. Esta información puede ser útil para determinar si es probable que una inversión sea rentable o no.

  • 00:30:00 Este video explica cómo funcionan los modelos de valor en riesgo (VAR) y cómo ayudan a mitigar el riesgo. Los conceptos introducidos incluyen cambios porcentuales y cambios de registro, y el uso de PV1 y duraciones para medir el riesgo. El video también cubre el uso de modelos VAR en la industria financiera.

  • 00:35:00 Este video analiza el concepto de valor en riesgo (VAR), que es una herramienta de gestión de riesgos que calcula la pérdida financiera potencial que una empresa o individuo puede experimentar debido a la volatilidad de sus activos. También se discuten los rendimientos, y se explica que están compuestos por tasas libres de riesgo y diferenciales de crédito. El presentador brinda un ejemplo de cómo se puede usar el VAR para estimar la pérdida financiera potencial que una empresa puede experimentar debido a los cambios en los precios de sus activos.

  • 00:40:00 Este video analiza los modelos de valor en riesgo, que miden el riesgo en los mercados financieros. la covarianza y la correlación son dos medidas de riesgo, y las matrices de covarianza son simétricas, con la varianza en la diagonal y la covarianza fuera de la diagonal. Las correlaciones también son simétricas y se pueden calcular utilizando la covarianza dividida por el producto de las desviaciones estándar.

  • 00:45:00 El video analiza el concepto de valor en riesgo (VAR), que se utiliza para medir el riesgo de pérdidas financieras asociadas con una cartera de activos. El video explica que el VAR se puede calcular utilizando una matriz de covarianza y una matriz de correlación. La matriz de covarianza mide el grado de correlación entre activos, mientras que la matriz de correlación mide el grado de correlación entre activos y pasivos. Luego, el video presenta un ejemplo de cómo se puede calcular el VAR utilizando una matriz de covarianza y una matriz de correlación.

  • 00:50:00 Los modelos de valor en riesgo (VAR) son una forma de medir el riesgo asociado con una inversión financiera. El modelo utiliza datos de devoluciones y covarianza para calcular el vector de posición y la estadística de orden. Esto se utiliza luego para determinar el nivel de riesgo de la inversión.

  • 00:55:00 Este video proporciona los puntos clave de una presentación de 7 diapositivas sobre modelos de valor en riesgo. Estos modelos se utilizan para calcular la probabilidad de una pérdida financiera, dado que se cumplen ciertas condiciones. Los datos faltantes pueden ser un problema, y hay varios métodos disponibles para llenar los vacíos. La presentación también analiza cómo el impacto de una suposición puede tener un impacto material en los resultados de un modelo.

  • 01:00:00 El video analiza los modelos de valor en riesgo (VAR). El modelo utiliza un enfoque paramétrico, pero existe otro método que utiliza la simulación Monte Carlo. Este método es más flexible y permite una mayor personalización.

  • 01:05:00 Los modelos de valor en riesgo (VAR) se utilizan para estimar el potencial de una pérdida financiera debido a las fluctuaciones en los precios de los activos. Estos modelos se pueden utilizar para cuantificar el riesgo asociado con una inversión o cartera en particular.

  • 01:10:00 En este video, el autor analiza la importancia de los modelos de valor en riesgo (VAR), y explica que estos modelos ayudan a garantizar que una empresa no experimente un valor propio negativo. Continúa diciendo que, si tiene mil observaciones, debe completar los datos faltantes mediante un proceso llamado "imputación de datos faltantes". Finalmente, John demuestra cómo crear una matriz de transformación que correlacionará normales aleatorias.

  • 01:15:00 En este video, el presentador explica cómo crear modelos que simulen los resultados de las inversiones, utilizando la simulación Monte Carlo. También analiza cómo utilizar una cópula gaussiana para generar modelos más precisos.

  • 01:20:00 El video explica cómo se pueden crear conjuntos de datos sintéticos para que tengan las mismas propiedades que los conjuntos de datos históricos. También demuestra cómo se puede usar la trigonometría para describir patrones estacionales en los datos de temperatura.
 

8. Time Series Analysis I


8. Time Series Analysis I

In this video, the professor begins by revisiting the maximum likelihood estimation method as the primary approach in statistical modeling. They explain the concept of likelihood function and its connection to normal linear regression models. Maximum likelihood estimates are defined as values that maximize the likelihood function, indicating how probable the observed data is given these parameter values.

The professor delves into solving estimation problems for normal linear regression models. They highlight that the maximum likelihood estimate of the error variance is Q of beta hat over n, but caution that this estimate is biased and needs correction by dividing it by n minus the rank of the X matrix. As more parameters are added to the model, the fitted values become more precise, but there is also a risk of overfitting. The theorem states that the least squares estimates, now maximum likelihood estimates, of regression models follow a normal distribution, and the sum of squares of residuals follows a chi-squared distribution with degrees of freedom equal to n minus p. The t-statistic is emphasized as a crucial tool for assessing the significance of explanatory variables in the model.

Generalized M estimation is introduced as a method for estimating unknown parameters by minimizing the function Q of beta. Different estimators can be defined by choosing different forms for the function h, which involves the evaluation of another function. The video also covers robust M estimators, which utilize the function chi to ensure good properties with respect to estimates, as well as quantile estimators. Robust estimators help mitigate the influence of outliers or large residuals in least squares estimation.

The topic then shifts to M-estimators and their wide applicability in fitting models. A case study on linear regression models applied to asset pricing is presented, focusing on the capital asset pricing model. The professor explains how stock returns are influenced by the overall market return, scaled by the stock's risk. The case study provides data and details on how to collect it using the statistical software R. Regression diagnostics are mentioned, highlighting their role in assessing the influence of individual observations on regression parameters. Leverage is introduced as a measure to identify influential data points, and its definition and explanation are provided.

The concept of incorporating additional factors, such as crude oil returns, into equity return models is introduced. The analysis demonstrates that the market alone does not efficiently explain the returns of certain stocks, while crude oil acts as an independent factor that helps elucidate returns. An example is given with Exxon Mobil, an oil company, showing how its returns correlate with oil prices. The section concludes with a scatter plot indicating influential observations based on the Mahalanobis distance of cases from the centroid of independent variables.

The lecturer proceeds to discuss univariate time series analysis, which involves observing a random variable over time as a discrete process. They explain the definitions of strict and covariance stationarity, with covariance stationarity requiring the mean and covariance of the process to remain constant over time. Autoregressive moving average (ARMA) models, along with their extension to non-stationarity through integrated autoregressive moving average (ARIMA) models, are introduced. Estimation of stationary models and tests for stationarity are also covered.

The Wold representation theorem for covariance stationary time series is discussed, stating that such a time series can be decomposed into a linearly deterministic process and a weighted average of white noise with coefficients given by psi_i. The white noise component, eta_t, has constant variance and is uncorrelated with itself and the deterministic process. The Wold decomposition theorem provides a useful framework for modeling such processes.

The lecturer explains the Wold decomposition method of time series analysis, which involves initializing the parameter p (representing the number of past observations) and estimating the linear projection of X_t based on the last p lag values. By examining the residuals using time series methods, such as assessing orthogonality to longer lags and consistency with white noise, one can determine an appropriate moving average model. The Wold decomposition method can be implemented by taking the limit of the projections as p approaches infinity, converging to the projection of the data on its history and corresponding to the coefficients of the projection definition. However, it is crucial for the ratio of p to the sample size n to approach zero to ensure an adequate number of degrees of freedom for model estimation.

The importance of having a finite number of parameters in time series models is emphasized to avoid overfitting. The lag operator, denoted as L, is introduced as a fundamental tool in time series models, enabling the shifting of a time series by one time increment. The lag operator is utilized to represent any stochastic process using the polynomial psi(L), which is an infinite-order polynomial involving lags. The impulse response function is discussed as a measure of the impact of an innovation at a certain time point on the process, affecting it at that point and beyond. The speaker provides an example using the interest rate change by the Federal Reserve chairman to illustrate the temporal impact of innovations.

The concept of the long-run cumulative response is explained in relation to time series analysis. This response represents the accumulated effect of one innovation in the process over time and signifies the value towards which the process is converging. It is calculated as the sum of individual responses captured by the polynomial psi(L). The Wold representation, which is an infinite-order moving average, can be transformed into an autoregressive representation using the inverse of the polynomial psi(L). The class of autoregressive moving average (ARMA) processes is introduced with its mathematical definition.

The focus then turns to autoregressive models within the context of ARMA models. The lecture begins with simpler cases, specifically autoregressive models, before addressing moving average processes. Stationarity conditions are explored, and the characteristic equation associated with the autoregressive model is introduced by replacing the polynomial function phi with the complex variable z. The process X_t is deemed covariance stationary if all the roots of the characteristic equation lie outside the unit circle, implying that the modulus of the complex z is greater than 1. Roots outside the unit circle must have a modulus greater than 1 to ensure stationarity.

In the subsequent section of the video, the concept of stationarity and unit roots in an autoregressive process of order one (AR(1)) is discussed. The characteristic equation of the model is presented, and it is explained that covariance stationarity requires the magnitude of phi to be less than 1. The variance of X in the autoregressive process is shown to be greater than the variance of the innovations when phi is positive and smaller when phi is negative. Additionally, it is demonstrated that an autoregressive process with phi between 0 and 1 corresponds to an exponential mean-reverting process, which has been employed in interest rate models in finance.

The video progresses to focus specifically on autoregressive processes, particularly AR(1) models. These models involve variables that tend to revert to some mean over short periods, with the mean reversion point potentially changing over long periods. The lecture introduces the Yule-Walker equations, which are employed to estimate the parameters of ARMA models. These equations rely on the covariance between observations at different lags, and the resulting system of equations can be solved to obtain the autoregressive parameters. The Yule-Walker equations are frequently utilized to specify ARMA models in statistical packages.

The method of moments principle for statistical estimation is explained, particularly in the context of complex models where specifying and computing likelihood functions become challenging. The lecture proceeds to discuss moving average models and presents formulas for the expectations of X_t, including mu and gamma 0. Non-stationary behavior in time series is addressed through various approaches. The lecturer highlights the importance of accommodating non-stationary behavior to achieve accurate modeling. One approach is transforming the data to make it stationary, such as through differencing or applying Box-Jenkins' approach of using the first difference. Additionally, examples of linear trend reversion models are provided as a means of handling non-stationary time series.

The speaker further explores non-stationary processes and their incorporation into ARMA models. If differencing, either first or second, yields covariance stationarity, it can be integrated into the model specification to create ARIMA models (Autoregressive Integrated Moving Average Processes). The parameters of these models can be estimated using maximum likelihood estimation. To evaluate different sets of models and determine the orders of autoregressive and moving average parameters, information criteria such as the Akaike or Bayes information criterion are suggested.

The issue of adding additional variables to the model is discussed, along with the consideration of penalties. The lecturer emphasizes the need to establish evidence for incorporating extra parameters, such as evaluating t-statistics that exceed a certain threshold or employing other criteria. The Bayes information criterion assumes a finite number of variables in the model, assuming they are known, while the Hannan-Quinn criterion assumes an infinite number of variables but ensures their identifiability. Model selection is a challenging task, but these criteria provide useful tools for decision-making.

In conclusion, the video covers various aspects of statistical modeling and time series analysis. It begins by explaining maximum likelihood estimation and its relation to normal linear regression models. The concepts of generalized M estimation and robust M estimation are introduced. A case study applying linear regression models to asset pricing is presented, followed by an explanation of univariate time series analysis. The Wold representation theorem and the Wold decomposition method are discussed in the context of covariance stationary time series. The importance of a finite number of parameters in time series models is emphasized, along with autoregressive models and stationarity conditions. The video concludes by addressing autoregressive processes, the Yule-Walker equations, the method of moments principle, non-stationary behavior, and model selection using information criteria.

  • 00:00:00 In this section, the professor reviews the maximum likelihood estimation method as the primary estimation method in statistical modeling while discussing the likelihood function and its relation to normal linear regression models. The professor explains that maximum likelihood estimates are values that maximize the function whereby the observed data is most likely, and these values scale the unknown parameters in terms of how likely they could have generated the data values.

  • 00:05:00 In this section, the professor discusses how to solve the estimation problems for normal linear regression models. The maximum likelihood estimate of the error variance is Q of beta hat over n, but this estimate is biased and needs to be corrected by dividing by n minus the rank of the X matrix. The more parameters added to the model, the more precise the fitted values are, but it also increases the danger of curve-fitting. The theorem states that the least squares, now the maximum likelihood estimates, of regression models are normally distributed, and the residuals' sum of squares has a chi-squared distribution with degrees of freedom given by n minus p. The t-statistic is a critical way to assess the relevance of different explanatory variables in the model.

  • 00:10:00 In this section, the video explains the concept of generalized M estimation, which involves estimating unknown parameters by minimizing the function Q of beta. By choosing different functional forms for h, which is a sum of evaluations of another function, different kinds of estimators can be defined such as least squares and maximum likelihood estimation. The video also discusses robust M estimators, which involve defining the function chi to have good properties with estimates, and quantile estimators. Robust estimators help to control the undue influence of very large values or residuals under least squares estimation.

  • 00:15:00 In this section, the professor discusses M-estimators and how they encompass most estimators encountered in fitting models. The class is introduced to a case study that applies linear regression models to asset pricing. The capital asset pricing model is explained to suggest that stock returns depend on the return of the overall market, scaled by how risky the stock is. The case study provides the necessary data and details to collect it using R. The professor mentions regression diagnostics and how they determine the influence of individual observations on regression parameters. Finally, influential data points are identified using leverage, and the definition and explanation are given.

  • 00:20:00 In this section, the professor introduces the concept of adding another factor, such as the return on crude oil, in modeling equity returns to help explain returns. The analysis shows that the market, in this case study, was not efficient in explaining the return of GE; crude oil is another independent factor that helps explain returns. On the other hand, Exxon Mobil, an oil company, has a regression parameter that shows how crude oil definitely has an impact on its return since it goes up and down with oil prices. The section ends with a scatter plot that indicates influential observations associated with the Mahalanobis distance of cases from the centroid of the independent variables.

  • 00:25:00 In this section, the lecturer introduces the topic of univariate time series analysis, which involves observing a random variable over time and is a discrete time process. The definition of strict and covariance stationarity is explained, with covariance stationarity being weaker and requiring that only the mean and covariance of the process remain constant over time. Classic models of autoregressive moving average models and their extensions to non-stationarity with integrated autoregressive moving average models are also discussed, along with how to estimate stationary models and test for stationarity.

  • 00:30:00 In this section of the video, the speaker discusses the Wold representation theorem for covariance stationary time series. The theorem states that a zero-mean covariance stationary time series can be decomposed into two components: a linearly deterministic process and a weighted average of white noise with coefficients given by psi_i. The speaker also explains that eta_t, the white noise element, has constant variance and is uncorrelated with itself and the deterministic process. The Wold decomposition theorem provides a compelling structure for modeling such processes.

  • 00:35:00 In this section, the Wold decomposition method of time series analysis is discussed. This method involves initializing the parameter p, which represents the number of past observations in the linearly deterministic term, and estimating the linear projection of X_t on the last p lag values. By conducting time series methods to analyze the residuals, such as evaluating whether the residuals are orthogonal to longer lags and consistent with white noise, one can specify a moving average model and evaluate its appropriateness. The Wold decomposition method can be implemented as the limit of the projections as p gets large, converging to the projection of the data on its history and corresponding to the coefficients of the projection definition. However, the p/n ratio needs to approach 0 to avoid running out of degrees of freedom when estimating models.

  • 00:40:00 In this section, the speaker emphasizes the importance of having a finite number of parameters while estimating time series models because it helps to avoid overfitting. The lag operator is a crucial tool in time series models where a time series is shifted back by one time increment using the operator L. Any stochastic process can be represented using the lag operator with psi of L, which is an infinite-order polynomial of the lags. The impulse response function relates to the impact of the innovation at a certain point in time that affects the process at that point and beyond. The speaker uses an example of the Federal Reserve chairman's interest rate change to help explain the impact of innovation over time.

  • 00:45:00 In this section, the concept of long-run cumulative response is discussed in relation to time series analysis. The long-run cumulative response is the impact of one innovation in a process over time, and the value to which the process is moving. This response is given by the sum of individual responses, represented by the polynomial of psi with a lag operator. The Wold representation is an infinite-order moving average that can have an autoregressive representation using an inverse of the psi of L polynomial. The class of autoregressive moving average processes, with mathematical definition, is also introduced to the viewer.

  • 00:50:00 In this section, the focus is on autoregressive models in ARMA models. To better understand these models, simpler cases will be looked at, starting with autoregressive models and moving on to moving average processes. Stationarity conditions will also be explored, where the polynomial function phi, if replaced by a complex variable z, will be the characteristic equation associated with the autoregressive model. The process of X_t is covariance stationary if and only if all the roots of this characteristic equation lie outside the unit circle, meaning that the modulus of the complex z is greater than 1, and the roots, if outside the unit circle, have modulus greater than 1.

  • 00:55:00 In this section of the video, the concept of stationarity and unit roots in an autoregressive process of order one is discussed. The characteristic equation of the model is presented, and it is determined that covariance stationarity requires the magnitude of phi to be less than 1 in magnitude. The variance of X in the autoregressive process is shown to be greater than the variance of the innovations when phi is positive and smaller when phi is less than 0. Furthermore, it is demonstrated that an autoregressive process with phi between 0 and 1 corresponds to an exponential mean-reverting process that has been used theoretically for interest rate models in finance.

  • 01:00:00 In this section, the focus is on autoregressive processes, specifically AR(1) models. These models involve variables that typically return to some mean over short periods of time, but the mean reversion point can change over long periods of time. The lecture explains the Yule-Walker equations, which are used to estimate the parameters of the ARMA models. These equations involve the covariance between observations at different lags, and the resulting system of equations can be solved for the autoregressive parameters. Finally, it is noted that the Yule-Walker equations are frequently used to specify ARMA models in statistics packages.

  • 01:05:00 In this section, the method of moments principle for statistical estimation is explained, particularly in complex models where likelihood functions are difficult to specify and compute, and using unbiased estimates of parameters. The moving average model is then discussed, with formulas for the expectations of X_t, which include mu and gamma 0, calculated. Accommodations for non-stationary behavior in time series are also discussed, particularly through transformation of data into stationary, Box and Jenkins' approach of using the first difference, and examples of linear trend reversion models.

  • 01:10:00 In this section, the speaker discusses non-stationary processes and how to incorporate them into ARMA models. He explains that if first or second differencing results in covariance stationarity, it can be incorporated into the model specification to create ARIMA models, or Autoregressive Integrated Moving Average Processes. The parameters for these models can be specified using maximum likelihood, and different sets of models and orders of autoregressive and moving average parameters can be evaluated using information criteria such as the Akaike or Bayes information criterion.

  • 01:15:00 In this section, the speaker discusses the issue of adding extra variables in the model and what penalty should be given. He suggests that it is necessary to consider what evidence should be required to incorporate extra parameters such as t statistics that exceed some threshold or other criteria. The Bayes information criterion assumes there is a finite number of variables in the model and that we know them, while the Hannan-Quinn criterion assumes an infinite number of variables in the model but ensures they are identifiable. The problem of model selection is challenging but can be solved using these criteria.
 

9. Modelado de volatilidad



9. Modelado de volatilidad

Este video proporciona una descripción general extensa del modelado de volatilidad, explorando varios conceptos y técnicas en el campo. El disertante comienza presentando los modelos de promedio móvil autorregresivo (ARMA) y su relevancia para el modelado de volatilidad. Los modelos ARMA se utilizan para capturar la llegada aleatoria de choques en un proceso de movimiento browniano. El ponente explica que estos modelos suponen la existencia de un proceso, pi de t, que representa un proceso de Poisson contando el número de saltos que se producen. Los saltos están representados por variables aleatorias, gamma sigma Z_1 y Z_2, siguiendo una distribución de Poisson. La estimación de estos parámetros se realiza mediante la estimación de máxima verosimilitud a través del algoritmo EM.

Luego, el video profundiza en el tema de la selección y los criterios del modelo. Se analizan diferentes criterios de selección de modelos para determinar el modelo más adecuado para un conjunto de datos determinado. El criterio de información de Akaike (AIC) se presenta como una medida de qué tan bien se ajusta un modelo a los datos, penalizando a los modelos en función de la cantidad de parámetros. El criterio de información de Bayes (BIC) es similar pero introduce una penalización logarítmica para los parámetros agregados. El criterio de Hannan-Quinn proporciona una penalización intermedia entre los términos logarítmicos y lineales. Estos criterios ayudan a seleccionar el modelo óptimo para el modelado de volatilidad.

A continuación, el video aborda la prueba de Dickey-Fuller, que es una herramienta valiosa para evaluar si una serie de tiempo es consistente con una caminata aleatoria simple o exhibe una raíz unitaria. El disertante explica la importancia de esta prueba en la detección de procesos no estacionarios, que pueden presentar desafíos cuando se utilizan modelos ARMA. Se destacan los problemas asociados con el modelado de procesos no estacionarios usando modelos ARMA y se discuten estrategias para abordar estos problemas.

El video concluye presentando una aplicación de modelos ARMA a un ejemplo del mundo real. El disertante demuestra cómo se puede aplicar el modelado de volatilidad en la práctica y cómo los modelos ARMA pueden capturar la volatilidad dependiente del tiempo. El ejemplo sirve para ilustrar la relevancia práctica y la eficacia de las técnicas de modelado de volatilidad.

En resumen, este video brinda una descripción general completa del modelado de volatilidad, que cubre los conceptos de los modelos ARMA, la prueba de Dickey-Fuller, los criterios de selección del modelo y las aplicaciones prácticas. Al explorar estos temas, el video ofrece información sobre las complejidades y estrategias involucradas en el modelado y la predicción de la volatilidad en varios dominios, como los mercados financieros.

  • 00:00:00 El autor analiza el modelo de volatilidad y cómo puede ayudar en la estimación de un modelo estadístico. El autor señala que existen varios criterios de selección de modelos que se pueden utilizar para determinar qué modelo es el más adecuado para un conjunto de datos determinado.

  • 00:05:00 El criterio de información de Akaike es una medida de qué tan bien se ajusta un modelo a los datos, y penaliza a los modelos por un factor que depende del tamaño de los parámetros del modelo. El criterio de información de Bayes es similar, pero tiene una penalización log n para parámetros agregados. El criterio de Hannan-Quinn tiene una penalización a mitad de camino entre log n y dos. La prueba de Dickey-Fuller es una prueba para ver si una serie de tiempo es consistente con una caminata aleatoria simple.

  • 00:10:00 Este video brinda una descripción general del modelado de volatilidad, incluidos los conceptos de modelos de promedio móvil autorregresivo (ARMA) y la prueba de Dickey-Fuller. Luego, el video continúa discutiendo los problemas que pueden ocurrir cuando se modela un proceso no estacionario usando modelos ARMA y cómo lidiar con estos problemas. Finalmente, el video proporciona una aplicación de modelos ARMA a un ejemplo del mundo real.

  • 00:15:00 Este video brinda una breve introducción al modelado de volatilidad, incluida una discusión sobre las funciones ACF y PACF, la prueba de raíces unitarias de Dickey-Fuller y el diagnóstico de regresión.

  • 00:20:00 La volatilidad es una medida de la variabilidad de los precios o rendimientos en los mercados financieros. La volatilidad histórica se calcula tomando la diferencia en los logaritmos de los precios durante un período de tiempo determinado. Los modelos de volatilidad están diseñados para capturar la volatilidad dependiente del tiempo.

  • 00:25:00 La volatilidad es una medida de cuánto cambia el precio de un valor con el tiempo. La volatilidad se puede medir por la raíz cuadrada de la varianza de la muestra y se puede convertir a valores anualizados. La volatilidad histórica se puede estimar utilizando enfoques de métricas de riesgo.

  • 00:30:00 Los modelos de volatilidad se pueden usar para predecir los precios futuros de las acciones, y el movimiento browniano geométrico es un modelo común que se usa. Choongbum entrará en más detalles sobre las ecuaciones diferenciales estocásticas y el cálculo estocástico en conferencias posteriores.

  • 00:35:00 El modelo de volatilidad es un modelo matemático que predice el precio de un valor a lo largo del tiempo. El modelo utiliza una distribución gaussiana para calcular el precio durante un período de tiempo determinado. Cuando se cambia la escala de tiempo, es necesario ajustar el modelo.

  • 00:40:00 El modelado de volatilidad puede producir diferentes resultados según cómo se mida el tiempo. Por ejemplo, en un modelo de movimiento browniano geométrico, los rendimientos diarios se muestrean a partir de una distribución gaussiana, mientras que en un modelo normal, se trazan los percentiles de la distribución gaussiana ajustada. En cualquier caso, la función de distribución acumulativa del modelo ajustado debe centrarse en torno al percentil real.

  • 00:45:00 El estimador Garman-Klass es un modelo para estimar la volatilidad que tiene en cuenta más información que solo los precios de cierre. Supone que los incrementos son uno por día, correspondiente a diario, y que se tiene en cuenta la hora del día en que abre el mercado (representada por la pequeña f).

  • 00:50:00 Este modelo de volatilidad calcula la varianza de los rendimientos de apertura a cierre y la eficiencia de esta estimación en relación con la estimación de cierre a cierre.

  • 00:55:00 El modelo de volatilidad es una ecuación diferencial estocástica que modela la volatilidad de un activo financiero. El artículo de Garman y Klass encontró que el mejor estimador invariante de escala es una estimación que cambia solo por un factor de escala, y que este estimador tiene una eficiencia de 8.4.

  • 01:00:00 Este video cubre el modelado de volatilidad, que es una forma de lidiar con la llegada aleatoria de choques a un proceso de movimiento browniano. El modelo asume que hay un proceso pi de t, que es un proceso de Poisson que cuenta el número de saltos que se han producido. Estos saltos están representados por gamma sigma Z_1 y Z_2, que son variables aleatorias con una distribución de Poisson. La estimación de máxima verosimilitud de estos parámetros se realiza mediante el algoritmo EM.

  • 01:05:00 El video "9. Modelado de volatilidad" cubre el algoritmo EM y los modelos ARCH, que se utilizan para modelar la volatilidad dependiente del tiempo. Los modelos ARCH permiten la dependencia del tiempo en la volatilidad, al mismo tiempo que mantienen las restricciones de los parámetros. Este modelo se utiliza para estimar los tipos de cambio euro/dólar.

  • 01:10:00 El modelado de volatilidad es el proceso de estimar el proceso subyacente que impulsa los precios de las acciones. Esto implica ajustar un modelo autorregresivo a los residuos cuadrados y probar la estructura ARCH. Si no hay una estructura ARCH, entonces el modelo de regresión no tendrá previsibilidad.

  • 01:15:00 El modelo GARCH es una representación simplificada de la volatilidad de los rendimientos al cuadrado de un activo determinado. El modelo es capaz de ajustar los datos bastante bien y tiene propiedades que sugieren una dependencia temporal de la volatilidad.

  • 01:20:00 Este video analiza los beneficios de usar modelos de volatilidad en comparación con otros modelos en el pronóstico. Se ha demostrado que los modelos GARCH son particularmente efectivos para capturar la volatilidad variable en el tiempo. El último día para inscribirse en una excursión es el próximo martes.
 

10. Modelos Regularizados de Precios y Riesgos



10. Modelos Regularizados de Precios y Riesgos

En este completo video, se cubre ampliamente el tema de precios regularizados y modelos de riesgo para productos de tasa de interés, específicamente bonos y swaps. El orador comienza abordando el desafío de la mala postura en estos modelos, donde incluso pequeños cambios en las entradas pueden dar como resultado resultados significativos. Para superar este desafío, proponen el uso de funciones de base suave y funciones de penalización para controlar la suavidad de la superficie de volatilidad. Se introduce la regularización de Tikhonov como una técnica que añade una penalización a la amplitud, reduciendo el impacto del ruido y mejorando la significatividad de los modelos.

El ponente profundiza en diversas técnicas empleadas por los traders en este campo. Analizan las técnicas de spline y el análisis de componentes principales (PCA), que se utilizan para identificar discrepancias en el mercado y tomar decisiones comerciales informadas. Se explica el concepto de bonos, abarcando aspectos como pagos periódicos, vencimiento, valor nominal, bonos cupón cero y bonos perpetuos. Se enfatiza la importancia de construir una curva de rendimiento para cotizar una cartera de swaps con diferentes vencimientos.

Las tasas de interés y los modelos de fijación de precios para bonos y swaps se analizan en detalle. El orador reconoce las limitaciones de los modelos de un solo número para predecir los cambios de precios y presenta el concepto de swaps y cómo los comerciantes citan los niveles de oferta y demanda para la tasa de swap. Se explica la construcción de una curva de rendimiento para precios de swaps, junto con la selección de instrumentos de entrada para calibración y tipos de spline. El proceso de calibrar los swaps utilizando un spline cúbico y garantizar que se vuelvan a cotizar a la par se demuestra mediante ejemplos prácticos.

El video explora aún más la curva de las tasas a plazo de tres meses y la necesidad de un precio justo que coincida con los observables del mercado. Luego, el enfoque cambia a los diferenciales de negociación y la determinación de los instrumentos más líquidos. Se discuten los desafíos de crear una curva que sea insensible a los cambios del mercado, destacando los costos significativos asociados con tales estrategias. Se aborda la necesidad de modelos de cobertura mejorados, y se presenta una nueva formulación general para el riesgo de cartera. El análisis de componentes principales se utiliza para analizar los modos y escenarios del mercado, lo que permite a los operadores cubrirse mediante swaps líquidos y rentables.

Los modelos de precios y riesgos regularizados se exploran en profundidad, enfatizando las desventajas del modelo PCA, como la inestabilidad y la sensibilidad a los valores atípicos. Se destacan los beneficios de traducir el riesgo en números más manejables y líquidos. El video explica cómo las restricciones adicionales y los pensamientos sobre el comportamiento de las matrices de riesgo pueden mejorar estos modelos. Se analiza el uso de B-splines, funciones de penalización, matrices L1 y L2 y la regularización de Tikhonov como medios para mejorar la estabilidad y reducir los errores de fijación de precios.

El orador aborda los desafíos de calibrar una superficie de volatilidad, brindando información sobre problemas indeterminados y soluciones inestables. Se explica la representación de la superficie como un vector y el uso de combinaciones lineales de funciones base. Se revisa el concepto de mal planteado y se enfatiza la importancia de restringir los resultados utilizando funciones de base suave.

Se cubren varias técnicas y enfoques, incluida la descomposición de valores singulares truncados (SVD) y funciones de ajuste utilizando técnicas de spline. Se explica la interpretación de los gráficos de interpolación y su aplicación para calibrar y arbitrar las discrepancias del mercado. Se analizan los swaps y su papel en el modelado de la volatilidad, junto con las oportunidades que presentan para los operadores.

El video concluye destacando la relevancia de los precios regularizados y los modelos de riesgo para identificar anomalías en el mercado y facilitar decisiones comerciales informadas. Enfatiza la liquidez de los bonos y el uso de swaps para construir curvas, al mismo tiempo que reconoce la dependencia de los modelos PCA en ausencia de una curva estable. En general, el video brinda una comprensión integral de los precios regularizados y los modelos de riesgo para productos de tasa de interés, brindando a los espectadores un conocimiento valioso en este dominio.

  • 00:00:00 En esta sección, el Dr. Ivan Masyukov, orador invitado de Morgan Stanley, analiza los precios regularizados y los modelos de riesgo para los productos de tasa de interés, lo que implica agregar restricciones adicionales, también conocidas como regularizadores, al modelo. La conferencia comienza con una explicación de los bonos, uno de los productos de tasa de interés más simples del mercado, y cubre sus pagos periódicos, vencimiento y valor nominal. También se analizan los bonos cupón cero, que no pagan nada hasta el vencimiento, y los bonos perpetuos, que ofrecen pagos infinitos. La conferencia concluye con la explicación del diagrama de flujo de efectivo utilizado para el análisis, con flechas verdes que indican algo recibido y flechas rojas que indican algo pagado.

  • 00:05:00 En esta sección, se introduce el concepto de valor del dinero en el tiempo, donde cuanto mayor es el flujo de efectivo en el futuro, menor es el factor de descuento, lo que resulta en depreciación. Se puede encontrar un valor razonable de los flujos de efectivo calculados si tenemos factores de descuento, que se pueden representar usando un modelo para descontar. Se analiza un modelo simple que utiliza un parámetro, el rendimiento al vencimiento. El precio de un bono se puede representar como una combinación lineal de flujos de efectivo futuros, y el rendimiento del bono se puede encontrar resolviéndolo si se conoce el precio del bono, o viceversa.

  • 00:10:00 En esta sección, se analiza el concepto de precio de bonos versus rendimiento. El valor económico de los bonos está en el precio del bono y en los flujos de caja. El rendimiento correlaciona los flujos de caja futuros con el precio del bono y asume un descuento constante para todos los puntos de tiempo, sin embargo, puede que no siempre sea óptimo. La sensibilidad del precio del bono al rendimiento y cómo cambia con el mercado es vital para determinar la duración de un bono. La duración de un bono es una fórmula de suma ponderada de tiempo y proporcional a los valores presentes de los flujos de efectivo futuros. La relación entre el rendimiento y el precio del bono tiene un signo negativo y la duración de un bono de cupón cero es igual al vencimiento, mientras que la duración de los bonos de cupón regular es menor que el vencimiento. El modelo para la duración de los bonos asume que todas las tasas se mueven en forma paralela.

  • 00:15:00 En esta sección, el orador analiza las tasas de interés y los modelos de fijación de precios para bonos y swaps. Reconocen que un modelo de número único podría no ser adecuado para predecir los cambios de precios y sugieren utilizar segundas derivadas para contabilizar pérdidas inexplicables. Con respecto a los swaps, el orador explica cómo los comerciantes cotizan los niveles de oferta y demanda para la cantidad más importante de un swap, la tasa de swap, utilizando el valor presente de los flujos de efectivo fijos y flotantes. También señalan que ingresar a un swap no requiere ningún intercambio de dinero, y que la tasa fija se establece de modo que el valor presente de los flujos de efectivo fijos menos flotantes sea neto a cero.

  • 00:20:00 En esta sección, se explica el concepto de tasas swap como una suma ponderada de tasas a plazo, con los pesos determinados por factores de descuento. El video explica la necesidad de construir una curva de rendimiento para tasar una cartera completa de swaps con varios vencimientos, así como el proceso de selección de instrumentos de entrada para calibración y tipo spline. El paso final es ajustar los puntos de control para garantizar que cuando los instrumentos se vuelvan a cotizar usando el objeto matemático, los resultados coincidan con los precios del mercado.

  • 00:25:00 En esta sección, Ivan Masyukov explica cómo se usa un spline cúbico para construir una curva suave, en la que la forma funcional de la curva es un polinomio cúbico, manteniendo el número máximo de derivadas para cada nodo. punto. Los B-splines se presentan como un nuevo tipo de spline que se puede representar como una combinación lineal de funciones básicas, lo que permite representar cualquier curva con esos puntos de nodo. Luego, Masyukov continúa explicando cómo calibrar los intercambios utilizando un solucionador para asegurarse de que vuelvan a cotizar a la par. Esto se demuestra con el ejemplo de los instrumentos de curva de rendimiento y los IRS swaps con vencimientos de uno a 30 años y cotizaciones de 0,33% hasta 2,67%.

  • 00:30:00 En esta sección, Ivan Masyukov explica cómo la curva de la tasa de interés a plazo de tres meses, que está impulsada principalmente por la tasa LIBOR para la frecuencia de pago de tres meses en la rama flotante de la tasa de interés estándar en USD swap, es no es plano y es empinado durante los primeros cinco años y luego alcanza una meseta con alguna característica en la región de 20 años. Como la curva no se puede obtener asumiendo que solo hay un rendimiento de parámetro para todo, necesitan algún término adicional para obtener un precio justo y coincidir con los observables del mercado. El término adicional será una pequeña corrección de la curva de rendimiento en lugar de una suposición aproximada de que la curva es plana. Este enfoque es mejor para tener un modelo consistente para bonos y swaps en nuestra cartera y comprender la liquidez de los bonos y los diferenciales de crédito.

  • 00:35:00 En esta sección, el enfoque cambia hacia cómo se negocian los diferenciales y qué instrumentos se consideran los más líquidos. Se revela que el bono es la opción más líquida, mientras que el diferencial entre el swap a diez años y el bono es la segunda opción más líquida. Este cambio merece confiabilidad cuando se crea una curva, ya que un pequeño cambio en las entradas puede causar grandes variaciones en las salidas, lo que es motivo de preocupación para los comerciantes. Una situación típica es aquella en la que a un comerciante le gustaría que el valor de su modelo fuera insensible a los cambios en el mercado, para esto necesitaría comprar tantos swaps de un año como más 200, tantos swaps de dos años como menos 1.3, y así sucesivamente. Sin embargo, podría ser costoso, con un costo de alrededor de 3,6 millones de dólares, y proporcional a la oferta de compra de instrumentos particulares.

  • 00:40:00 En esta sección, se analiza la necesidad de un mejor modelo de cobertura, ya que el método actual de cobertura para los comerciantes no es efectivo. Se presenta una nueva formulación general para el riesgo de cartera caracterizada por los vectores de riesgo de cartera, la cartera de cobertura y los pesos de dicha cartera. El análisis de componentes principales se utiliza para abordar el problema y analizar los modos y escenarios típicos del mercado, en los que los operadores eligen swaps líquidos y baratos para protegerse. Se presenta un gráfico de los componentes principales típicos, siendo el principal comportamiento del mercado que las tasas actualmente no se mueven, pero se moverán en el futuro debido al estímulo de la Reserva Federal.

  • 00:45:00 En esta sección, el orador analiza los modelos de precios y riesgos regularizados, específicamente las desventajas del modelo PCA. El modelo PCA está formulado usando instrumentos de cobertura para eliminar la necesidad de minimizar, pero los coeficientes no son muy estables, especialmente para modos recientes en el mercado. Además, el modelo es sensible a los valores atípicos y puede resultar en un ajuste excesivo de los datos históricos, lo que hace que sea arriesgado suponer que funcionarán en el futuro. Las ventajas del modelo incluyen la posibilidad de traducir el riesgo en menos números y más líquidos que son órdenes de magnitud más pequeños que antes, lo que permite a los operadores tomar decisiones informadas.

  • 00:50:00 En esta sección, el video habla sobre precios regularizados y modelos de riesgo, y cómo poner restricciones o pensamientos adicionales sobre el comportamiento de las matrices de riesgo puede mejorar la situación. El orador explica la interpretación de PCA de la matriz de riesgo y cómo es una combinación lineal de componentes principales, produciendo un cambio en un instrumento de cobertura a la vez. También discuten un enfoque que va más allá de los datos históricos y construye curvas de rendimiento en términos de tasas a plazo para minimizar la falta de suavidad al penalizar las ecuaciones donde el jacobiano es una matriz que traduce los cambios de las entradas de la curva de rendimiento. El video también destaca cómo funciona el motor de precios y el proceso de calibración utilizando el modelo HJM para determinar la volatilidad de los precios.

  • 00:55:00 En esta sección, el disertante explica las ecuaciones de evolución de tasas forward necesarias para la simulación de Monte Carlo, donde las tasas forward son la cantidad que se está asimilando. El orador analiza la deriva de las tasas a plazo, que tiene cierta dependencia de las tasas a plazo con respecto a la potencia de beta. Se introduce la superficie de volatilidad, que da el número de volatilidad a utilizar para el calendario y el tiempo futuro, y se mencionan brevemente la correlación y la estructura factorial. El orador explica que la superficie triangular se usa para la volatilidad de la transición para cada flecha y muestra un ejemplo de la superficie de volatilidad. El problema radica en calcular la matriz triangular, que tiene una dimensión de 240 por 240, necesitó hasta 60 años de datos, lo que la convierte en una tarea desafiante.

  • 01:00:00 En esta sección del video, el ponente explica cómo abordar el tema de la calibración de una superficie de volatilidad. Dado que el número de elementos a calibrar es grande, una solución formal que almacene una matriz de 28K por 28K no es práctica. Además, al haber menos instrumentos de calibración que elementos a calibrar, es un problema indeterminado que produce soluciones inestables. Para resolver esto, representan la superficie como un vector y utilizan una combinación lineal de funciones de base que corresponde a funciones razonables con el mismo número de funciones de base que los instrumentos de entrada. Si bien se calibra perfectamente, la superficie resultante se parece menos a una superficie de volatilidad y más al horizonte de Manhattan con el río Hudson y las formas de los edificios. Este enfoque se usa comúnmente pero produce resultados inestables.

  • 01:05:00 En esta sección del video, el orador analiza el tema de la mala postura en los modelos de precios y riesgo, lo que significa que pequeños cambios en las entradas pueden conducir a cambios drásticos en los resultados. Para abordar esto, sugieren imponer restricciones a las salidas utilizando funciones básicas que, para empezar, son suaves, como B-splines, y funciones de penalización para controlar el cambio y la suavidad de la superficie de volatilidad. Al hacerlo, pueden producir resultados significativos sin tener que calibrar exactamente para cada instrumento de entrada. El orador demuestra cómo las funciones básicas pueden construirse en dos dimensiones y combinarse mediante combinaciones lineales.

  • 01:10:00 En esta sección, el ponente analiza el concepto de precios regularizados y modelos de riesgo. El orador explica que las matrices L1 y L2 que consisten en valores de 1 y -1 se pueden usar para penalizar el gradiente de un vector si se desea un enfoque de suavidad. Para resolver un problema mal planteado donde el ruido pequeño y los modos insignificantes pueden causar cambios sustanciales en la salida, se puede emplear la técnica de regularización de Tikhonov. La técnica consiste en añadir una penalización a la amplitud para reducir el impacto del ruido. El ponente destaca que debido a que siempre hay incertidumbre en los números que se calibran y el modelo no siempre es perfecto, la regularización es necesaria para minimizar los errores de fijación de precios.

  • 01:15:00 En esta sección, se discute el concepto de precios regularizados y modelos de riesgo. La regularización de Tikhonov se presenta como un método para mejorar la estabilidad en problemas mal condicionados. Al penalizar la amplitud o una combinación lineal de la solución, la regularización puede brindar un resultado más significativo y realista, aunque posiblemente con una solución sesgada. La SVD truncada es otro enfoque que se puede usar para seleccionar solo los valores singulares significativos, lo que da como resultado un modelo más robusto. La clave es identificar y penalizar la cantidad específica que necesita regularización, en lugar de aplicar ciegamente un enfoque de libro de texto.

  • 01:20:00 En esta sección, Ivan Masyukov responde preguntas de la audiencia sobre las técnicas utilizadas para ajustar funciones, en particular las técnicas de spline. Él explica que se usa una spline o interpolación cuando hay un número limitado de entradas y desea dibujar en el medio. También analiza la interpretación del gráfico de interpolación y cómo los comerciantes lo usan para calibrar y arbitrar cualquier discrepancia que vean. Además, explica cómo se utilizan las swapciones en el modelado de la volatilidad y cómo los comerciantes realizan transacciones a partir de las discrepancias que ven.

  • 01:25:00 En esta sección, el disertante analiza los precios regularizados y los modelos de riesgo utilizados por los comerciantes del mercado para encontrar anomalías en el mercado y aprovecharlas a través de operaciones. Estos modelos pueden incorporar entradas tales como suposiciones de suavidad sobre las tasas a plazo o combinaciones de análisis de componentes principales (PCA). Si bien los bonos son el instrumento más líquido del mercado, no se negocian continuamente, lo que hace que los swaps sean más adecuados para construir una curva. Una vez que se construye la curva de swap, los comerciantes de bonos la usan como cobertura porque los bonos son más líquidos que los swaps. Sin embargo, los comerciantes que solo negocian bonos a menudo confían en modelos PCA u otros métodos debido a la falta de una curva estable.
 

11. Análisis de series temporales II


11. Análisis de series temporales II

Este video profundiza en varios aspectos del análisis de series de tiempo, basándose en la discusión de la lección anterior sobre el modelado de volatilidad. El profesor comienza presentando los modelos GARCH, que ofrecen un enfoque flexible para medir la volatilidad en series temporales financieras. Se explora la utilización de la estimación de máxima verosimilitud junto con los modelos GARCH, junto con el uso de distribuciones t como una alternativa para modelar datos de series temporales. También se analiza la aproximación de distribuciones t con distribuciones normales. Pasando a las series de tiempo multivariadas, la conferencia cubre la covarianza cruzada y los teoremas de descomposición de Wold. El orador aclara cómo los procesos vectoriales autorregresivos simplifican los modelos de series temporales de orden superior en modelos de primer orden. Además, se discute el cálculo de la media para procesos VAR estacionarios y su representación como un sistema de ecuaciones de regresión.

Luego, la conferencia profundiza en el modelo de regresión multivariado para el análisis de series de tiempo, enfatizando su especificación a través de modelos de regresión univariados separados para cada serie de componentes. Se introduce el concepto de operador de vectorización, demostrando su utilidad para transformar el modelo de regresión multivariante en una forma de regresión lineal. También se explica el proceso de estimación, incluida la estimación de máxima verosimilitud y los criterios de selección del modelo. La conferencia concluye mostrando la aplicación de modelos de vectores autorregresivos en el análisis de datos de series de tiempo relacionados con el crecimiento, la inflación, el desempleo y el impacto de las políticas de tasas de interés. Las funciones de respuesta de impulso se emplean para comprender los efectos de las innovaciones en un componente de la serie temporal en otras variables.

Además, se aborda la continuación del modelado de volatilidad de la lección anterior. Se definen los modelos ARCH, que permiten la volatilidad variable en el tiempo en las series temporales financieras. El modelo GARCH, una extensión del modelo ARCH con parámetros adicionales, se destaca por sus ventajas sobre el modelo ARCH, ofreciendo una mayor flexibilidad en el modelado de la volatilidad. El disertante enfatiza que los modelos GARCH asumen distribuciones gaussianas para las innovaciones en la serie de retorno.

Además, se explora la implementación de modelos GARCH usando estimación de máxima verosimilitud. El modelo ARMA para residuos cuadrados se puede expresar como un polinomio de retraso de las innovaciones para medir la varianza condicional. La raíz cuadrada de la varianza a largo plazo se determina asegurándose de que las raíces del operador estén fuera del círculo unitario. La estimación de máxima verosimilitud implica establecer la función de verosimilitud a partir de los datos y parámetros desconocidos, con la función de densidad conjunta representada como el producto de sucesivas expectativas condicionales de la serie temporal. Estas densidades condicionales siguen distribuciones normales.

Se discuten los desafíos asociados con la estimación de modelos GARCH, principalmente debido a las restricciones en los parámetros subyacentes. Para optimizar una función convexa y encontrar su mínimo, es necesario transformar los parámetros a un rango sin limitaciones. Después de ajustar el modelo, los residuos se evalúan mediante varias pruebas para evaluar la normalidad y analizar las irregularidades. Se usa un paquete R llamado rugarch para ajustar el modelo GARCH para el tipo de cambio euro-dólar, empleando un término GARCH normal después de ajustar el proceso medio para los rendimientos del tipo de cambio. El orden del proceso autorregresivo se determina usando el criterio de información de Akaike, y se produce una gráfica de residuos autorregresivos cuantil-cuantil normal para evaluar el modelo.

El ponente también destaca el uso de distribuciones t, que ofrecen una distribución de colas más pesadas en comparación con las distribuciones gaussianas, para modelar datos de series temporales. Los modelos GARCH con distribuciones t pueden estimar efectivamente la volatilidad y calcular los límites de valor en riesgo. La distribución t sirve como una buena aproximación a una distribución normal, y el disertante alienta a explorar diferentes distribuciones para mejorar el modelado de series de tiempo. Además, se discute la aproximación de distribuciones t con distribuciones normales. La distribución t puede considerarse una aproximación razonable de una distribución normal cuando tiene 25-40 grados de libertad. El disertante presenta un gráfico que compara las funciones de densidad de probabilidad de una distribución normal estándar y una distribución t estándar con 30 grados de libertad, demostrando que las dos distribuciones son similares pero difieren en las colas.

En la conferencia, el profesor continúa explicando el análisis de datos de series temporales utilizando modelos de vectores autorregresivos (VAR). La atención se centra en comprender la relación entre las variables y el impacto de las innovaciones en las variables de interés. Para analizar las relaciones entre variables en un modelo VAR, se utilizan la función de autocorrelación multivariante (ACF) y la función de autocorrelación parcial (PACF). Estas funciones capturan los retrasos cruzados entre las variables y brindan información sobre las interacciones dinámicas entre ellas. Al examinar el ACF y el PACF, se pueden identificar los retrasos significativos y sus efectos en las variables. Además, las funciones de respuesta de impulso (IRF) se emplean para comprender los efectos de las innovaciones en las variables a lo largo del tiempo. Una innovación se refiere a un shock o cambio inesperado en una de las variables. Los IRF ilustran cómo las variables responden a una innovación en un componente de la serie temporal multivariada. Este análisis ayuda a comprender la propagación y la magnitud de las perturbaciones en todo el sistema.

Por ejemplo, si ocurre una innovación en la tasa de desempleo, los IRF pueden mostrar cómo este choque afecta otras variables como la tasa de fondos federales y el índice de precios al consumidor (IPC). Se puede observar la magnitud y la duración de la respuesta, lo que proporciona información sobre las interdependencias y los efectos indirectos dentro del sistema. Además de los IRF, se pueden utilizar otras medidas estadísticas como la descomposición de la varianza del error de pronóstico (FEVD). FEVD descompone la varianza del error de pronóstico de cada variable en las contribuciones de sus propios shocks y los shocks de otras variables. Este análisis permite la cuantificación de la importancia relativa de diferentes choques en la conducción de la variabilidad de cada variable. Mediante el empleo de modelos VAR y el análisis de ACF, PACF, IRF y FEVD, los investigadores pueden obtener una comprensión integral de las relaciones y dinámicas dentro de una serie temporal multivariada. Estos conocimientos son valiosos para la previsión, el análisis de políticas y la comprensión de las complejas interacciones entre las variables económicas.

En resumen, la conferencia enfatiza la aplicación de modelos VAR para analizar datos de series de tiempo. Destaca el uso de ACF y PACF para capturar retrasos cruzados, IRF para examinar el impacto de las innovaciones y FEVD para cuantificar las contribuciones de diferentes choques. Estas técnicas permiten una comprensión más profunda de las relaciones y la dinámica dentro de las series temporales multivariadas, lo que facilita la elaboración de pronósticos precisos y la toma de decisiones sobre políticas.

  • 00:00:00 En esta sección, el profesor analiza la continuación del modelado de volatilidad en la lección anterior al abordar la definición de modelos ARCH que admiten volatilidad variable en el tiempo en series temporales financieras. El modelo GARCH, una extensión del modelo ARCH a través de parámetros adicionales, tiene muchas más ventajas sobre el modelo ARCH y tiene menos parámetros. Al agregar el parámetro adicional que relaciona la volatilidad actual con el valor pasado o rezagado, el modelo GARCH puede ser flexible en el modelado de la volatilidad. El límite inferior de la volatilidad está presente en el modelo ARCH, lo que hace que este modelo tenga un límite inferior rígido, mientras que los modelos GARCH tienen una ventaja mucho más flexible en la predicción de los niveles de volatilidad. Cabe señalar que en estos ajustes estamos suponiendo distribuciones gaussianas para las innovaciones en la serie de retorno.

  • 00:05:00 En esta sección, el tema son los modelos GARCH y su implementación utilizando la estimación de máxima verosimilitud. Con los modelos GARCH, podemos medir la volatilidad y expresar el modelo ARMA para los residuos cuadrados como un polinomio de retraso de las innovaciones. Para la varianza condicional, podemos determinar la raíz cuadrada de la varianza a largo plazo al requerir que las raíces del operador tengan raíces fuera del círculo unitario. La estimación de máxima verosimilitud requiere determinar la función de verosimilitud de los datos dados los parámetros desconocidos, y la función de densidad conjunta se puede expresar como el producto de sucesivas expectativas condicionales de la serie temporal. Estas densidades condicionales son variables aleatorias normales.

  • 00:10:00 En esta sección, el orador analiza el desafío de estimar modelos GARCH debido a las restricciones en los parámetros subyacentes, que deben cumplirse. Para optimizar una función convexa y encontrar el mínimo de una función convexa, los métodos de optimización funcionan bien y es necesario transformar los parámetros a una escala en la que tengan un rango ilimitado. Después de ajustar el modelo, los residuos deben evaluarse con varias pruebas de normalidad y analizando la magnitud de las irregularidades. Con el paquete R llamado rugarch, se elige el modelo GARCH para el tipo de cambio euro-dólar con un término GARCH normal y se ajusta después de ajustar el proceso medio para los rendimientos del tipo de cambio. Para evaluar el modelo, se ajusta el proceso autorregresivo utilizando el criterio de información de Akaike para elegir el orden del proceso autorregresivo y producir una gráfica normal qq de residuos autorregresivos.

  • 00:15:00 En esta sección, el presentador analiza el uso de una distribución de cola más pesada, específicamente la distribución t, para modelar datos de series de tiempo. Cuando se compara con una distribución gaussiana, la distribución t acomoda mejor los valores altos y bajos de los residuos. El presentador muestra cómo los modelos GARCH con distribuciones t pueden estimar la volatilidad de manera similar a los modelos GARCH con distribuciones gaussianas, y se pueden usar para calcular el valor en los límites de riesgo. En general, la distribución t puede ser una buena aproximación a una distribución normal, y el presentador alienta a explorar diferentes distribuciones para modelar mejor los datos de series temporales.

  • 00:20:00 En esta sección, el profesor analiza la aproximación de la distribución t con una distribución normal. Por lo general, una distribución t puede considerarse una buena aproximación de una distribución normal con 25 a 40 grados de libertad. El profesor muestra un gráfico que compara las funciones de densidad de probabilidad para una distribución normal estándar y una distribución t estándar con 30 grados de libertad. El gráfico demuestra que las dos distribuciones están muy cerca pero difieren en las colas de la distribución. La distribución t tiene distribuciones de cola más pesadas que una distribución normal. El profesor también analiza el agrupamiento de volatilidad y la capacidad del modelo GARCH para manejarlo. Además, el profesor señala que las devoluciones tienen colas más pesadas que las distribuciones gaussianas, y la tarea cubre cómo el modelo GARCH puede manejar esto.

  • 00:25:00 En esta sección, se discute el modelo GARCH y su utilidad para modelar series temporales financieras. El modelo GARCH es apropiado para modelar series de tiempo estacionarias de covarianza, donde la medida de volatilidad es una medida del exceso de retorno al cuadrado y es esencialmente un proceso estacionario de covarianza con una media a largo plazo. Los modelos GARCH son excelentes para describir la volatilidad en relación con el promedio a largo plazo y, en términos de su utilidad para la predicción, predicen que la volatilidad volverá a la media en algún momento. La velocidad a la que se revierte la volatilidad viene dada por el parámetro de persistencia, que puede medirse por alpha_1 más beta_1. Cuanto más grande es alpha_1 más beta_1, más persistente es la volatilidad. Hay muchas extensiones de los modelos GARCH, y en el siguiente tema, series temporales multivariantes, se discutirá el teorema de representación de Wold multivariante.

  • 00:30:00 En esta sección, aprendemos sobre series de tiempo multivariadas, que involucran la extensión de series de tiempo univariadas para modelar múltiples variables que cambian con el tiempo. Extendemos la definición de estacionariedad de covarianza a momentos finitos y acotados de primer y segundo orden, donde una variable aleatoria con valores M-dimensionales se trata como M series de tiempo diferentes. Para la matriz de varianza-covarianza de la t-ésima observación del proceso multivariado, definimos gamma_0, que es el valor esperado de X_t menos mu por X_t menos mu primo. La matriz de correlación, r_0, se obtiene entonces pre y postmultiplicando la matriz de covarianza gamma_0 por una matriz diagonal con las raíces cuadradas de la diagonal de esta matriz.

  • 00:35:00 En esta sección, se introdujo el concepto de matrices de covarianza cruzada, que analiza cómo los valores actuales de una serie temporal multivariada covarían con el retraso k-ésimo de esos valores. Gamma_k, los valores del vector del período actual, se covarían con el retraso k-ésimo de esos valores. Se explicaron las propiedades de estas matrices, siendo la diagonal de gamma_0 la matriz de covarianza de las entradas diagonales de varianzas. También se mencionó la existencia del teorema de descomposición de Wold, un teorema avanzado, que amplía el teorema de descomposición de Wold univariado. Este teorema es útil para identificar juicios de causalidad entre variables en series temporales económicas.

  • 00:40:00 En esta sección, se introduce el concepto de representación de descomposición de Wold para un proceso estacionario de covarianza. El proceso se representa como la suma de un proceso determinista y un proceso de media móvil de un ruido blanco. En un caso multivariable, el proceso determinista podría ser una tendencia lineal o exponencial, y el proceso de ruido blanco es un vector m-dimensional con media 0 y una matriz de varianza/covarianza semidefinida positiva. La innovación es la perturbación sobre el proceso modelado que no puede ser predicha por información previa. La suma de los términos en la matriz de covarianza debe converger para que el proceso sea estacionario en covarianza.

  • 00:45:00 En esta sección, se analiza la descomposición de Wold como una forma de representar los bits de información que afectan el proceso y que no estaban disponibles antes. Luego, la sección pasa a analizar los procesos vectoriales autorregresivos, que modelan cómo un componente determinado de la serie multivariante depende de otras variables o componentes de la serie multivariante. Luego se explica el concepto de volver a expresar un proceso de p-ésimo orden como un proceso de primer orden con autorregresiones vectoriales, que es una técnica poderosa utilizada en los métodos de series de tiempo para simplificar el análisis de modelos complicados.

  • 00:50:00 En esta sección, el disertante analiza la representación de un proceso estocástico multivariado usando vectores Z_t y Z_(t-1) y cómo se puede transformar en un modelo de serie temporal de primer orden con una serie multivariada más grande. El proceso es estacionario si todos los valores propios de la matriz compañera A tienen un módulo menor que 1, lo que asegura que el proceso no tendrá un comportamiento explosivo cuando se incremente con el tiempo. Este requisito es el mismo que el de que todas las raíces de la ecuación polinomial estén fuera del círculo unitario. El orden del polinomio no se menciona en este extracto.

  • 00:55:00 En esta sección, la atención se centra en calcular la media del proceso VAR estacionario tomando las expectativas en ambos lados de la ecuación. La media incondicional del proceso se obtiene resolviendo mu en la segunda línea a la tercera línea. El modelo de vector autorregresivo se expresa como un sistema de ecuaciones de regresión, que consta de m modelos de regresión correspondientes a cada componente de la serie multivariada. El m-ésimo modelo de regresión modela la j-ésima columna de la matriz como Z beta j y epsilon j, donde Z es un vector de valores rezagados del proceso multivariado. El cálculo supone que se dispone de p observaciones previas a la muestra.

  • 01:00:00 En esta sección, el ponente explica el modelo de regresión multivariado para el análisis de series temporales. El modelo consiste en un modelo de regresión lineal sobre los rezagos de toda la serie multivariada hasta p rezagos con su parámetro de regresión dado por βj, que corresponde a los distintos elementos de las matrices phi. El disertante define el modelo de regresión multivariado y explica cómo especificarlo considerando el modelo de regresión univariado para cada serie de componentes por separado. Esto está relacionado con regresiones aparentemente no relacionadas en econometría.

  • 01:05:00 En esta sección de la conferencia, el profesor analiza los métodos de estimación de los parámetros de una regresión lineal y cómo estimar las varianzas y covarianzas de los términos de innovación. El proceso implica aplicar métodos de estimación sencillos para el parámetro de una regresión lineal y luego estimar las varianzas/covarianzas del término de innovación. Un resultado significativo es que estas regresiones por componentes también son la estimación óptima para la regresión multivariante. Los operadores de productos de Kronecker se utilizan en esta teoría, que se aplica a los operadores vec que toman una matriz y apilan las columnas juntas.

  • 01:10:00 En esta sección, se introduce el concepto de operador de vectorización y se explica su uso para manipular términos en una forma más conveniente. El modelo de regresión multivariable se configura utilizando una estructura matricial y se expresa en términos de forma de regresión lineal. Mediante la vectorización de la matriz beta, épsilon e y, se puede definir la función de verosimilitud en la estimación de máxima verosimilitud con estos modelos. Los parámetros desconocidos beta star, sigma, que son iguales a la densidad conjunta de este modelo de regresión lineal normal, corresponden a lo que se utilizó anteriormente en el análisis de regresión con una definición más complicada de la matriz de variables independientes X star y la matriz de varianza/covarianza sigma estrella.

  • 01:15:00 En esta sección, se analiza el concepto de log-verosimilitud concentrada y se revela que la estimación del parámetro de regresión beta es independiente de la matriz de covarianza sigma. Esto permite la concentración de la función de verosimilitud, que debe maximizarse al estimar la matriz de covarianza. La maximización se realiza a través del logaritmo de un determinante de una matriz menos n sobre 2 la traza de esa matriz por una estimación de la misma. Además, se pueden aplicar criterios de selección de modelos como el criterio de información de Akaike, el criterio de información de Bayes y el criterio de Hannan-Quinn. Por último, se muestra un ejemplo de ajuste de vectores autorregresivos con variables macroeconómicas, lo que demuestra la importancia de comprender qué factores afectan a la economía en términos de crecimiento, inflación, desempleo y el impacto de las políticas de tasas de interés.

  • 01:20:00 En esta sección, el disertante analiza el uso de modelos vectoriales de autorregresión para analizar datos de series temporales. Las variables específicas que se estudian son la tasa de desempleo, los fondos federales y el IPC (una medida de la inflación). Las versiones multivariadas de la función de autocorrelación y la función de autocorrelación parcial se utilizan para capturar los retrasos cruzados entre variables en estos modelos. Las funciones de respuesta de impulso se utilizan luego para comprender el impacto de una innovación en uno de los componentes de la serie de tiempo multivariante en las otras variables. Esto es importante para comprender la conexión entre la representación del promedio móvil y estos modelos de series de tiempo.
 

12. Análisis de series temporales III



12. Análisis de series temporales III

En este video de YouTube sobre análisis de series de tiempo, el profesor cubre una variedad de modelos y sus aplicaciones a diferentes escenarios. El video profundiza en temas como los modelos de vector autorregresivo (VAR), la cointegración y los modelos lineales de espacio de estado. Estos modelos son cruciales para pronosticar variables como el desempleo, la inflación y el crecimiento económico al examinar los coeficientes de autocorrelación y autocorrelación parcial.

El video comienza presentando el modelado de espacio de estado lineal y el filtro de Kalman, que se utilizan para estimar y pronosticar modelos de series temporales. El modelado de espacio de estado lineal implica establecer ecuaciones de estado y de observación para facilitar el proceso de estimación del modelo. El filtro de Kalman, una poderosa herramienta, calcula la función de probabilidad y proporciona términos esenciales para la estimación y el pronóstico.

Luego, el disertante explica cómo derivar representaciones de espacio de estado para procesos de promedio móvil autorregresivo (ARMA). Este enfoque permite una representación flexible de las relaciones entre variables en una serie de tiempo. El video destaca la importancia del trabajo de Harvey en 1993, que definió una representación de espacio de estado particular para los procesos ARMA.

A continuación, el video explora la aplicación de modelos VAR a variables macroeconómicas para pronosticar el crecimiento, la inflación y el desempleo. Al analizar los coeficientes de autocorrelación y autocorrelación parcial, los investigadores pueden determinar las relaciones entre las variables e identificar patrones y correlaciones. El video proporciona un ejemplo de modelo de regresión, que ilustra cómo se puede modelar la tasa de fondos federales como una función de la tasa de desempleo rezagada, la tasa de fondos federales y el IPC. Este ejemplo revela que un aumento en la tasa de desempleo tiende a provocar una disminución en la tasa de los fondos federales al mes siguiente.

Luego se introduce el concepto de cointegración, abordando series temporales no estacionarias y sus combinaciones lineales. La cointegración implica encontrar un vector beta que produzca un proceso estacionario cuando se combina con las variables de interés. El video analiza ejemplos como la estructura temporal de las tasas de interés, la paridad del poder adquisitivo y las relaciones al contado y de futuros. Una ilustración que utiliza futuros de energía, específicamente contratos de petróleo crudo, gasolina y combustible para calefacción, demuestra el concepto de cointegración.

El video explora aún más la estimación de modelos VAR y el análisis de procesos de autorregresión de vectores cointegrados. Se hace referencia al trabajo de Sims, Stock y Watson, que muestra cómo se puede aplicar el estimador de mínimos cuadrados a estos modelos. También se mencionan la estimación de máxima verosimilitud y las pruebas de rango para las relaciones de cointegración. Se presenta un estudio de caso sobre datos de propagación de grietas, incluida la prueba de no estacionariedad utilizando una prueba de Dickey-Fuller aumentada. A continuación, el video se enfoca en los datos de futuros de petróleo crudo y la determinación de órdenes de no estacionariedad e integración. El procedimiento de Johansen se emplea para probar el rango del proceso cointegrado. Los vectores propios correspondientes a la relación estacionaria brindan información sobre las relaciones entre los futuros de petróleo crudo, la gasolina (RBOB) y el combustible para calefacción.

Luego, la conferencia presenta modelos lineales de espacio de estado como una forma de expresar varios modelos de series de tiempo utilizados en economía y finanzas. Se explican la ecuación de estado y la ecuación de observación, lo que demuestra la flexibilidad de este marco de modelado. El video ilustra la representación de un modelo de fijación de precios de activos de capital con betas variables en el tiempo como un modelo de espacio de estado lineal. Al incorporar la dependencia del tiempo en los parámetros de regresión, el modelo captura los cambios dinámicos. Además, el disertante discute el concepto de cambiar los parámetros de regresión a lo largo del tiempo, asumiendo que siguen caminatas aleatorias independientes. Se explica la ecuación conjunta de espacio de estado y su implementación para actualizar regresiones recursivamente a medida que se agregan nuevos datos. Los modelos autorregresivos de orden P y los modelos de promedio móvil de orden Q se expresan como modelos lineales de espacio de estado.

Luego, la conferencia profundiza en la ecuación de estado y la ecuación de observación, enfatizando su papel en la transición entre estados subyacentes. Se explora la derivación de la representación del espacio de estado para los procesos ARMA, destacando la flexibilidad en la definición de estados y la matriz de transformación subyacente.
La conferencia proporciona una descripción general de la aplicación de modelos lineales de espacio de estado al análisis de series de tiempo. El ponente explica que estos modelos se pueden utilizar para estimar y pronosticar variables de interés incorporando tanto datos observados como estados subyacentes. Al utilizar el filtro de Kalman, que es un algoritmo recursivo, los modelos pueden calcular la distribución condicional de los estados dados los datos observados, así como predecir estados y observaciones futuras.

La conferencia enfatiza la importancia de comprender los componentes clave de los modelos lineales de espacio de estado. La ecuación de estado representa la dinámica de transición de los estados subyacentes a lo largo del tiempo, mientras que la ecuación de observación relaciona los datos observados con los estados subyacentes. Estas ecuaciones, junto con la distribución de estado inicial, definen la estructura del modelo.
El disertante procede a discutir el proceso de estimación para modelos lineales de espacio de estado. La estimación de máxima verosimilitud se usa comúnmente para estimar los parámetros desconocidos del modelo en función de los datos observados. El filtro de Kalman juega un papel crucial en este proceso al calcular la función de probabilidad, que mide la bondad del ajuste entre el modelo y los datos.

Además, la conferencia destaca que los modelos lineales de espacio de estado proporcionan un marco flexible para modelar varios fenómenos económicos y financieros. Se pueden usar para expresar modelos autorregresivos, modelos de promedio móvil e incluso modelos más complejos, como el modelo de fijación de precios de activos de capital con betas variables en el tiempo. Esta versatilidad hace que los modelos de espacio de estado lineales sean una herramienta valiosa para los investigadores y profesionales de la economía y las finanzas. Para ilustrar aún más las aplicaciones prácticas de los modelos lineales de espacio de estado, la conferencia presenta un estudio de caso sobre contratos de futuros de petróleo crudo. Al analizar la relación entre los precios de diferentes contratos de futuros, como el petróleo crudo, la gasolina y el combustible para calefacción, el orador demuestra cómo se pueden utilizar los modelos de espacio de estado lineal para identificar patrones, pronosticar precios y evaluar el riesgo en el mercado energético.

En resumen, el video proporciona una descripción completa de los modelos lineales de espacio de estado y sus aplicaciones en el análisis de series de tiempo. Al aprovechar el filtro de Kalman, estos modelos permiten a los investigadores estimar y pronosticar variables de interés, comprender la dinámica de los estados subyacentes y capturar las relaciones complejas entre las variables. La conferencia enfatiza la flexibilidad y la utilidad de los modelos lineales de espacio de estado en varios contextos económicos y financieros, lo que los convierte en una herramienta valiosa para el análisis empírico y la toma de decisiones.

  • 00:00:00 En esta sección, el profesor presenta variables macroeconómicas que se pueden usar para pronosticar el crecimiento, la inflación y el desempleo en la economía y se enfoca en un resumen del modelo de ajuste de autorregresión vectorial. Las raíces del polinomio característico en el modelo resultaron ser no estacionarias, lo que indica que se debe usar una serie diferente para modelar esto. Para eliminar esta no estacionariedad, el profesor sugiere modelar las primeras diferencias, lo que se puede hacer tomando las diferencias de todas las series y eliminando los valores faltantes. El gráfico muestra las propiedades de la serie temporal de la serie de diferencias, incluidas las funciones de autocorrelación diagonal y las correlaciones cruzadas, que se muestran estadísticamente significativas. También se discute la función de autocorrelación parcial, que involucra correlaciones entre variables y el rezago de otra después de explicar todos los rezagos de menor grado.

  • 00:05:00 En esta sección, el video analiza el uso de modelos vectoriales autorregresivos, que permiten a los investigadores modelar las relaciones estructurales entre múltiples variables macroeconómicas. El ejemplo se centra en tres variables: la tasa de desempleo, la tasa de fondos federales y el IPC. Al examinar los coeficientes de autocorrelación y autocorrelación parcial, los investigadores pueden determinar las relaciones entre estas variables e identificar patrones y correlaciones. El video también proporciona un modelo de regresión para la tasa de fondos federales como una función de la tasa de desempleo rezagada, la tasa de fondos federales y el IPC. Este modelo indica que si la tasa de desempleo aumenta, es probable que la tasa de la Reserva Federal baje el próximo mes. El video enfatiza la importancia de comprender la relación señal-ruido al estimar los parámetros autorregresivos e interpretar los coeficientes.

  • 00:10:00 En esta sección del video, el orador presenta el concepto de cointegración, que es un tema importante en el análisis de series de tiempo que se ocupa de series de tiempo no estacionarias. La discusión comienza con el contexto en el que la cointegración es relevante y se centra en los procesos estocásticos que se integran de algún orden d, lo que significa que la diferencia d-ésima es estacionaria. Si bien tomar las primeras diferencias da como resultado la estacionariedad, el proceso pierde algo de información y la cointegración proporciona un marco para caracterizar toda la información disponible para el modelado estadístico de manera sistemática. Un proceso no estacionario aún puede tener una representación autorregresiva vectorial, que se puede expresar como un retraso polinómico de las x igual al épsilon de ruido blanco, y reducirlo a estacionariedad requiere tomar la diferencia de orden d-ésima.

  • 00:15:00 En esta sección del video, se presenta el concepto de cointegración como una forma de lidiar con situaciones en las que las combinaciones lineales de series temporales multivariadas pueden ser estacionarias, lo que significa que representan las características estacionarias del proceso. La cointegración implica encontrar un vector beta tal que los pesos lineales en x y beta prime X_t sea un proceso estacionario. El vector de cointegración se puede escalar arbitrariamente, pero es una práctica común establecer la primera serie de componentes del proceso igual a 1. Esta relación surge de muchas maneras en economía y finanzas, incluida la estructura temporal de las tasas de interés, la paridad del poder adquisitivo, la demanda de dinero. , cubría la paridad de la tasa de interés, la ley del precio único y el spot y los futuros. Se da un ejemplo de futuros de energía para ilustrar el concepto.

  • 00:20:00 En esta sección, el profesor analiza una serie temporal de contratos de futuros de petróleo crudo, gasolina y combustible para calefacción negociados en la CME. Explica cómo los precios de futuros de la gasolina y el combustible para calefacción deberían depender del costo del insumo, que es el petróleo crudo. El profesor muestra un gráfico de los precios de los futuros, que representan las mismas unidades de producción en relación con la entrada. Señala que, si bien los futuros de gasolina y combustible para calefacción están consistentemente por encima de los futuros de insumos de petróleo crudo, varían según cuál sea mayor. La diferencia entre el precio del futuro del combustible para calefacción y el del petróleo crudo representa la diferencia en el valor de la producción menos la entrada, que incluye el costo de refinación, la oferta y la demanda, los efectos estacionales y la ganancia de la refinería.

  • 00:25:00 En esta sección, la lección discute el modelo vectorial autorregresivo de orden p que extiende el modelo univariado. La conferencia explica que la autorregresión de una serie depende de todas las demás series, lo que forma el ruido blanco multidimensional con media 0 y alguna estructura de covarianza. También se discute el proceso que se está integrando de orden uno, junto con el proceso de derivación que relaciona las diferencias con algunos términos extra. Al final, la lección proporciona la ecuación para la diferencia de la serie, que es igual a una constante más una matriz múltiplo de la serie multivariante de la primera diferencia, más otra matriz multiplicada por la segunda diferencia, hasta la p-ésima diferencia.

  • 00:30:00 En esta sección, el video analiza el proceso de eliminación de la no estacionariedad en la serie temporal mediante el uso de series diferidas y diferenciadas. El modelo expresa el modelo de proceso estocástico para la serie de diferencias, que es estacionaria. Mientras que los términos que son múltiplos de matriz de rezagos son estacionarios, el término pi X_t contiene los términos de cointegración que involucran la identificación de la matriz, pi. Como la serie original tenía raíces unitarias, la matriz pi es de rango reducido y define las relaciones de cointegración. Las columnas de beta definen vectores linealmente independientes que cointegran x. La descomposición de pi no es única, y al definir el sistema de coordenadas en el espacio r-dimensional donde el proceso es estacionario, la matriz pi puede expresarse como alfa beta prima.

  • 00:35:00 En esta sección, el disertante analiza la estimación de modelos vectoriales de autorregresión y el trabajo de Sims, Stock y Watson que muestra cómo se puede utilizar el estimador de mínimos cuadrados del modelo original para un análisis de procesos de vectores autorregresivos cointegrados. . El orador también menciona la literatura avanzada sobre métodos de estimación para estos modelos, incluida la estimación de máxima verosimilitud, que produce pruebas para el rango de la relación de cointegración. También se analiza un estudio de caso sobre los datos de dispersión de grietas, que implica probar la no estacionariedad en la serie subyacente utilizando una prueba de Dickey-Fuller aumentada que arroja un valor p de 0,164 para CLC1, el primer contrato más cercano.

  • 00:40:00 En esta sección, el presentador analiza la no estacionariedad y el orden de integración de los datos de futuros de petróleo crudo, lo que sugiere que es necesario adaptarse a la no estacionariedad al especificar modelos. Los resultados de realizar un procedimiento de Johansen para probar el rango del proceso cointegrado sugieren que no existe una no estacionariedad fuerte, y el vector propio correspondiente a la relación estacionaria está dado por los coeficientes de 1 en futuros de petróleo crudo, 1.3 en RBOB y -1,7 en gasóleo de calefacción. La combinación de crudo más gasolina menos combustible para calefacción parece ser estacionaria en el tiempo, lo que podría ser útil para las refinerías que desean cubrir sus riesgos de producción.

  • 00:45:00 En esta sección, el orador introduce el tema de los modelos de espacio de estado lineales, que se pueden usar para expresar muchos modelos de series de tiempo que se usan en economía y finanzas. El modelo involucra un vector de observación en el tiempo t, un vector de estado subyacente, un vector de error de observación en el tiempo t y un vector de error de innovación de transición de estado. El orador explica la ecuación de estado y la ecuación de observación en el modelo, que son transformaciones lineales de los estados y las observaciones más el ruido, y cómo se pueden escribir juntas en una ecuación conjunta. La notación puede parecer complicada, pero brinda mucha flexibilidad para especificar las relaciones entre variables.

  • 00:50:00 En esta sección, el orador analiza la representación de un modelo de fijación de precios de activos de capital con betas variables en el tiempo como un modelo de espacio de estado lineal. El modelo amplía el anterior añadiendo dependencia temporal a los parámetros de regresión. Alfa y beta ahora varían según el tiempo, siendo alfa un paseo aleatorio gaussiano y beta también un paseo aleatorio gaussiano. La ecuación de estado se ajusta agregando términos de recorrido aleatorio, lo que hace que s_(t+1) sea igual a T_t s_t más R_t eta_t, con una representación compleja en el marco de espacio de estado lineal. La ecuación de observación está definida por una matriz Z_t, que es una matriz de fila de elemento unitario de r_(m,t). La matriz de covarianza tiene una estructura de bloques diagonales, con la covarianza de los épsilons como H y la covarianza de R_t eta_t como R_t Q_t R_t transpuesta. Finalmente, el ponente considera un segundo caso de modelos de regresión lineal donde p variables independientes podrían variar en el tiempo.

  • 00:55:00 En esta sección, se introduce el concepto de cambiar los parámetros de regresión a lo largo del tiempo en una serie de tiempo, asumiendo que siguen paseos aleatorios independientes. Se explica la ecuación de espacio de estado conjunto, así como la implementación de espacio de estado lineal para actualizar regresiones recursivamente a medida que se agregan nuevos datos. También se analizan los modelos autorregresivos de orden P, que describen la estructura de cómo evoluciona el modelo de espacio de estado lineal. Finalmente, el modelo de promedio móvil de orden Q se expresa como un modelo de espacio de estado lineal.

  • 01:00:00 En esta sección, el disertante analiza la ecuación de estado y la ecuación de observación, que se utilizan para generar una transición entre estados subyacentes. Utilizan un ejemplo de un modelo de promedio móvil autorregresivo para demostrar cómo la configuración de los modelos lineales de espacio de estado facilita el proceso de estimación del modelo. La conferencia continúa explicando cómo el trabajo de Harvey en el '93 definió una representación de espacio de estado particular para el proceso ARMA y cómo hay muchos modelos de espacio de estado lineales equivalentes diferentes para un proceso dado dependiendo de cómo se definan los estados y la transformación subyacente. matriz T. Finalmente, la lección continúa para derivar la representación del espacio de estado para el proceso ARMA.

  • 01:05:00 En esta sección, el orador explica cómo llegar a un modelo simple para la matriz de transición T en modelos lineales de espacio de estado resolviendo iterativamente el segundo estado usando el valor de observación y reescribiendo la ecuación del modelo. Este proceso reemplaza los estados subyacentes con observaciones y conduce a una matriz de transición T que tiene componentes autorregresivos como la primera columna y un vector de componentes de promedio móvil en la matriz R. La eficacia del modelado de espacio de estado lineal radica en la especificación completa con el filtro de Kalman, que calcula recursivamente las funciones de densidad de probabilidad para los estados subyacentes en t+1 dada la información hasta el tiempo t, así como la densidad conjunta del estado futuro y la observación en t+1, dada la información hasta el momento t, y la distribución marginal de la siguiente observación dada la información hasta el momento t. La implementación del filtro de Kalman requiere una notación que involucre medias condicionales, covarianzas y errores cuadráticos medios determinados por omegas.

  • 01:10:00 En esta sección, la transcripción analiza el filtro de Kalman, que tiene cuatro pasos que ayudan a predecir el vector de estado y la observación en una serie temporal. La matriz de ganancia del filtro se usa para ajustar la predicción del estado subyacente según lo que sucedió y caracteriza la cantidad de información que obtenemos de cada observación. La incertidumbre en el estado en el tiempo t se reduce minimizando la diferencia entre lo que observamos y lo que predijimos. También hay un paso de pronóstico, que predice el estado un período hacia adelante y actualiza la matriz de covarianza para estados futuros dado el estado anterior. Por último, el paso de suavizado caracteriza la expectativa condicional de los estados subyacentes dada la información en toda la serie temporal.

  • 01:15:00 En esta sección, el disertante presenta el filtro de Kalman como una herramienta para calcular la función de probabilidad para modelos lineales de espacio de estado y para pronósticos sucesivos de un proceso. Explican que la función de verosimilitud es el producto de las distribuciones condicionales de cada observación sucesiva dada la historia de los datos. El filtro de Kalman proporciona todos los términos necesarios para esta estimación y, si los términos de error se distribuyen normalmente, las medias y las varianzas de estas estimaciones caracterizan las distribuciones exactas del proceso. Además, el filtro de Kalman actualiza las medias y las matrices de covarianza de los estados subyacentes y las distribuciones de las observaciones.
 

13. Modelos de productos básicos



13. Modelos de productos básicos

En este video, el orador profundiza en el intrincado mundo de los modelos de productos básicos y destaca los desafíos que enfrentan los analistas cuantitativos en este dominio. Brindan ejemplos reveladores, como la ganancia récord de Trafigura en 2009, lograda a través de la compra y el almacenamiento estratégicos de petróleo crudo. El orador analiza varias estrategias para licitar en almacenamiento, problemas de optimización y la importancia de la estabilidad y la solidez en los modelos de productos básicos. Además, exploran las complejidades de modelar los precios de las materias primas, centrándose en las consideraciones únicas requeridas para los precios de la energía. El orador sugiere una metodología alternativa adaptada al panorama de las materias primas, distinguiéndola de los enfoques utilizados en los mercados de renta fija, divisas y acciones.

El video comienza arrojando luz sobre los problemas específicos que abordan los analistas cuantitativos en el ámbito de las materias primas. Se presenta un ejemplo ilustrativo de Trafigura, una empresa que se benefició enormemente de la drástica caída de los precios del petróleo en 2009. El orador explica cómo funcionan los contratos de futuros en los mercados de materias primas, haciendo hincapié en los conceptos de contango y atraso. Contango se refiere a un escenario en el que el precio al contado futuro excede el precio al contado actual, lo que permite a los comerciantes generar ganancias incluso durante los períodos de caída de precios.

A continuación, el orador profundiza en la estrategia de obtención de beneficios de Trafigura entre febrero de 2009 y 2010, cuando los precios del crudo subieron de $35 a $60 por barril. Al pedir prestado a $35, comprar y almacenar petróleo crudo y posteriormente venderlo al precio más alto de $60, Trafigura logró una notable ganancia de $25 por barril. Esta estrategia se empleó a gran escala, involucrando millones de barriles de almacenamiento, lo que resultó en ganancias significativas. El orador enfatiza la necesidad de una estrategia cuidadosa en las subastas de almacenamiento para recuperar costos y generar ganancias adicionales de manera efectiva.

El video procede a discutir dos estrategias distintas para ofertar por el almacenamiento en modelos de productos básicos. La primera estrategia consiste en que los comerciantes pujen por contratos de futuros para agosto y los vendan en diciembre sin necesidad de endeudarse. La segunda estrategia, empleada por los quants, implica vender la opción de diferencial entre los contratos de agosto y diciembre. El valor de esta opción está determinado por la diferencia de precio entre los dos contratos, donde las diferencias positivas generan ganancias para el propietario de la opción y las diferencias negativas no generan ganancias. Si bien la segunda estrategia es más compleja, ofrece un valor adicional a la empresa.

Las ventajas de vender una producción el 1 de agosto utilizando un modelo de productos básicos se analizan en la sección siguiente. Al vender la opción en esa fecha específica, el vendedor recibe un valor de opción determinado por fórmula, generalmente más alto que el valor de mercado actual. Esto le da al vendedor una posición ventajosa durante la oferta, lo que le permite obtener un margen de beneficio de su elección. El orador también aclara el cálculo del riesgo de la opción y cómo se pueden aprovechar los activos reales o físicos para mitigar ese riesgo.

Luego, el video profundiza en la complejidad de las opciones de distribución dentro de los modelos de productos básicos, enfatizando la necesidad de determinar las carteras de opciones más valiosas al tiempo que se tienen en cuenta las limitaciones técnicas, contractuales, legales y ambientales. El disertante destaca la importancia de vender carteras de opciones de manera que se garantice la extracción de valor al vencimiento de la opción, considerando limitaciones en las tasas de inyección y retiro.

En otra sección se analiza un problema de optimización que involucra modelos de productos básicos y almacenamiento. El problema gira en torno a la extracción de valor de una opción de materia prima cuando se agota la capacidad de almacenamiento, así como la venta del almacenamiento cuando se agota. El disertante explica las variables y restricciones involucradas en el problema y demuestra cómo la optimización de la cartera a través de una serie de opciones puede conducir a la maximización de las ganancias. La complejidad del problema requiere el uso de variables booleanas y un enfoque en maximizar las ganancias.

El video profundiza aún más en los desafíos de los modelos de productos básicos, en particular los relacionados con las tasas de inyección y retiro, las limitaciones de capacidad y las variables desconocidas, como los volúmenes y los precios. Estos factores contribuyen a la naturaleza no lineal del problema, haciéndolo extremadamente difícil de resolver cuando se trata de numerosas variables y restricciones. Se pueden emplear varios enfoques, incluida la aproximación, las simulaciones de Monte Carlo y el control estocástico, para abordar la complejidad de los modelos de productos básicos. Sin embargo, la precisión de los resultados depende en gran medida de la precisión de los parámetros utilizados. Incluso la metodología más meticulosa puede conducir a resultados erróneos si los parámetros son incorrectos.

Luego, el orador procede a discutir la metodología elegida para el modelado de productos básicos, que prioriza la solidez y la estabilidad sobre la captura de la riqueza completa de los comportamientos de los precios. Advierten contra la parametrización excesiva de un modelo, ya que puede introducir inestabilidad, lo que hace que incluso cambios leves afecten significativamente su valor. Al emplear un enfoque diferente, priorizan la estabilidad y la solidez, lo que permite que los reguladores externos verifiquen el modelo. Además, cada componente del modelo se puede comercializar en el mercado, lo que tiene una importancia sustancial en el panorama actual del mercado. También se explica el concepto de cobertura dinámica, mostrando cómo se puede usar para replicar el valor de una opción y cumplir con los pagos sin un mercado de opciones activo, usando una función de jugador simple.

El ponente profundiza en el concepto de replicar el pago de una opción a través de la cobertura dinámica. Esta estrategia permite a los comerciantes vender carteras incluso cuando no hay compradores. Destacan la importancia de desarrollar una estrategia para extraer valor y colaborar con los operadores de las instalaciones de almacenamiento para ejecutar el plan con éxito. El orador explica cómo se puede extender este enfoque para modelar activos físicos, como camiones cisterna y centrales eléctricas, para maximizar las ganancias al tomar decisiones informadas basadas en los precios de la electricidad y el combustible. Si bien la naturaleza de cada activo puede variar, el enfoque conceptual sigue siendo el mismo, lo que requiere una comprensión integral de las complejidades y restricciones únicas asociadas con cada activo.

En una sección posterior, el video explora el proceso de cálculo del costo de producir un megavatio-hora de energía en función de la eficiencia de la planta de energía. La eficiencia, cuantificada como la tasa de calor medida en mm BTU, indica la cantidad de gas natural requerida para generar un megavatio-hora de energía. La constante correspondiente a una planta de energía de gas natural generalmente se encuentra entre 7 y 20, donde los valores más bajos indican una mayor eficiencia. También se consideran los costos adicionales relacionados con la producción de un megavatio-hora, como el aire acondicionado y la mano de obra. El video profundiza aún más en la determinación del valor de una planta de energía y la construcción de distribuciones de precios y costos de combustible para determinar un pago apropiado para la adquisición de una planta de energía.

Los desafíos de modelar los precios de las materias primas, en particular los precios de la energía, se analizan en la sección siguiente. La distribución de los precios de la energía no se puede modelar con precisión mediante el movimiento browniano debido a la presencia de colas gruesas y picos en los datos. Además, la volatilidad en los precios de la energía es significativamente mayor en comparación con los mercados de valores. El disertante enfatiza que estos desafíos son comunes en todas las regiones y subraya la necesidad de capturar la reversión a la media en picos para representar con precisión el comportamiento del precio de la energía. Otros fenómenos como la alta curtosis, el cambio de régimen y la no estacionariedad también deben incorporarse a los modelos.

El video explora los desafíos asociados con el modelado de los precios de las materias primas, destacando varios enfoques que incluyen la reversión a la media, los saltos y el cambio de régimen. Sin embargo, estos modelos tienden a ser complejos y difíciles de manejar. En cambio, el orador propone una metodología única diseñada específicamente para el dominio de los productos básicos, distinta de las metodologías empleadas en los mercados de renta fija, divisas y acciones. Este enfoque está mejor alineado con las características y complejidades de los mercados de materias primas.

El orador enfatiza que los precios de las materias primas están impulsados principalmente por la dinámica de la oferta y la demanda. Sin embargo, las metodologías tradicionales basadas únicamente en los precios han resultado inadecuadas para captar las complejidades del comportamiento de los precios de las materias primas. Para abordar este problema, el orador sugiere incorporar modelos fundamentales mientras se asegura de que el modelo se alinee con los datos de mercado disponibles. Explican cómo se configuran los precios de la energía mediante la subasta de ofertas de centrales eléctricas con diferentes eficiencias y cómo se determina el precio final en función de la demanda. El diagrama de dispersión resultante que representa la relación entre la demanda y el precio demuestra una distribución diversa debido a la influencia de factores aleatorios del precio del combustible.

Además, el ponente explica que el precio de la energía está determinado tanto por la demanda como por los precios de los combustibles, ya que el costo de generación depende de los precios de los combustibles. Además, es necesario modelar la ocurrencia de interrupciones, ya que el mercado es finito y el precio de la energía puede verse afectado si algunas plantas de energía experimentan tiempos de inactividad. Para incorporar estos factores, el disertante sugiere construir una pila de generación, que representa el costo de generación para cada participante en el mercado. Al considerar los precios del combustible y las interrupciones, la pila de generación se puede ajustar para que coincida con precisión con los precios del mercado y los precios de las opciones.

El video avanza para discutir cómo se pueden modelar diferentes productos básicos para comprender la evolución de los precios de la energía. El disertante explica el proceso de modelado del comportamiento de los precios de los combustibles, apagones y demanda. Posteriormente, se construye una pila de generación, que representa una curva determinada por factores como la demanda, las interrupciones, los costos variables y los precios de los combustibles. Los parámetros se seleccionan cuidadosamente para que coincidan con la curva a futuro de los precios de la energía y otros parámetros relevantes del mercado. Este enfoque permite capturar picos de precios en los mercados de energía con relativa facilidad. El orador señala que el gas natural, el combustible para calefacción y el fuel oil son productos básicos almacenables, lo que hace que su comportamiento sea más regular y más fácil de modelar.

En el futuro, el orador destaca cómo se pueden aprovechar los modelos de productos básicos para predecir el precio de la electricidad en el mercado, teniendo en cuenta factores como la temperatura, la oferta y la demanda. A través de la utilización de simulaciones de Monte Carlo y una comprensión integral de la distribución de los precios del combustible, se pueden lograr simulaciones precisas de los picos de precios causados por las fluctuaciones de temperatura. El modelo también captura con precisión la estructura de correlación del mercado sin requerirlo como entrada. Sin embargo, se enfatiza que mantener un modelo de este tipo requiere una cantidad significativa de información y organización, ya que se debe rastrear cada planta de energía y cambio en el mercado.

En la sección final del video, el orador reconoce los desafíos asociados con la construcción de modelos de productos básicos para diferentes mercados. El proceso es una tarea enorme que requiere años de desarrollo, lo que lo convierte en un esfuerzo costoso. A pesar de las complejidades involucradas, el orador cree que los temas tratados son un buen punto para concluir la discusión e invita a los espectadores a hacer las preguntas restantes que puedan tener.

En general, el video brinda información valiosa sobre los desafíos que enfrentan los analistas cuantitativos al crear modelos de productos básicos. Destaca la importancia de priorizar la estabilidad y la solidez en los enfoques de modelado, las complejidades de modelar los precios de las materias primas y el papel de factores fundamentales como la oferta, la demanda y los precios del combustible en la configuración de los precios de la energía. El orador también enfatiza la importancia de la colaboración con las partes interesadas de la industria y el esfuerzo continuo requerido para mantener y actualizar los modelos de productos básicos para diferentes mercados.

  • 00:00:00 En esta sección, el orador analiza los problemas que resuelven los analistas cuantitativos en el mundo de las materias primas, en comparación con los de otros mercados. Dio un ejemplo de Trafigura, que obtuvo una ganancia récord en 2009, el año en que los precios del petróleo cayeron a un nivel bajo histórico. También habla sobre los contratos de futuros y cómo funcionan en los mercados de productos básicos, discutiendo específicamente los conceptos de contango y atraso. Contango significa que el precio al contado futuro es más caro que el precio al contado actual, lo que permite a los comerciantes obtener ganancias incluso en momentos en que los precios son bajos.

  • 00:05:00 En esta sección, el orador explica cómo Trafigura ganó dinero durante el período comprendido entre febrero de 2009 y 2010, cuando los precios del crudo aumentaron de $35 a $60. La empresa pidió prestados $35, compró un barril de petróleo crudo y lo almacenó hasta que pudo venderse por mucho más, $60. Esto les permitió obtener una ganancia de $ 25 por barril, lo que multiplicó más de 50-60 millones de barriles de estantes de almacenamiento hasta una suma masiva. El orador enfatiza que para ofertar por el almacenamiento en una subasta, uno debe diseñar cuidadosamente una estrategia de cómo recuperar el dinero pagado por el almacenamiento y obtener alguna ganancia adicional.

  • 00:10:00 En esta sección, el video analiza dos estrategias para ofertar por almacenamiento en modelos básicos. La primera es una estrategia estándar en la que un operador ofrece contratos de futuros para agosto y vende en diciembre, sin tener que pedir dinero prestado. La segunda estrategia es la utilizada por los quants, donde venden la opción de spread agosto-diciembre, determinada por la diferencia entre los precios de los contratos de diciembre y agosto, con diferencias positivas pagando al propietario de la opción y negativas pagando cero. Esta última estrategia es más complicada pero ofrece un valor añadido a la empresa.

  • 00:15:00 En esta sección, el orador analiza las ventajas de vender una producción el 1 de agosto utilizando un modelo de productos básicos. Explica que al vender la opción en la fecha dada, el vendedor obtiene un valor de la opción determinado por una fórmula, que suele ser más alto que el valor de mercado actual. Esto le da al vendedor una ventaja durante la oferta y puede obtener un margen de beneficio de su elección. El ponente también explica cómo calcular el riesgo de la opción y cómo se pueden utilizar los activos reales o físicos para mitigar el riesgo.

  • 00:20:00 En esta sección, el orador analiza el concepto de una opción de propagación y arroja más luz sobre su complejidad en la realidad. Explica que optimizar el valor de una cartera de opciones que se pueden vender contra el almacenamiento requiere determinar las carteras de opciones más valiosas teniendo en cuenta las limitaciones técnicas, contractuales, legales y ambientales. El orador señala además que las carteras de opciones deben venderse de manera que se garantice que el valor se puede extraer cada vez que vence la opción, y existen restricciones en la tasa de inyección y retiro.

  • 00:25:00 En esta sección, el orador analiza un problema de optimización que involucra modelos de productos básicos y almacenamiento. El problema consiste en encontrar una forma de extraer valor de una opción de materia prima cuando no queda espacio en el almacenamiento y, a la inversa, encontrar una forma de vender desde el almacenamiento cuando está vacío. El ponente explica las variables y condicionantes del problema y muestra cómo es posible optimizar la cartera a través de una serie de opciones. En general, el problema de optimización es complejo pero se puede resolver con la ayuda de variables booleanas y centrándose en maximizar las ganancias.

  • 00:30:00 En esta sección, el orador analiza la naturaleza compleja de los modelos de commodities que involucran tasas de inyección y retiro, restricciones de capacidad máxima y mínima y variables desconocidas como volúmenes y precios. El problema se vuelve no lineal y muy difícil de resolver con un gran número de variables y restricciones. Se pueden usar varios enfoques que incluyen la aproximación, las simulaciones de Monte Carlo y el control estocástico para resolver los modelos de productos básicos, pero la precisión de los resultados depende de la precisión de los parámetros utilizados. Incluso la metodología más precisa puede estar equivocada si los parámetros son incorrectos.

  • 00:35:00 En esta sección, el orador analiza la metodología elegida de modelado de productos básicos, que está diseñada para priorizar la solidez y la estabilidad sobre la captura de la riqueza de los comportamientos de los precios. Explican que la parametrización excesiva de un modelo puede generar inestabilidad y pequeños cambios que pueden cambiar el valor sustancialmente. Para priorizar la estabilidad y la solidez, sacrifican parte del valor al utilizar un enfoque diferente. Además, el modelo que utilizan puede ser verificado por reguladores externos, y cada componente del modelo puede comercializarse en el mercado, lo cual es crucial en la época actual. Además, explican el concepto de cobertura dinámica y cómo se puede usar para replicar el valor de una opción y cumplir con los pagos sin un mercado de opciones activo mediante una función de jugador simple.

  • 00:40:00 En esta sección, el orador analiza el concepto de replicar el pago de una opción mediante el uso de una estrategia de cobertura dinámica, lo que permite a los comerciantes vender carteras incluso si no hay compradores. Él enfatiza la importancia de producir una estrategia para extraer valor, así como trabajar con quienes operan las instalaciones de almacenamiento para ejecutar el plan con éxito. Luego, el orador explica cómo se puede usar este enfoque para modelar activos físicos, como camiones cisterna y centrales eléctricas, para maximizar las ganancias al tomar decisiones informadas basadas en el precio de la electricidad y el combustible. Si bien la naturaleza de cada activo difiere, el enfoque conceptual sigue siendo el mismo y requiere una comprensión de los matices y las limitaciones de cada activo.

  • 00:45:00 En esta sección, el video analiza el proceso de cálculo del costo de producir un megavatio-hora de energía según la eficiencia de la planta de energía. La eficiencia, conocida como tasa de calor, se mide en mm BTU y nos dice cuántas unidades de gas natural deben quemarse para producir un megavatio-hora de energía. La constante correspondiente a una central eléctrica de gas natural suele estar entre 7 y 20, siendo 7 la más eficiente. También se consideran otros costos asociados con la producción de un megavatio-hora, como el aire acondicionado y la mano de obra. Luego, el video continúa discutiendo el proceso de determinación del valor de una planta de energía y la construcción de una distribución de precios y costos de combustible para calcular cuánto pagar por una planta de energía.

  • 00:50:00 En esta sección, el disertante analiza los desafíos de los modelos de productos básicos, específicamente en el caso de los precios de la energía. La distribución de los precios de la energía no se puede modelar mediante el movimiento browniano debido a la presencia de colas gruesas y picos en los datos. La volatilidad también es mucho mayor que en los mercados de valores. El disertante señala que estos desafíos son comunes en todas las regiones y que es necesario revertir los picos para capturar el comportamiento de los precios de la energía. Otros fenómenos que deben capturarse incluyen la alta curtosis, el cambio de régimen y la no estacionariedad.

  • 00:55:00 En esta sección, el orador analiza los desafíos de modelar los precios de las materias primas y cómo se han utilizado diferentes modelos, incluida la reversión a la media, los saltos y el cambio de régimen. Sin embargo, estos modelos son demasiado complejos y difíciles de manejar. El ponente sugiere una metodología completamente diferente del mundo de la renta fija, divisas y acciones, que es más adecuada y comprensible desde el punto de vista de las materias primas.

  • 01:00:00 En esta sección, el orador analiza cómo los precios de las materias primas están impulsados principalmente por la oferta y la demanda. Sin embargo, las metodologías estándar para modelar los precios de las materias primas basadas únicamente en los propios precios han demostrado ser difíciles. El orador sugiere introducir algunos modelos fundamentales para abordar este problema, al mismo tiempo que se asegura de que su modelo coincida con todos los datos de mercado disponibles. El ponente continúa explicando cómo se forman los precios de la energía a través de la subasta de ofertas de centrales eléctricas con diferentes niveles de eficiencia y cómo se determina el precio final en función de la demanda. El gráfico de dispersión resultante de la demanda frente al precio muestra un gráfico grueso debido al factor aleatorio de los precios del combustible.

  • 01:05:00 En esta sección, el ponente explica que el precio de la energía está determinado tanto por la demanda como por los precios de los combustibles, ya que el costo de generación depende de los precios de los combustibles. También es necesario modelar los apagones porque el mercado es finito y el precio de la energía puede verse afectado si fallan algunas centrales eléctricas. Para modelar estos factores, el disertante sugiere construir una pila de generación, que es el costo de generación para cada participante en el mercado. Al conocer los precios del combustible y los apagones, se puede generar el beat stack, que seguirá al stack de generación y se ajustará para igualar los precios de mercado y los precios de las opciones.

  • 01:10:00 En esta sección, el ponente explica cómo se pueden modelar y utilizar diferentes materias primas para determinar la evolución de los precios de la energía. Comienzan modelando la evolución de los precios del combustible, las interrupciones y la demanda, y luego construyen la pila de generación, que es una curva determinada por la demanda, las interrupciones, los costos variables y el combustible. Eligen parámetros para que coincidan con la curva de avance de los precios de la energía y otros parámetros del mercado. Este enfoque permite capturar picos en los precios de la energía sin mucho esfuerzo, y el gas natural, el combustible para calefacción y el fuel oil son productos básicos almacenables, lo que hace que su comportamiento sea más regular y más fácil de modelar.

  • 01:15:00 En esta sección del video, el orador explica cómo se pueden usar los modelos de productos básicos para predecir el precio de la electricidad en el mercado en función de la temperatura y los factores de oferta y demanda. Mediante el uso de simulaciones de Monte Carlo y la comprensión de la distribución de los precios del combustible, pueden capturar y simular con precisión los picos en los precios causados por los cambios de temperatura. Además, el modelo captura con precisión la estructura de correlación del mercado sin necesitarla como entrada. Sin embargo, el lado negativo de este enfoque es que requiere mucha información y organización para mantener debido a la necesidad de realizar un seguimiento de cada planta de energía y cualquier cambio que pueda ocurrir en el mercado.

  • 01:20:00 En esta sección, el orador habla sobre los desafíos de construir modelos de commodities para diferentes mercados. Requiere una empresa enorme y lleva años desarrollarlo, lo que lo convierte en un proceso costoso. El orador cree que este es un buen punto para detenerse, pero invita a los espectadores a hacer preguntas.
 

14. Teoría de la cartera



14. Teoría de la cartera

La Teoría de Portafolio es un concepto fundamental en finanzas que se enfoca en el desempeño y construcción óptima de portafolios de inversión. Implica analizar los rendimientos esperados, las volatilidades y las correlaciones de múltiples activos para determinar la asignación de cartera más eficiente. La frontera eficiente representa una gama de carteras factibles con diferentes niveles de volatilidad. Al introducir un activo libre de riesgo, el conjunto factible se expande para incluir una combinación del activo libre de riesgo y otros activos, formando una línea recta.

La estimación precisa de los parámetros es crucial para evaluar carteras y resolver el problema de programación cuadrática para la optimización de carteras. Las fórmulas se utilizan para calcular las ponderaciones óptimas en función de diversas restricciones, como carteras de solo posiciones largas, restricciones de tenencia y restricciones de exposición de referencia. Las funciones de utilidad se emplean para definir las preferencias por la riqueza y maximizar la utilidad esperada teniendo en cuenta la aversión al riesgo.

El video profundiza en la aplicación de la teoría de la cartera utilizando fondos cotizados en bolsa (ETF) y estrategias neutrales al mercado. Se pueden implementar diferentes restricciones para controlar los riesgos y las variaciones en una cartera, incluidos los límites de exposición a los factores del mercado y los tamaños mínimos de transacción. El orador explora la asignación óptima de nueve ETF invertidos en varios sectores industriales en el mercado estadounidense, considerando herramientas de análisis de cartera y el impacto de las restricciones de capital en carteras óptimas. También se analizan las estrategias neutrales al mercado empleadas por los fondos de cobertura, destacando su potencial de diversificación y correlación reducida.

La selección de medidas de riesgo apropiadas es crucial al evaluar carteras. El análisis de varianza media se usa comúnmente, pero las medidas de riesgo alternativas, como la desviación absoluta media, la semivarianza, el valor en riesgo y el valor en riesgo condicional pueden proporcionar información adicional. El uso de modelos de factores ayuda a estimar la matriz de varianza-covarianza, lo que mejora la precisión de la optimización de la cartera.

A lo largo del video, el orador enfatiza la importancia de la estimación precisa de los parámetros, el impacto de las restricciones en la construcción de la cartera y la importancia de las medidas de riesgo en la evaluación de la cartera. La teoría de la cartera proporciona un marco para tomar decisiones de inversión racionales en condiciones de incertidumbre, teniendo en cuenta las preferencias por mayores rendimientos, menor volatilidad y aversión al riesgo. Al aplicar estos conceptos, los inversores pueden construir carteras bien equilibradas adaptadas a su tolerancia al riesgo y objetivos de inversión.

En las siguientes secciones del video, el orador explora más a fondo las complejidades de la teoría del portafolio y sus implicaciones prácticas. Aquí hay un resumen de los puntos clave cubiertos:

  1. Teoría histórica de la optimización de carteras: el disertante comienza discutiendo los fundamentos históricos de la optimización de carteras, centrándose en la optimización de la varianza media de Markowitz. Este enfoque analiza las carteras en función de su rendimiento medio y volatilidad. Proporciona un marco para comprender la compensación entre riesgo y rendimiento y sirve como base para la teoría de cartera moderna.

  2. Teoría de la utilidad y toma de decisiones bajo incertidumbre: la teoría de la utilidad, específicamente la teoría de la utilidad de von Neumann-Morgenstern, se introduce para guiar la toma de decisiones racional bajo incertidumbre. Las funciones de utilidad se utilizan para representar las preferencias de riqueza de un inversor, teniendo en cuenta factores como mayores rendimientos y menor volatilidad. El orador explica varias funciones de utilidad comúnmente empleadas en la teoría de cartera, incluidas funciones lineales, cuadráticas, exponenciales, de potencia y logarítmicas.

  3. Restricciones y medidas de riesgo alternativas: el video explora la inclusión de restricciones en la optimización de carteras. Estas restricciones se pueden implementar para garantizar criterios de inversión específicos, como carteras largas, restricciones de rotación y límites de exposición a ciertos factores del mercado. Además, el orador analiza medidas de riesgo alternativas más allá del análisis tradicional de media y varianza, como las medidas que tienen en cuenta la asimetría, la curtosis y las medidas de riesgo coherentes.

  4. Resolviendo el Problema de Optimización de Cartera: El disertante proporciona conocimientos matemáticos para resolver el problema de optimización de cartera. Al formularlo como un problema de programación cuadrática, se pueden determinar los pesos óptimos para la cartera. Las condiciones lagrangianas y de primer orden se utilizan para resolver estos pesos, con la derivada de segundo orden representando la matriz de covarianza. La solución permite maximizar los rendimientos y minimizar la volatilidad, sujeto a restricciones específicas.

  5. Frontera Eficiente y Línea de Mercado de Capitales: Se introduce el concepto de frontera eficiente, que representa un conjunto de portafolios óptimos que logran el mayor rendimiento para un nivel de riesgo dado. El ponente explica cómo se configura la frontera eficiente a partir de los perfiles riesgo-rendimiento de varias carteras. Además, se analiza la línea del mercado de capitales, ilustrando la relación entre riesgo y rendimiento al combinar el activo libre de riesgo con la cartera de mercado. Permite a los inversores determinar el rendimiento esperado para cualquier nivel de riesgo deseado.

  6. Estimación de Parámetros y Medidas de Riesgo: Se destaca la importancia de la estimación precisa de los parámetros, ya que influye significativamente en el análisis de la cartera. El orador enfatiza el uso de modelos factoriales para estimar la matriz de varianza-covarianza, proporcionando entradas más precisas para la optimización. Adicionalmente, se explican diferentes medidas de riesgo como la desviación media absoluta, la semivarianza, el valor en riesgo y el valor en riesgo condicional, dependiendo su idoneidad de las características específicas de los activos en los que se invierte.

A lo largo del video, el orador enfatiza la aplicación práctica de la teoría de cartera utilizando fondos cotizados en bolsa (ETF) y estrategias neutrales de mercado. El uso de restricciones para administrar los riesgos y las variaciones en una cartera, el impacto de las restricciones de capital en las carteras óptimas y los beneficios de las estrategias neutrales de mercado para la diversificación se analizan en detalle.

En general, el video proporciona una descripción general completa de la teoría del portafolio, que cubre varios aspectos, desde los fundamentos históricos hasta la implementación práctica. Enfatiza la importancia de una estimación precisa, la incorporación de restricciones, la elección de medidas de riesgo y los beneficios potenciales de diferentes estrategias de inversión. Al comprender estos conceptos, los inversores pueden tomar decisiones informadas para construir carteras que se alineen con sus preferencias de riesgo y objetivos de inversión.

  • 00:00:00 En esta sección del video, Peter Kempthorne aborda el tema de la teoría de la cartera, que es uno de los temas más importantes en finanzas. Comienza discutiendo la teoría histórica de la optimización de carteras, que implica la optimización de la varianza media de Markowitz para analizar las características de rendimiento de las carteras en términos de rendimiento medio y rendimientos de volatilidad. Luego se amplía el análisis para incluir la inversión con un activo libre de riesgo, y se introduce el tema de la teoría de la utilidad, la teoría de la utilidad de von Neumann-Morgenstern, para tomar decisiones bajo incertidumbre de manera racional. Además, Kempthorne cubre las restricciones de optimización de la cartera y las medidas de riesgo alternativas para ampliar el análisis de media y varianza simple. Finalmente, explica el análisis de un solo período, cómo representar una cartera y cómo calcular el rendimiento esperado y la varianza de una cartera.

  • 00:05:00 En esta sección, el orador presenta el problema de análisis de cartera y considera un entorno simplificado con dos activos. El objetivo es encontrar carteras óptimas para invertir en estos dos activos, considerando su rendimiento y volatilidad esperados, y la posible correlación entre ellos. El análisis de media-varianza se utiliza para analizar el conjunto de carteras factibles y determinar carteras óptimas y subóptimas. Luego, el orador destaca la importancia de la teoría de Markowitz y sus extensiones para brindar respuestas elegantes a estas preguntas. Finalmente, se realiza una simulación para examinar los rendimientos acumulados de cada activo en diferentes carteras.

  • 00:10:00 En esta sección, se analiza un activo simulado con un rendimiento medio del 15 % y una volatilidad del 25 %. El gráfico de dispersión de los rendimientos semanales no muestra una correlación aparente, aunque existe una correlación muestral. El conjunto factible de carteras se muestra en el gráfico de la derecha, y la asignación hacia el activo 2 mejora el rendimiento de la cartera sin comprometer la volatilidad. También se analiza la cartera de mínima varianza, con una ponderación de los distintos activos inversamente proporcional a su volatilidad al cuadrado. El gráfico azul está ligeramente más cerca del activo 1, lo que indica un peso ligeramente superior para el activo 1.

  • 00:15:00 En esta sección, se examina el concepto de carteras subóptimas, con la conclusión de que todos los puntos en el diagrama de dispersión son carteras subóptimas y se debe hacer una compensación entre el rendimiento y la volatilidad. Se analiza el beneficio de la diversificación cuando se agrupan dos activos totalmente no correlacionados, y se examina el efecto de las correlaciones negativas en conjuntos factibles y la reducción de la volatilidad. Una correlación de -1 entre dos activos puede conducir a una cartera de volatilidad cero, lo cual es raro en los mercados, pero en la teoría de precios, el rendimiento de esta cartera debe ser igual a la tasa libre de riesgo.

  • 00:20:00 En esta sección del video, el orador analiza la relación entre la correlación y la diversificación en la teoría de la cartera. La simulación muestra que aumentar la correlación entre los activos da como resultado un menor beneficio de la diversificación, lo que significa que la varianza de la cartera no se puede reducir tanto. El orador destaca la importancia de utilizar estimaciones precisas para los rendimientos medios, las volatilidades y las correlaciones al evaluar carteras, ya que las estimaciones de muestra pueden diferir de los parámetros de la población y tener cierta variabilidad. El problema de programación cuadrática para la optimización de cartera implica minimizar la volatilidad cuadrática de la cartera sujeta a restricciones sobre la media de la cartera y la inversión total, que se puede resolver utilizando un Lagrangiano y condiciones de primer orden.

  • 00:25:00 En esta sección, el orador explica cómo resolver los pesos y la varianza mínima. La condición de primer orden es una solución porque la derivada de segundo orden del Lagrangiano es igual a la matriz de covarianza, lo que puede resolver el problema. Al sustituir un alfa dado en las soluciones, también se puede resolver la varianza de la cartera óptima. El problema puede verse de otras dos maneras, una para maximizar el rendimiento sujeto a una restricción de volatilidad y la otra para maximizar el rendimiento sujeto a un múltiplo negativo en la varianza. Estos son problemas equivalentes resueltos por el mismo Lagrangiano.

  • 00:30:00 En esta sección, aprendemos sobre la frontera eficiente, que es la colección de todas las soluciones posibles dado un rango de retornos objetivo factibles y valores de volatilidad. En un caso de dos activos, la frontera eficiente es una parábola, y agregar otro activo crea varias parábolas, que definen el conjunto factible. La frontera eficiente es el lado superior de la curva. La adición de un activo libre de riesgo expande el conjunto factible en una línea recta entre el punto del activo libre de riesgo y cualquier punto en la frontera eficiente, lo que permite inversiones en una combinación del activo libre de riesgo y otros activos.

  • 00:35:00 En esta sección, el disertante analiza las matemáticas para resolver un problema donde el objetivo es minimizar la volatilidad y garantizar que el rendimiento sea igual a
    un valor específico. Al invertir en un activo libre de riesgo, los inversores pueden lograr un mayor rendimiento con una varianza menor y ampliar sus oportunidades de inversión. El disertante proporciona fórmulas para determinar una cartera óptima, que invierte proporcionalmente en activos de riesgo pero difiere en la asignación de peso, según el rendimiento objetivo. Estas fórmulas también proporcionan expresiones de forma cerrada para la varianza de la cartera, que aumenta a medida que aumenta el rendimiento objetivo debido a la compensación cuando se utilizan carteras óptimas. La cartera óptima totalmente invertida se denomina cartera de mercado.

  • 00:40:00 En esta sección, el orador explica el concepto de cartera óptima, que es la cartera que maximiza el rendimiento medio de todas las carteras. Mencionan que cada cartera óptima invierte en una combinación del activo libre de riesgo y la cartera de mercado, independientemente de cuánto riesgo quiera asumir un inversor. El disertante presenta las expresiones para el rendimiento esperado y la varianza de la cartera de mercado, y muestra la fórmula para los pesos de la cartera óptima. Esto conduce a la definición de la línea del mercado de capitales, que permite a los inversores determinar el rendimiento esperado para cualquier nivel de riesgo dado.

  • 00:45:00 En esta sección, se discute la línea del mercado de capitales para la optimización de la cartera. La línea representa la rentabilidad esperada de cualquier cartera óptima, que es igual a la tasa libre de riesgo más un múltiplo de la rentabilidad por riesgo de la cartera de mercado. Al asignar ponderaciones adicionales a la cartera de mercado y pedir dinero prestado a la tasa libre de riesgo, se pueden lograr mayores rendimientos y volatilidad más allá de la cartera de mercado, lo que lleva a una frontera eficiente extendida. La sección finaliza con una discusión sobre la teoría de la utilidad de von Neumann-Morgenstern, que considera el proceso de toma de decisiones para la optimización de la cartera con base en el rendimiento esperado y la volatilidad.

  • 00:50:00 En esta sección, se introduce el concepto de teoría de cartera. La teoría de la cartera implica tomar decisiones de inversión bajo incertidumbre en función de una función de utilidad específica para la riqueza, con el objetivo de maximizar la utilidad esperada de la riqueza. La teoría es poderosa para proporcionar decisiones racionales bajo incertidumbre que tienen en cuenta las preferencias en cuanto a mayores rendimientos, menor volatilidad y otros factores definidos por la función de utilidad utilizada. Se analizan las propiedades básicas de las funciones de utilidad, incluidos los conceptos de aversión al riesgo y aversión al riesgo absoluta y relativa. Las funciones de utilidad utilizadas en la teoría de cartera incluyen funciones lineales, cuadráticas, exponenciales, de potencia y logarítmicas.

  • 00:55:00 En esta sección, el disertante analiza la teoría de la cartera bajo la función de utilidad cuadrática y los supuestos de rendimientos distribuidos gaussianos. Bajo estos supuestos, el análisis de la media y la varianza es el enfoque óptimo para la optimización de la cartera. Sin embargo, con diferentes funciones de utilidad, como aquellas que consideran penalizaciones por asimetría o curtosis, pueden ser necesarias extensiones al modelo básico. El orador también señala que los problemas prácticos de optimización de carteras implican restricciones tales como carteras de solo posiciones largas, restricciones de tenencia, restricciones lineales simples, restricciones de rotación y restricciones de exposición de referencia. Es necesario tener en cuenta estas restricciones al ajustar las carteras de un período al siguiente.

  • 01:00:00 En esta sección, el disertante analiza los diferentes tipos de restricciones que se pueden aplicar en la optimización de cartera para controlar los riesgos y las variaciones en una cartera. Estos incluyen controlar el error de seguimiento entre una cartera y su índice de referencia, limitar la exposición a diferentes factores de mercado y aplicar tamaños mínimos de transacciones y tenencias, y restricciones de números enteros. Estas restricciones se pueden expresar como restricciones lineales y cuadráticas sobre los pesos y se pueden implementar junto con el problema de optimización de cartera. El ejemplo dado es sobre fondos cotizados en bolsa del sector estadounidense.

  • 01:05:00 En esta sección, el orador analiza el potencial de los fondos cotizados en bolsa como medio para invertir en los mercados de valores. Analizan nueve ETF diferentes invertidos en varios sectores industriales en el mercado estadounidense. Estos ETF tuvieron un desempeño diferente entre 2009 y la semana pasada, lo que destaca su valor para una cartera diversificada. El ponente examina la asignación óptima de estos ETF durante este período a través de herramientas de análisis de cartera. Los resultados revelan que el ETF amarillo que representa los productos básicos de consumo recibirá una ponderación alta, seguido del verde que representa la energía y el naranja de la salud, lo que implica que estos sectores son prometedores para la inversión. Además, se aplica una optimización de media-varianza restringiendo una inversión máxima del 30% por activo. El gráfico ilustra que esta restricción comienza a estar activa cuando los rendimientos están por encima de la tasa libre de riesgo, lo que significa asignar más peso a otros ETF para aumentar la cartera discrecional de los consumidores.

  • 01:10:00 En esta sección, el disertante analiza cómo las restricciones de capital impactan en las carteras óptimas. Presentan un gráfico de la frontera eficiente y demuestran cómo cambian las carteras cuando se alcanzan las restricciones. Cuando se considera una rentabilidad objetivo del 10 % con una restricción de capital del 30 %, se muestra la cartera óptima con una volatilidad del 10 %. Sin embargo, cuando la restricción de capital se reduce al 15%, la frontera eficiente disminuye y las carteras deben asignarse a otros fondos cotizados en bolsa, ya que las restricciones llegan antes. La conferencia destaca que las restricciones de capital son realistas en ciertas circunstancias y cómo afectan las políticas de inversión.

  • 01:15:00 En esta sección, el orador analiza la optimización de la cartera utilizando fondos cotizados en bolsa (ETF) y estrategias neutrales al mercado. El ejemplo de los ETF muestra cómo el desempeño pasado puede definir carteras, pero no es realmente confiable. Luego, el orador explica cómo los fondos de cobertura pueden invertir en modelos basados en sectores utilizando estrategias neutrales al mercado, que tienden a estar menos correlacionadas y ofrecen beneficios de diversificación dramáticos. El gráfico muestra que las asignaciones óptimas en estos modelos neutrales del mercado del sector pueden ayudar a lograr una volatilidad objetivo del 10%, y la combinación de diferentes modelos tiene una optimización de cartera beneficiosa debido a su menor correlación.

  • 01:20:00 En esta sección, el orador destaca que los resultados de los rendimientos estimados, las volatilidades estimadas y las correlaciones pueden verse afectados por las elecciones del período de estimación, el error de estimación y las diferentes técnicas que pueden modular estos problemas. El uso de modelos de factores para estimar la matriz de varianza-covarianza da como resultado entradas más precisas para la optimización. El orador también analiza diferentes medidas de riesgo, como la desviación media absoluta, la semivarianza y las medidas de valor en riesgo, que ahora son estándar en la gestión de carteras y la gestión de activos de riesgo. También existe una extensión del valor en riesgo denominada valor en riesgo condicional. Las medidas de riesgo apropiadas dependen de los activos que se invierten, y hay toda una discusión sobre medidas de riesgo coherentes para el análisis de riesgo.
 

15. Modelado de factores



15. Modelado de factores

En esta sección, el video profundiza en los aspectos prácticos del modelado factorial, incluida la estimación de los parámetros subyacentes y la interpretación de los modelos factoriales. El orador enfatiza la importancia de ajustar los modelos a períodos de datos específicos y reconoce que es crucial modelar la dinámica y las relaciones entre los factores.

El video explica que se pueden emplear métodos de estimación de máxima verosimilitud para estimar los parámetros de los modelos factoriales, incluidas las cargas factoriales y alfa. El proceso de estimación implica el uso de fórmulas de regresión con las cargas factoriales estimadas y los valores alfa para estimar las realizaciones factoriales. El algoritmo EM (Expectation-Maximization) se destaca como una poderosa metodología de estimación para funciones de verosimilitud complejas, ya que iterativamente estima variables ocultas asumiendo variables ocultas conocidas.

Se analiza la aplicación de modelos de factores en los mercados de materias primas, con énfasis en la identificación de los factores subyacentes que impulsan los rendimientos y las covarianzas. Estos factores estimados pueden servir como entradas para otros modelos, lo que permite una mejor comprensión del pasado y las variaciones en el mercado. El ponente también menciona la flexibilidad de considerar diferentes transformaciones de factores estimados utilizando la matriz de transformación H.

Las pruebas de razón de verosimilitud se introducen como un medio para probar la dimensionalidad del modelo factorial. Al comparar la probabilidad del modelo factorial estimado con la probabilidad de un modelo reducido, se puede evaluar la importancia y relevancia de los factores adicionales. Este enfoque de prueba ayuda a determinar el número apropiado de factores que se incluirán en el modelo.

La sección concluye destacando la importancia de modelar la dinámica de los factores y sus relaciones estructurales. Los modelos de factores proporcionan un marco para comprender la interacción entre los factores y su impacto en los rendimientos y las covarianzas de los activos. Al considerar la dinámica y las relaciones estructurales, los inversores y analistas pueden obtener información valiosa sobre los impulsores subyacentes de los mercados financieros.

En general, esta sección amplía el tema del modelado de factores, explorando la estimación de parámetros, la interpretación de modelos de factores y la aplicación de modelos de factores en los mercados de materias primas. La sección enfatiza la necesidad de técnicas de modelado adecuadas y la comprensión de la dinámica y las relaciones entre los factores para obtener información significativa sobre los mercados financieros.

  • 00:00:00 En esta sección, el tema que se analiza es el modelado de factores, que tiene como objetivo utilizar el análisis multivariante para modelar los mercados financieros mediante el uso de factores para explicar los rendimientos y las covarianzas. Hay dos tipos de modelos de factores en los que los factores pueden ser observables u ocultos, y los modelos de factores estadísticos se utilizan para especificar estos modelos. El modelo de factor lineal utiliza factores f1 a fk, que es un modelo de espacio de estado para el valor del proceso estocástico que depende de los coeficientes beta_1 a beta_k. La configuración se parece a un modelo de regresión estándar, y los vectores beta_i se denominan cargas factoriales y los factores específicos se denominan épsilon del activo i, período t. El objetivo es caracterizar los rendimientos y las covarianzas utilizando una cantidad modesta de factores subyacentes en comparación con la gran cantidad de valores, lo que simplifica enormemente el problema.

  • 00:05:00 En esta sección, el video analiza un modelo de factores para explicar los rendimientos de los activos en función de los factores subyacentes. El término residual se considera aleatorio y se supone que es ruido blanco con media 0. Este modelo supone que los rendimientos de los activos dependen de los factores subyacentes con una media, mu_f, y una matriz de covarianza, omega_f. La matriz psi representa una matriz diagonal con las variaciones específicas de los activos subyacentes. La matriz de covarianza para el vector general del proceso estocástico de m-variante se puede obtener usando las expectativas y covarianzas condicionales e incondicionales. La covarianza incondicional de x es igual a la expectativa de la covarianza del término residual más el doble de la covarianza entre el valor esperado de x y el término residual. El número de parámetros para la matriz de covarianza es m por m más 1 sobre 2.

  • 00:10:00 En esta sección, se presenta el concepto de modelo factorial como un medio para reducir la cantidad de parámetros involucrados en una regresión multivariada, con especial atención a la interpretación del modelo factorial como una serie de regresiones de series temporales. El enfoque está en agrupar todo junto para todos los activos a la vez, lo cual es computacionalmente eficiente para ajustarlos. Se presenta el modelo factorial más simple, el modelo unifactorial de Sharpe, donde el exceso de rendimiento de las acciones se puede modelar como una regresión lineal sobre el exceso de rendimiento del mercado, escalando el riesgo por el beta_i de diferentes activos.

  • 00:15:00 En esta sección, el video analiza la matriz de covarianza de los activos en el modelado de factores y cómo se puede simplificar mediante el uso de un modelo para modelar la covarianza, que puede ser útil en la gestión de carteras y gestión de riesgos. También se explica el proceso de estimación del modelo de índice único de Sharpe, así como el concepto de variables factoriales comunes que pueden observarse como posibles candidatas a ser un factor relevante en un modelo factorial lineal. La efectividad de un factor potencial se determina ajustando el modelo y viendo cuánto contribuye a la matriz de covarianza general.

  • 00:20:00 En esta sección, el video describe el modelado de factores y el enfoque de transformar factores en factores sorpresa para modelar variables macroeconómicas. Se discute el poder de incorporar cambios imprevistos en estos factores, y este enfoque se aplica ampliamente ahora. El video también explica cómo estimar los parámetros subyacentes utilizando métodos de regresión simples y los supuestos de Gauss-Markov. También se proporciona un ejemplo del Método BARRA, que utiliza variables de factor común basadas en atributos fundamentales o específicos de activos.

  • 00:25:00 En esta sección, se analiza el enfoque de Fama-French para el modelado de factores y el análisis de riesgo, que implica clasificar las acciones en función de factores comunes, como la capitalización de mercado y el valor frente al crecimiento, y dividirlas en quintiles para obtener promedios ponderados por igual. . El modelo de factores de la industria BARRA, que divide las acciones en diferentes grupos industriales, también se menciona como un caso simple de modelado de factores. Las realizaciones de los factores no se observan, pero se estiman en la aplicación de estos modelos, lo que permite calcular la correlación con los rendimientos de los activos individuales. En general, estos enfoques continúan usándose ampliamente en el modelado de factores en la actualidad.

  • 00:30:00 En esta sección, se introduce el concepto de modelos de factores industriales. Específicamente, los modelos de factores industriales permiten la asociación de cargas factoriales, que se utilizan para cargar cada activo en términos del grupo industrial al que pertenece. El problema con los modelos de factores de la industria es cómo especificar la realización de los factores subyacentes, que se pueden estimar con un modelo de regresión. La estimación de las realizaciones factoriales asume que la variabilidad de los componentes de x tiene la misma varianza pero en realidad existe heterocedasticidad en estos modelos. En general, esta sección proporciona una descripción general de la estimación de matrices de covarianza y estimaciones de regresión para modelos de factores de la industria.

  • 00:35:00 En esta sección del video, la atención se centra en la heterocedasticidad en la estimación de los parámetros de regresión y su impacto en la optimización de la cartera, donde los activos se ponderan por sus rendimientos esperados y se penalizan por una alta varianza. Las carteras que imitan factores se utilizan para determinar el valor real de la negociación con factores, como en el modelo Fama-French, y la realización de cada factor es una suma ponderada de los rendimientos de los activos subyacentes. Al normalizar los pesos de fila de las realizaciones de dimensión k, se pueden definir carteras que imitan factores que interpretan inversiones potenciales para la asignación de activos.

  • 00:40:00 En esta sección, el orador analiza los modelos de factores estadísticos para analizar series temporales de rendimientos de activos para m activos durante T unidades de tiempo, donde los factores subyacentes son desconocidos. El ponente explica el análisis factorial y el análisis de componentes principales como métodos para descubrir esos factores subyacentes, que pueden definirse en términos de los propios datos. El orador señala que hay flexibilidad en la definición del modelo factorial y que cualquier especificación dada de la matriz B o los factores f puede transformarse por k en la matriz invertible k H.

  • 00:45:00 En esta sección, se discute el concepto de modelado de factores y transformaciones, destacando cómo la función lineal sigue siendo la misma en términos de la matriz de covarianza de los factores subyacentes. La discusión pasa a definir una matriz H que diagonalice los factores, lo que permite la consideración de modelos factoriales con componentes factoriales no correlacionados. Hacer ciertas suposiciones, como factores ortonormales y de media cero, simplifica el modelo a la matriz de covarianza sigma_x como las cargas factoriales B multiplicadas por su transpuesta, más una matriz diagonal. La estimación de máxima verosimilitud también se analiza en el contexto de los modelos de factores lineales normales con variables aleatorias subyacentes distribuidas normalmente, lo que conduce a la función de densidad conjunta de los datos.

  • 00:50:00 En esta sección, el video analiza el modelado de factores y cómo se pueden aplicar los métodos de estimación de máxima verosimilitud para especificar todos los parámetros de las matrices B y psi utilizando el algoritmo EM. Las realizaciones de los factores se pueden estimar utilizando la fórmula de regresión con estimaciones para las cargas de los factores y alfa. El algoritmo EM es una poderosa metodología de estimación que puede simplificar funciones de probabilidad complejas al estimar variables ocultas, asumiendo que las variables ocultas son conocidas e iterando ese proceso. Las realizaciones de factores se pueden utilizar para el modelado de riesgos.

  • 00:55:00 En esta sección, el orador analiza el uso del análisis factorial estadístico en los mercados de materias primas y la identificación de los factores subyacentes que impulsan los rendimientos y las covarianzas. Los factores subyacentes estimados también se pueden usar como entradas para otros modelos, lo cual es útil para comprender el pasado y cómo varían. El disertante también menciona la flexibilidad de considerar diferentes transformaciones de cualquier conjunto dado de factores estimados por la matriz H para la transformación. Además, se menciona el uso del análisis factorial estadístico para interpretar los factores subyacentes, con aplicaciones para medir el coeficiente intelectual y encontrar rotaciones de las cargas factoriales que hacen que los factores sean más interpretables. Finalmente, la sección cubre las pruebas de razón de verosimilitud y las pruebas de la dimensionalidad del modelo factorial.

  • 01:00:00 En esta sección, se introduce el concepto de análisis de componentes principales (PCA), que es un marco teórico que utiliza valores propios y vectores propios de la matriz de covarianza para reducir la estructura multivariada a un espacio dimensional más pequeño. PCA crea un nuevo sistema de coordenadas que no cambia la posición relativa de los datos, sino que solo gira los ejes de coordenadas y simplifica
    la transformación afín de la variable original x. Las variables de componentes principales tienen una media de 0 y una matriz de covarianza dada por la matriz diagonal de valores propios, y representan un modelo factorial lineal con cargas factoriales dadas por gamma_1 y un término residual dado por gamma_2 p_2. Sin embargo, el vector gamma_2 p_2 puede no tener una matriz de covarianza diagonal.

  • 01:05:00 En esta sección, el video explica las diferencias entre los modelos de factores lineales y el análisis de componentes principales. Con un modelo factorial lineal, se supone que el vector residual tiene una matriz de covarianza igual a una diagonal, mientras que el análisis de componentes principales puede o no ser cierto. Luego, el video pasa a discutir el análisis empírico de componentes principales, donde se utilizan datos de muestra para obtener estimaciones de medias y matrices de covarianza. También se introduce el concepto de variabilidad, donde la primera variable componente principal se define como la dimensión en la que el eje de coordenadas tiene la máxima variabilidad. La segunda variable de componente principal es entonces la dirección ortogonal a la primera con la varianza máxima, y este proceso continúa para definir todas las m variables de componente principal.

  • 01:10:00 En esta sección, el ponente explica cómo se puede utilizar el análisis de componentes principales para descomponer la variabilidad de diferentes variables de componentes principales de una matriz de covarianza σ, que representa la varianza total de un conjunto de datos multivariante. Las entradas fuera de la diagonal de la matriz son cero, lo que indica que las variables del componente principal no están correlacionadas y tienen su propio nivel de variabilidad, representado por los valores propios. Como caso de estudio, el orador utiliza el ejemplo de los rendimientos del Tesoro de EE. UU. entre 2000 y 2013, observando específicamente los cambios en los rendimientos. El enfoque está en un período de cinco años entre 2001 y 2005, y el análisis consiste en la volatilidad diaria de los rendimientos y los niveles negativos durante ese período.

  • 01:15:00 En esta sección, el presentador analiza el modelado factorial de los cambios de rendimiento mediante el análisis de componentes principales. La matriz de correlación de cambios de rendimiento muestra correlaciones altas para plazos más cortos y correlaciones que disminuyen a medida que se aleja de la diagonal. El presentador usa gráficos para representar visualmente las correlaciones y muestra que la primera variable del componente principal explica el 85% de la variabilidad total. Un gráfico de sedimentación confirma que los primeros componentes principales explican una cantidad significativa de variabilidad. Finalmente, el presentador compara las desviaciones estándar de los cambios de rendimiento originales con los de las principales variables del componente.

  • 01:20:00 En esta sección, se presentó un gráfico de las cargas sobre los diferentes cambios de rendimiento para las primeras variables de los componentes principales, lo que da una idea sobre la interpretación de las variables de los componentes principales. La primera variable del componente principal mide el cambio de rendimiento promedio en todo el rango y le da mayor peso a los cinco años, que captura una medida del cambio de nivel en la curva de rendimiento, mientras que la segunda variable del componente principal analiza la diferencia entre el rendimiento cambios en los plazos largos frente a los plazos cortos. Además, la tercera variable del componente principal proporciona una medida de la curvatura de la estructura de plazos y cómo cambia con el tiempo. Las variables del componente principal tienen correlaciones cero entre sí, y las variables acumuladas del componente principal a lo largo del tiempo indican cómo han evolucionado estos factores subyacentes durante el período de tiempo.

  • 01:25:00 En esta sección, el orador analiza cómo ajustar un modelo de análisis factorial estadístico a los datos y comparar los resultados durante un período de cinco años. El orador enfatiza la importancia de especificar los modelos durante un período específico y señala que ajustar los modelos es solo un punto de partida. En última instancia, es necesario modelar la dinámica de estos factores y sus relaciones estructurales.
Razón de la queja: