Trading Quantitatif - page 11

 

6. Analyse de régression



6. Analyse de régression

Dans cette vidéo complète, nous approfondissons le sujet de l'analyse de régression, en explorant son importance dans la modélisation statistique. La régression linéaire occupe le devant de la scène lorsque nous discutons de ses objectifs, de la configuration du modèle linéaire et du processus d'ajustement d'un modèle de régression. Pour assurer une base solide, nous commençons par expliquer les hypothèses sous-jacentes à la distribution des résidus, y compris les hypothèses renommées de Gauss-Markov. De plus, nous introduisons le théorème de Gauss-Markov généralisé, qui fournit une méthode pour estimer la matrice de covariance dans l'analyse de régression.

Nous soulignons l'importance d'incorporer des informations subjectives dans la modélisation statistique et de tenir compte des données incomplètes ou manquantes. La modélisation statistique doit être adaptée au processus spécifique analysé, et nous mettons en garde contre l'application aveugle d'une régression linéaire simple à tous les problèmes. L'estimation des moindres carrés ordinaires pour bêta est expliquée, ainsi que les équations de normalisation, la matrice chapeau et le théorème de Gauss-Markov pour l'estimation des paramètres de régression. Nous couvrons également les modèles de régression avec des covariances non nulles entre les composants, permettant une approche plus flexible et réaliste.

Pour approfondir notre compréhension, nous explorons le concept de distributions normales multivariées et leur rôle dans la résolution de la distribution de l'estimateur des moindres carrés, en supposant des résidus distribués normalement. Des sujets tels que la fonction génératrice de moment, la décomposition QR et l'estimation du maximum de vraisemblance sont couverts. Nous expliquons comment la décomposition QR simplifie l'estimation des moindres carrés et présentons un résultat fondamental sur les modèles de régression linéaire normaux. Nous définissons la fonction de vraisemblance et les estimations du maximum de vraisemblance, en soulignant la cohérence entre les principes des moindres carrés et du maximum de vraisemblance dans les modèles de régression linéaire normaux.

Tout au long de la vidéo, nous mettons l'accent sur les étapes itératives impliquées dans l'analyse de régression. Ces étapes comprennent l'identification de la réponse et des variables explicatives, la spécification des hypothèses, la définition des critères d'estimation, l'application de l'estimateur choisi aux données et la validation des hypothèses. Nous discutons également de l'importance de vérifier les hypothèses, d'effectuer des diagnostics d'influence et de détecter les valeurs aberrantes.

En résumé, cette vidéo fournit un aperçu complet de l'analyse de régression, couvrant des sujets tels que la régression linéaire, les hypothèses de Gauss-Markov, le théorème de Gauss-Markov généralisé, les informations subjectives dans la modélisation, l'estimation des moindres carrés ordinaires, la matrice chapeau, les distributions normales multivariées, la génération de moment fonction, décomposition QR et estimation du maximum de vraisemblance. En comprenant ces concepts et techniques, vous serez bien équipé pour aborder l'analyse de régression et l'utiliser efficacement dans vos efforts de modélisation statistique.

  • 00:00:00 Dans cette section, le professeur présente le sujet de l'analyse de régression, qui est couvert aujourd'hui, et son importance dans la modélisation statistique. La méthodologie, en particulier la régression linéaire, est puissante et largement utilisée en finance et dans d'autres disciplines qui font des statistiques appliquées. Le professeur discute des divers objectifs de l'analyse de régression, y compris l'extraction/l'exploitation de la relation entre les variables indépendantes et dépendantes, la prédiction, l'inférence causale, l'approximation et la découverte des relations fonctionnelles/la validation des relations fonctionnelles entre les variables. De plus, le modèle linéaire est mis en place d'un point de vue mathématique, et le cours couvre les moindres carrés ordinaires, le théorème de Gauss-Markov et les modèles formels avec des modèles de régression linéaire normaux, suivis d'extensions à des classes plus larges.

  • 00:05:00 Dans cette section, le concept d'analyse de régression linéaire est exploré, où une fonction linéaire modélise la distribution conditionnelle d'une variable de réponse donnée des variables indépendantes. Les paramètres de régression sont utilisés pour définir la relation, et les résidus décrivent l'incertitude ou l'erreur dans les données. De plus, l'approximation polynomiale et les séries de Fourier peuvent être appliquées pour fournir une description complète, en particulier pour le comportement cyclique. Les étapes clés pour ajuster un modèle de régression consistent à proposer un modèle basé sur l'échelle de la variable de réponse et à identifier les variables indépendantes clés. Il convient de noter que ces variables indépendantes peuvent inclure différentes formes fonctionnelles et valeurs de décalage de la variable de réponse, ce qui rend la configuration relativement générale.

  • 00:10:00 Dans cette section, l'orateur discute des étapes impliquées dans l'analyse de régression. Dans un premier temps, il faut identifier la réponse des variables explicatives et préciser les hypothèses sous-jacentes à la distribution des résidus. Deuxièmement, il faut définir un critère sur la façon de juger différents estimateurs des paramètres de régression, avec plusieurs options disponibles. Troisièmement, le meilleur estimateur doit être caractérisé et appliqué aux données données. Quatrièmement, il faut vérifier leurs hypothèses, ce qui peut conduire à des modifications du modèle et des hypothèses, si nécessaire. Enfin, le conférencier souligne l'importance d'adapter le modèle au processus modélisé et non d'appliquer une simple régression linéaire à tous les problèmes. La section se termine par une discussion des hypothèses qui peuvent être faites pour la distribution résiduelle dans un modèle de régression linéaire, la distribution normale étant un point de départ commun et familier.

  • 00:15:00 Dans cette section, l'orateur explique les hypothèses de Gauss-Markov utilisées dans l'analyse de régression, qui se concentrent sur les moyennes et les variances des résidus. Les hypothèses incluent une moyenne nulle, une variance constante et des résidus non corrélés. L'orateur discute également des hypothèses de Gauss-Markov généralisées qui impliquent des variables aléatoires à valeur matricielle ou à valeur vectorielle. L'orateur montre comment la matrice de covariance caractérise la variance du vecteur n et donne des exemples à l'aide des valeurs mu et y.

  • 00:20:00 Dans cette section, le théorème de Gauss-Markov généralisé est présenté comme un moyen d'estimer la matrice de covariance dans l'analyse de régression. Le théorème permet une matrice de covariance générale avec des covariances non nulles entre les variables indépendantes, les variables dépendantes et les résidus, et suppose qu'elles peuvent être corrélées. Des exemples non linéaires de la raison pour laquelle les résidus pourraient être corrélés dans les modèles de régression sont discutés, ainsi que l'utilisation de divers types de distribution au-delà de la distribution gaussienne dans l'ajustement des modèles de régression pour étendre l'applicabilité. La conférence couvre ensuite le critère d'estimation des paramètres de régression et diverses méthodes utilisées pour juger de ce qui est considéré comme une bonne estimation, y compris les moindres carrés, le maximum de vraisemblance, les méthodes robustes, les méthodes de Bayes et l'adaptation aux données incomplètes ou manquantes.

  • 00:25:00 Dans cette section, l'orateur discute de l'importance d'incorporer des informations subjectives dans la modélisation statistique et de l'utilité des méthodologies bayésiennes dans une modélisation appropriée. Il souligne également la nécessité de tenir compte des données incomplètes ou manquantes en utilisant des modèles statistiques. De plus, le conférencier explique comment vérifier les hypothèses dans les modèles de régression en analysant les résidus pour déterminer si les hypothèses de Gauss-Markov s'appliquent. Il mentionne également l'importance des diagnostics d'influence et de la détection des valeurs aberrantes pour identifier les cas qui pourraient être respectivement très influents ou inhabituels. Enfin, il introduit le concept des moindres carrés ordinaires et le critère des moindres carrés pour calculer la somme des écarts au carré par rapport à la valeur réelle de la variable de réponse.

  • 00:30:00 Dans cette section, nous apprenons l'analyse de régression et comment résoudre l'estimation des moindres carrés ordinaires pour bêta. Nous utilisons des matrices, en prenant le vecteur y, les n valeurs de la variable indépendante et X, la matrice des valeurs de la variable dépendante, pour définir la valeur ajustée, y hat, égale à la matrice x fois bêta. En prenant le produit croisé du vecteur n moins le produit de la matrice X par bêta, ce qui donne les estimations des moindres carrés ordinaires pour bêta, nous pouvons résoudre la dérivée seconde de Q par rapport à bêta, qui finit par être X. transpose X, une matrice définie ou semi-définie positive. Enfin, nous définissons la dérivée de Q par rapport aux paramètres de régression comme moins deux fois la j-ème colonne empilée fois y.

  • 00:35:00 Dans cette section, le concept d'équations normales dans la modélisation de régression est introduit. L'ensemble d'équations doit être satisfait par l'estimation des moindres carrés ordinaires, bêta. Avec l'aide de l'algèbre matricielle, l'équation peut être résolue et la solution pour le chapeau bêta suppose que X transpose X inverse existe. Pour que X transpose X inverse, X doit avoir un rang complet, ce qui indique que le fait d'avoir des variables indépendantes expliquées par d'autres variables indépendantes entraînerait une réduction du rang. On découvre que si beta hat n'a pas de rang complet, notre estimation par les moindres carrés de beta peut ne pas être unique.

  • 00:40:00 Dans cette section sur l'analyse de régression, la matrice chapeau est présentée comme une matrice de projection qui prend le vecteur linéaire de la variable de réponse en valeurs ajustées. Plus précisément, il s'agit d'une matrice de projection orthogonale qui se projette sur l'espace des colonnes de X. Les résidus sont la différence entre la valeur de réponse et la valeur ajustée, et peuvent être exprimés sous la forme y moins y hat, ou I_n moins H fois y. Il s'avère que I_n moins H est aussi une matrice de projection qui projette les données sur l'espace orthogonal à l'espace des colonnes de x. Ceci est important à garder à l'esprit car cela aide à représenter le vecteur à n dimensions y par projection sur l'espace des colonnes, et à comprendre que les résidus sont orthogonaux à chacune des colonnes de X.

  • 00:45:00 Dans cette section, le théorème de Gauss-Markov est présenté comme un résultat puissant dans la théorie des modèles linéaires qui est utile pour estimer une fonction des paramètres de régression en considérant une cible générale d'intérêt, qui est une combinaison linéaire des bêtas . Le théorème indique que les estimations des moindres carrés sont des estimateurs sans biais du paramètre thêta et fournit un moyen de montrer que ces estimations ont la plus petite variance parmi tous les estimateurs linéaires sans biais, en supposant que certaines conditions sont remplies. Le concept d'estimateurs sans biais est également brièvement expliqué.

  • 00:50:00 Dans cette section, l'orateur discute du théorème de Gauss-Markov, qui stipule que si les hypothèses de Gauss-Markov s'appliquent, alors l'estimateur thêta a la plus petite variance parmi tous les estimateurs linéaires non biaisés de thêta. Cela signifie que l'estimateur des moindres carrés est l'estimateur optimal pour thêta tant qu'il s'agit du critère. La preuve de ce théorème est basée sur la considération d'une autre estimation linéaire qui est également une estimation sans biais et sur l'évaluation de la différence entre les deux estimateurs qui doivent avoir une espérance de 0. L'argument mathématique de la preuve comprend une décomposition de la variance et le suivi de les termes de covariance. Ce résultat est l'origine du terme estimations BLUE ou de la propriété BLUE des estimations des moindres carrés dans le cours d'économétrie.

  • 00:55:00 Dans cette section, la vidéo traite du modèle de régression avec des covariances non nulles entre les composants et de la manière dont les données Y, X peuvent être transformées en étoile Y et étoile X pour satisfaire les hypothèses de Gauss-Markov d'origine, ce qui rend les variables de réponse ont une variance constante et ne sont pas corrélées. La vidéo explique qu'avec des valeurs de réponse qui ont de très grandes variances, ces moindres carrés généralisés actualisent ceux par l'inverse sigma. La vidéo se penche ensuite sur la théorie de la distribution pour les modèles de régression normaux, en supposant que les résidus sont normaux avec une moyenne de 0 et une variance sigma au carré et que les variables de réponse auront une variance constante, mais ne seront pas distribuées de manière identique car elles ont des moyennes différentes pour la variable dépendante.

  • 01:00:00 Dans cette section, le concept de distribution normale multivariée est abordé par rapport au vecteur moyen et à la matrice de covariance. L'objectif est de résoudre la distribution de l'estimateur des moindres carrés en supposant des résidus normalement distribués. La fonction génératrice de moment est présentée comme un moyen de dériver la distribution conjointe de Y et beta hat. Pour les distributions normales multivariées, la fonction génératrice de moment pour Y est le produit des fonctions génératrices de moment individuelles, la distribution de Y étant une normale avec une moyenne mu et une matrice de covariance sigma. La fonction génératrice de moment pour beta hat est résolue afin de déterminer sa distribution, qui est une normale multivariée.

  • 01:05:00 Dans cette section, l'orateur discute de la fonction génératrice de moment du chapeau bêta et comment elle équivaut à une distribution normale multivariée avec la moyenne du vrai bêta et la matrice de covariance donnée par un certain objet. La distribution marginale de chacun des chapeaux bêta est donnée par une distribution normale univariée avec une moyenne beta_j et une variance égale à la diagonale, qui peut être prouvée à partir de la fonction génératrice du moment gaussien. L'orateur passe ensuite à la discussion de la décomposition QR de X, qui peut être obtenue par une orthonormalisation de Gram-Schmidt de la matrice des variables indépendantes. En définissant la matrice triangulaire supérieure R et en résolvant Q et R par le processus de Gram-Schmidt, nous pouvons exprimer n'importe quelle matrice n par p comme un produit d'une matrice orthonormée Q et d'une matrice triangulaire supérieure R.

  • 01:10:00 Dans cette section, la décomposition QR et son application pour simplifier l'estimation des moindres carrés sont discutées. En utilisant le processus Gram-Schmidt pour orthogonaliser les colonnes de X, la décomposition QR peut être calculée pour obtenir une simple opération d'algèbre linéaire à résoudre pour les estimations des moindres carrés. La matrice de covariance du chapeau bêta est égale à sigma au carré X transpose X inverse, et la matrice chapeau est simplement Q fois Q transpose. La théorie de la distribution est explorée plus avant pour fournir un résultat fondamental sur les modèles de régression linéaire normaux.

  • 01:15:00 Dans cette section, le professeur discute d'un théorème important pour toute matrice A, m par n, qui peut transformer un vecteur aléatoire y en un vecteur aléatoire normal. Le théorème prouve que l'estimation par les moindres carrés de beta hat et du vecteur résiduel epsilon hat sont des variables aléatoires indépendantes lors de la construction de telles statistiques. La distribution du chapeau bêta est normale multivariée tandis que la somme des résidus au carré est un multiple d'une variable aléatoire chi carré. Les estimations des paramètres de régression et les statistiques t sont également discutées. L'estimation du maximum de vraisemblance est également expliquée dans le contexte des modèles de régression linéaire normaux. Il s'avère que l'estimation des moindres carrés ordinaires est une estimation du maximum de vraisemblance.

  • 01:20:00 Dans cette section, la fonction de vraisemblance et les estimations du maximum de vraisemblance sont définies. La fonction de vraisemblance est la fonction de densité pour les données étant donné les paramètres inconnus d'une variable aléatoire normale multivariée, et les estimations de vraisemblance maximale déterminent les valeurs de ces paramètres qui rendent les données observées les plus probables. Il est à noter que l'utilisation des moindres carrés pour ajuster les modèles est cohérente avec l'application du principe du maximum de vraisemblance à un modèle de régression linéaire normal. De plus, les estimateurs M généralisés sont brièvement mentionnés comme une classe d'estimateurs utilisés pour trouver des estimations robustes et quantiles des paramètres de régression.
6. Regression Analysis
6. Regression Analysis
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

7. Modèles de valeur à risque (VAR)



7. Modèles de valeur à risque (VAR)

La vidéo fournit une discussion approfondie sur le concept de modèles de valeur à risque (VAR), qui sont largement utilisés dans le secteur financier. Ces modèles utilisent des calculs basés sur la probabilité pour mesurer les pertes potentielles auxquelles une entreprise ou un individu peut être confronté. À l'aide d'un exemple simple, la vidéo illustre efficacement les concepts fondamentaux des modèles VAR.

Les modèles VAR sont des outils précieux permettant aux particuliers d'évaluer la probabilité de perdre de l'argent en raison de décisions d'investissement un jour donné. Pour comprendre le risque associé aux investissements, les investisseurs peuvent analyser l'écart type d'une série chronologique. Cette métrique révèle à quel point le rendement moyen s'est écarté de la moyenne au fil du temps. En évaluant un titre à la moyenne plus ou moins un écart-type, les investisseurs peuvent avoir un aperçu du rendement potentiel ajusté au risque du titre.

La vidéo souligne que les modèles VAR peuvent être construits en utilisant différentes approches. Bien que la vidéo se concentre principalement sur l'approche paramétrique, elle reconnaît la méthode alternative d'utilisation de la simulation de Monte Carlo. Cette dernière approche offre une flexibilité accrue et des options de personnalisation, permettant des évaluations des risques plus précises.

De plus, la vidéo explore la création d'ensembles de données synthétiques qui reflètent les propriétés des ensembles de données historiques. En utilisant cette technique, les analystes peuvent générer des scénarios réalistes pour évaluer avec précision les risques potentiels. La vidéo montre également l'application de la trigonométrie dans la description des modèles saisonniers observés dans les données de température, mettant en valeur les diverses méthodes utilisées dans l'analyse des risques.

En plus de discuter des modèles VAR, la vidéo se penche sur les approches de gestion des risques employées par les banques et les sociétés d'investissement. Il souligne l'importance de comprendre le profil de risque d'une entreprise et de se prémunir contre des concentrations excessives de risques.

Dans l'ensemble, la vidéo offre des informations précieuses sur l'utilisation des modèles VAR comme outils d'évaluation des risques dans le secteur financier. En quantifiant les risques associés aux investissements et en utilisant une analyse statistique, ces modèles aident à prendre des décisions éclairées et à atténuer les pertes financières potentielles.

  • 00:00:00 Dans cette vidéo, Ken Abbott discute des approches de gestion des risques utilisées par les banques et les sociétés d'investissement. Il aborde d'abord les risques, puis explique comment la gestion des risques implique de comprendre le profil de risque de l'entreprise et de se protéger contre des concentrations de risques trop importantes.

  • 00:05:00 Les modèles de valeur à risque sont un moyen d'estimer le risque associé à des investissements spécifiques et peuvent être utilisés pour aider à prendre des décisions éclairées sur ceux à détenir. Ces modèles sont basés sur une compréhension statistique du comportement des actions, des obligations et des produits dérivés, et peuvent être utilisés pour quantifier la sensibilité d'un investisseur aux variations des taux d'intérêt, des prix des actions et des prix des matières premières.

  • 00:10:00 La vidéo explique que les modèles VAR sont utilisés pour mesurer le risque et pour déterminer combien d'argent un investisseur doit détenir pour soutenir une position sur un marché donné. La vidéo donne également un aperçu de l'analyse des séries chronologiques, qui est utilisée pour comprendre le comportement des marchés au fil du temps.

  • 00:15:00 La vidéo traite du concept de valeur à risque (VAR), qui est un modèle financier qui utilise la probabilité pour mesurer les pertes potentielles qu'une entreprise peut subir. La vidéo utilise un exemple simple pour illustrer les concepts.

  • 00:20:00 Les modèles de valeur à risque (VAR) aident les individus à évaluer la probabilité de perdre de l'argent un jour donné grâce à des décisions d'investissement. L'écart type d'une série chronologique indique aux investisseurs dans quelle mesure le rendement moyen s'est écarté de la moyenne au fil du temps. L'évaluation d'un titre à la moyenne plus ou moins un écart-type donne une idée du rendement potentiel ajusté au risque du titre.

  • 00:25:00 Les modèles Value at Risk (VAR) permettent d'identifier des scénarios dans lesquels un investissement pourrait perdre plus de 4,2 % de sa valeur sur une période de cinq ans. Ces informations peuvent être utiles pour déterminer si un investissement est susceptible d'être rentable ou non.

  • 00:30:00 Cette vidéo explique comment fonctionnent les modèles de valeur à risque (VAR) et comment ils contribuent à atténuer les risques. Les concepts introduits comprennent les variations en pourcentage et les variations logarithmiques, ainsi que l'utilisation de la PV1 et des durées pour mesurer le risque. La vidéo couvre également l'utilisation des modèles VAR dans le secteur financier.

  • 00:35:00 Cette vidéo traite du concept de valeur à risque (VAR), qui est un outil de gestion des risques qui calcule la perte financière potentielle qu'une entreprise ou un particulier peut subir en raison de la volatilité de ses actifs. Les rendements sont également abordés, et il est expliqué qu'ils sont composés de taux sans risque et de spreads de crédit. Le présentateur donne un exemple de la façon dont le VAR peut être utilisé pour estimer la perte financière potentielle qu'une entreprise peut subir en raison de changements dans les prix de ses actifs.

  • 00:40:00 Cette vidéo traite des modèles de valeur à risque, qui mesurent le risque sur les marchés financiers. la covariance et la corrélation sont deux mesures du risque, et les matrices de covariance sont symétriques, avec la variance sur la diagonale et la covariance sur la diagonale. Les corrélations sont également symétriques et peuvent être calculées à l'aide de la covariance divisée par le produit des écarts types.

  • 00:45:00 La vidéo aborde le concept de valeur à risque (VAR), qui est utilisé pour mesurer le risque de pertes financières associé à un portefeuille d'actifs. La vidéo explique que le VAR peut être calculé à l'aide d'une matrice de covariance et d'une matrice de corrélation. La matrice de covariance mesure le degré de corrélation entre les actifs, tandis que la matrice de corrélation mesure le degré de corrélation entre les actifs et les passifs. La vidéo présente ensuite un exemple de calcul du VAR à l'aide d'une matrice de covariance et d'une matrice de corrélation.

  • 00:50:00 Les modèles de valeur à risque (VAR) sont un moyen de mesurer le risque associé à un investissement financier. Le modèle utilise les données des rendements et de la covariance pour calculer le vecteur de position et la statistique d'ordre. Ceci est ensuite utilisé pour déterminer le niveau de risque de l'investissement.

  • 00:55:00 Cette vidéo fournit les points clés d'une présentation en 7 diapositives sur les modèles de valeur à risque. Ces modèles sont utilisés pour calculer la probabilité d'une perte financière, étant donné que certaines conditions sont remplies. Les données manquantes peuvent être un problème, et diverses méthodes sont disponibles pour combler les lacunes. La présentation explique également comment l'impact d'une hypothèse peut avoir un impact significatif sur les résultats d'un modèle.

  • 01:00:00 La vidéo traite des modèles de valeur à risque (VAR). Le modèle utilise une approche paramétrique, mais il existe une autre méthode utilisant la simulation de Monte Carlo. Cette méthode est plus flexible et permet une plus grande personnalisation.

  • 01:05:00 Les modèles Value at Risk (VAR) sont utilisés pour estimer le potentiel de perte financière due aux fluctuations des prix des actifs. Ces modèles peuvent être utilisés pour quantifier le risque associé à un investissement ou à un portefeuille particulier.

  • 01:10:00 Dans cette vidéo, l'auteur discute de l'importance des modèles de valeur à risque (VAR), expliquant que ces modèles aident à garantir qu'une entreprise ne connaît pas de valeur propre négative. Il poursuit en disant que, si vous avez un millier d'observations, vous devez remplir les données manquantes en utilisant un processus appelé "imputation des données manquantes". Enfin, John montre comment créer une matrice de transformation qui mettra en corrélation des normales aléatoires.

  • 01:15:00 Dans cette vidéo, le présentateur explique comment créer des modèles qui simulent les résultats des investissements, en utilisant la simulation Monte Carlo. Il explique également comment utiliser une copule gaussienne pour générer des modèles plus précis.

  • 01:20:00 La vidéo explique comment des ensembles de données synthétiques peuvent être créés pour avoir les mêmes propriétés que les ensembles de données historiques. Il montre également comment la trigonométrie peut être utilisée pour décrire les tendances saisonnières dans les données de température.
7. Value At Risk (VAR) Models
7. Value At Risk (VAR) Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Kenneth AbbottThi...
 

8. Analyse des séries chronologiques I


8. Analyse des séries chronologiques I

Dans cette vidéo, le professeur commence par revisiter la méthode d'estimation du maximum de vraisemblance comme approche principale de la modélisation statistique. Ils expliquent le concept de fonction de vraisemblance et son lien avec les modèles de régression linéaire normaux. Les estimations du maximum de vraisemblance sont définies comme des valeurs qui maximisent la fonction de vraisemblance, indiquant la probabilité que les données observées reçoivent ces valeurs de paramètre.

Le professeur se penche sur la résolution de problèmes d'estimation pour les modèles de régression linéaire normaux. Ils soulignent que l'estimation de vraisemblance maximale de la variance d'erreur est Q du chapeau bêta sur n, mais avertissent que cette estimation est biaisée et doit être corrigée en la divisant par n moins le rang de la matrice X. Au fur et à mesure que de nouveaux paramètres sont ajoutés au modèle, les valeurs ajustées deviennent plus précises, mais il existe également un risque de surajustement. Le théorème stipule que les estimations des moindres carrés, maintenant les estimations de vraisemblance maximale, des modèles de régression suivent une distribution normale, et la somme des carrés des résidus suit une distribution chi carré avec des degrés de liberté égaux à n moins p. La statistique t est soulignée comme un outil crucial pour évaluer la signification des variables explicatives dans le modèle.

L'estimation M généralisée est introduite comme méthode d'estimation des paramètres inconnus en minimisant la fonction Q de bêta. Différents estimateurs peuvent être définis en choisissant différentes formes pour la fonction h, ce qui implique l'évaluation d'une autre fonction. La vidéo couvre également les estimateurs M robustes, qui utilisent la fonction chi pour assurer de bonnes propriétés par rapport aux estimations, ainsi que les estimateurs quantiles. Les estimateurs robustes aident à atténuer l'influence des valeurs aberrantes ou des grands résidus dans l'estimation des moindres carrés.

Le sujet passe ensuite aux estimateurs M et à leur large applicabilité dans les modèles d'ajustement. Une étude de cas sur les modèles de régression linéaire appliqués à l'évaluation des actifs est présentée, en se concentrant sur le modèle d'évaluation des immobilisations. Le professeur explique comment les rendements des actions sont influencés par le rendement global du marché, mis à l'échelle par le risque de l'action. L'étude de cas fournit des données et des détails sur la façon de les collecter à l'aide du logiciel statistique R. Les diagnostics de régression sont mentionnés, soulignant leur rôle dans l'évaluation de l'influence des observations individuelles sur les paramètres de régression. L'effet de levier est présenté comme une mesure pour identifier les points de données influents, et sa définition et son explication sont fournies.

Le concept d'incorporation de facteurs supplémentaires, tels que les rendements du pétrole brut, dans les modèles de rendement des actions est introduit. L'analyse démontre que le marché à lui seul n'explique pas efficacement les rendements de certaines actions, tandis que le pétrole brut agit comme un facteur indépendant qui aide à élucider les rendements. Un exemple est donné avec Exxon Mobil, une compagnie pétrolière, montrant comment ses rendements sont corrélés avec les prix du pétrole. La section se termine par un nuage de points indiquant les observations influentes basées sur la distance de Mahalanobis des cas par rapport au centroïde des variables indépendantes.

Le conférencier aborde ensuite l'analyse de séries temporelles univariées, qui consiste à observer une variable aléatoire au fil du temps en tant que processus discret. Ils expliquent les définitions de stationnarité stricte et de covariance, la stationnarité de covariance exigeant que la moyenne et la covariance du processus restent constantes dans le temps. Les modèles de moyenne mobile autorégressive (ARMA), ainsi que leur extension à la non-stationnarité par le biais de modèles de moyenne mobile autorégressive intégrée (ARIMA), sont introduits. L'estimation des modèles stationnaires et les tests de stationnarité sont également couverts.

Le théorème de représentation de Wold pour les séries temporelles stationnaires de covariance est discuté, indiquant qu'une telle série temporelle peut être décomposée en un processus linéairement déterministe et une moyenne pondérée de bruit blanc avec des coefficients donnés par psi_i. La composante de bruit blanc, eta_t, a une variance constante et n'est pas corrélée à elle-même et au processus déterministe. Le théorème de décomposition de Wold fournit un cadre utile pour modéliser de tels processus.

L'enseignant explique la méthode de décomposition de Wold de l'analyse des séries temporelles, qui consiste à initialiser le paramètre p (représentant le nombre d'observations passées) et à estimer la projection linéaire de X_t à partir des dernières valeurs de p lag. En examinant les résidus à l'aide de méthodes de séries chronologiques, telles que l'évaluation de l'orthogonalité avec des décalages plus longs et la cohérence avec le bruit blanc, on peut déterminer un modèle de moyenne mobile approprié. La méthode de décomposition de Wold peut être mise en œuvre en prenant la limite des projections lorsque p tend vers l'infini, convergeant vers la projection des données sur son histoire et correspondant aux coefficients de la définition de projection. Cependant, il est crucial que le rapport de p à la taille de l'échantillon n approche zéro pour assurer un nombre adéquat de degrés de liberté pour l'estimation du modèle.

L'importance d'avoir un nombre fini de paramètres dans les modèles de séries chronologiques est soulignée pour éviter le surajustement. L'opérateur de décalage, noté L, est introduit comme un outil fondamental dans les modèles de séries chronologiques, permettant le décalage d'une série chronologique d'un incrément de temps. L'opérateur de retard est utilisé pour représenter tout processus stochastique utilisant le polynôme psi(L), qui est un polynôme d'ordre infini impliquant des retards. La fonction de réponse impulsionnelle est discutée comme une mesure de l'impact d'une innovation à un certain moment sur le processus, l'affectant à ce moment-là et au-delà. L'orateur donne un exemple en utilisant le changement de taux d'intérêt par le président de la Réserve fédérale pour illustrer l'impact temporel des innovations.

Le concept de la réponse cumulative à long terme est expliqué en relation avec l'analyse des séries chronologiques. Cette réponse représente l'effet cumulé d'une innovation dans le processus au fil du temps et signifie la valeur vers laquelle le processus converge. Il est calculé comme la somme des réponses individuelles saisies par le polynôme psi(L). La représentation de Wold, qui est une moyenne mobile d'ordre infini, peut être transformée en une représentation autorégressive en utilisant l'inverse du polynôme psi(L). La classe des processus de moyenne mobile autorégressive (ARMA) est introduite avec sa définition mathématique.

L'accent est ensuite mis sur les modèles autorégressifs dans le contexte des modèles ARMA. Le cours commence par des cas plus simples, en particulier des modèles autorégressifs, avant d'aborder les processus de moyennes mobiles. Les conditions de stationnarité sont explorées et l'équation caractéristique associée au modèle autorégressif est introduite en remplaçant la fonction polynomiale phi par la variable complexe z. Le processus X_t est considéré comme stationnaire de covariance si toutes les racines de l'équation caractéristique se trouvent à l'extérieur du cercle unité, ce qui implique que le module du complexe z est supérieur à 1. Les racines à l'extérieur du cercle unité doivent avoir un module supérieur à 1 pour assurer la stationnarité.

Dans la section suivante de la vidéo, le concept de stationnarité et de racines unitaires dans un processus autorégressif d'ordre un (AR(1)) est discuté. L'équation caractéristique du modèle est présentée et il est expliqué que la stationnarité de la covariance nécessite que la magnitude de phi soit inférieure à 1. La variance de X dans le processus autorégressif s'avère supérieure à la variance des innovations lorsque phi est positif et plus petit lorsque phi est négatif. De plus, il est démontré qu'un processus autorégressif avec phi compris entre 0 et 1 correspond à un processus exponentiel de retour à la moyenne, qui a été utilisé dans les modèles de taux d'intérêt en finance.

La vidéo progresse pour se concentrer spécifiquement sur les processus autorégressifs, en particulier les modèles AR(1). Ces modèles impliquent des variables qui ont tendance à revenir à une moyenne sur de courtes périodes, le point de retour moyen pouvant changer sur de longues périodes. Le cours présente les équations de Yule-Walker, qui sont utilisées pour estimer les paramètres des modèles ARMA. Ces équations reposent sur la covariance entre les observations à différents retards, et le système d'équations résultant peut être résolu pour obtenir les paramètres autorégressifs. Les équations de Yule-Walker sont fréquemment utilisées pour spécifier les modèles ARMA dans les packages statistiques.

Le principe de la méthode des moments pour l'estimation statistique est expliqué, en particulier dans le contexte de modèles complexes où la spécification et le calcul des fonctions de vraisemblance deviennent difficiles. Le cours discute des modèles de moyenne mobile et présente des formules pour les attentes de X_t, y compris mu et gamma 0. Le comportement non stationnaire dans les séries chronologiques est abordé par diverses approches. Le conférencier souligne l'importance de s'adapter au comportement non stationnaire pour obtenir une modélisation précise. Une approche consiste à transformer les données pour les rendre stationnaires, par exemple en les différenciant ou en appliquant l'approche de Box-Jenkins consistant à utiliser la première différence. De plus, des exemples de modèles d'inversion de tendance linéaire sont fournis comme moyen de gérer des séries chronologiques non stationnaires.

Le conférencier explore en outre les processus non stationnaires et leur incorporation dans les modèles ARMA. Si la différenciation, première ou seconde, produit une stationnarité de covariance, elle peut être intégrée dans la spécification du modèle pour créer des modèles ARIMA (processus de moyenne mobile intégrés autorégressifs). Les paramètres de ces modèles peuvent être estimés à l'aide de l'estimation du maximum de vraisemblance. Pour évaluer différents ensembles de modèles et déterminer les ordres des paramètres autorégressifs et de moyenne mobile, des critères d'information tels que le critère d'information d'Akaike ou de Bayes sont suggérés.

La question de l'ajout de variables supplémentaires au modèle est discutée, ainsi que la prise en compte des pénalités. Le conférencier souligne la nécessité d'établir des preuves pour incorporer des paramètres supplémentaires, tels que l'évaluation des statistiques t qui dépassent un certain seuil ou l'utilisation d'autres critères. Le critère d'information de Bayes suppose un nombre fini de variables dans le modèle, en supposant qu'elles sont connues, tandis que le critère de Hannan-Quinn suppose un nombre infini de variables mais garantit leur identifiabilité. La sélection de modèles est une tâche difficile, mais ces critères fournissent des outils utiles pour la prise de décision.

En conclusion, la vidéo couvre divers aspects de la modélisation statistique et de l'analyse des séries chronologiques. Il commence par expliquer l'estimation du maximum de vraisemblance et sa relation avec les modèles de régression linéaire normaux. Les concepts d'estimation M généralisée et d'estimation M robuste sont introduits. Une étude de cas appliquant des modèles de régression linéaire à l'évaluation des actifs est présentée, suivie d'une explication de l'analyse de séries chronologiques univariées. Le théorème de représentation de Wold et la méthode de décomposition de Wold sont discutés dans le contexte des séries temporelles stationnaires de covariance. L'importance d'un nombre fini de paramètres dans les modèles de séries chronologiques est soulignée, ainsi que les modèles autorégressifs et les conditions de stationnarité. La vidéo se termine en abordant les processus autorégressifs, les équations de Yule-Walker, la méthode du principe des moments, le comportement non stationnaire et la sélection de modèles à l'aide de critères d'information.

  • 00:00:00 Dans cette section, le professeur passe en revue la méthode d'estimation du maximum de vraisemblance en tant que méthode d'estimation principale dans la modélisation statistique tout en discutant de la fonction de vraisemblance et de sa relation avec les modèles de régression linéaire normaux. Le professeur explique que les estimations du maximum de vraisemblance sont des valeurs qui maximisent la fonction selon laquelle les données observées sont les plus probables, et ces valeurs mettent à l'échelle les paramètres inconnus en fonction de la probabilité qu'ils aient pu générer les valeurs des données.

  • 00:05:00 Dans cette section, le professeur explique comment résoudre les problèmes d'estimation pour les modèles de régression linéaire normaux. L'estimation de vraisemblance maximale de la variance d'erreur est Q de chapeau bêta sur n, mais cette estimation est biaisée et doit être corrigée en divisant par n moins le rang de la matrice X. Plus le nombre de paramètres ajoutés au modèle est élevé, plus les valeurs ajustées sont précises, mais cela augmente également le risque d'ajustement de la courbe. Le théorème indique que les moindres carrés, maintenant les estimations du maximum de vraisemblance, des modèles de régression sont normalement distribués, et la somme des carrés des résidus a une distribution chi carré avec des degrés de liberté donnés par n moins p. La statistique t est un moyen essentiel d'évaluer la pertinence des différentes variables explicatives dans le modèle.

  • 00:10:00 Dans cette section, la vidéo explique le concept d'estimation M généralisée, qui consiste à estimer des paramètres inconnus en minimisant la fonction Q de bêta. En choisissant différentes formes fonctionnelles pour h, qui est une somme d'évaluations d'une autre fonction, différents types d'estimateurs peuvent être définis tels que les moindres carrés et l'estimation du maximum de vraisemblance. La vidéo traite également des estimateurs M robustes, qui impliquent de définir la fonction chi pour qu'elle ait de bonnes propriétés avec des estimations, et des estimateurs quantiles. Les estimateurs robustes aident à contrôler l'influence indue de très grandes valeurs ou de résidus sous l'estimation des moindres carrés.

  • 00:15:00 Dans cette section, le professeur discute des estimateurs M et de la manière dont ils englobent la plupart des estimateurs rencontrés dans les modèles d'ajustement. La classe est initiée à une étude de cas qui applique des modèles de régression linéaire à la tarification des actifs. Le modèle d'évaluation des immobilisations est expliqué pour suggérer que les rendements des actions dépendent du rendement du marché global, mis à l'échelle par le degré de risque de l'action. L'étude de cas fournit les données et les détails nécessaires pour les collecter à l'aide de R. Le professeur mentionne les diagnostics de régression et comment ils déterminent l'influence des observations individuelles sur les paramètres de régression. Enfin, les points de données influents sont identifiés à l'aide d'un effet de levier, et la définition et l'explication sont données.

  • 00:20:00 Dans cette section, le professeur introduit le concept d'ajout d'un autre facteur, tel que le rendement du pétrole brut, dans la modélisation des rendements des actions pour aider à expliquer les rendements. L'analyse montre que le marché, dans cette étude de cas, n'a pas été efficace pour expliquer le retour de GE ; le pétrole brut est un autre facteur indépendant qui aide à expliquer les rendements. D'autre part, Exxon Mobil, une compagnie pétrolière, a un paramètre de régression qui montre comment le pétrole brut a définitivement un impact sur son rendement puisqu'il monte et descend avec les prix du pétrole. La section se termine par un nuage de points qui indique les observations influentes associées à la distance de Mahalanobis des cas par rapport au centroïde des variables indépendantes.

  • 00:25:00 Dans cette section, le conférencier introduit le sujet de l'analyse de séries chronologiques univariées, qui consiste à observer une variable aléatoire dans le temps et est un processus temporel discret. La définition de stationnarité stricte et de covariance est expliquée, la stationnarité de covariance étant plus faible et exigeant que seules la moyenne et la covariance du processus restent constantes dans le temps. Les modèles classiques de modèles de moyenne mobile autorégressifs et leurs extensions à la non-stationnarité avec des modèles de moyenne mobile autorégressifs intégrés sont également abordés, ainsi que la manière d'estimer les modèles stationnaires et de tester la stationnarité.

  • 00:30:00 Dans cette section de la vidéo, l'orateur discute du théorème de représentation de Wold pour les séries temporelles stationnaires de covariance. Le théorème indique qu'une série temporelle stationnaire à covariance moyenne nulle peut être décomposée en deux composants : un processus linéairement déterministe et une moyenne pondérée du bruit blanc avec des coefficients donnés par psi_i. L'orateur explique également que eta_t, l'élément de bruit blanc, a une variance constante et n'est pas corrélé à lui-même et au processus déterministe. Le théorème de décomposition de Wold fournit une structure convaincante pour modéliser de tels processus.

  • 00:35:00 Dans cette section, la méthode de décomposition de Wold pour l'analyse des séries chronologiques est abordée. Cette méthode consiste à initialiser le paramètre p, qui représente le nombre d'observations passées dans le terme linéairement déterministe, et à estimer la projection linéaire de X_t sur les dernières valeurs de p lag. En effectuant des méthodes de séries chronologiques pour analyser les résidus, comme évaluer si les résidus sont orthogonaux à des retards plus longs et cohérents avec le bruit blanc, on peut spécifier un modèle de moyenne mobile et évaluer sa pertinence. La méthode de décomposition de Wold peut être mise en œuvre comme la limite des projections lorsque p devient grand, convergeant vers la projection des données sur son historique et correspondant aux coefficients de la définition de projection. Cependant, le rapport p/n doit se rapprocher de 0 pour éviter de manquer de degrés de liberté lors de l'estimation des modèles.

  • 00:40:00 Dans cette section, l'orateur souligne l'importance d'avoir un nombre fini de paramètres lors de l'estimation des modèles de séries chronologiques, car cela permet d'éviter le surajustement. L'opérateur de décalage est un outil crucial dans les modèles de séries chronologiques où une série chronologique est décalée d'un incrément de temps à l'aide de l'opérateur L. Tout processus stochastique peut être représenté à l'aide de l'opérateur de décalage avec psi de L, qui est un polynôme d'ordre infini de les décalages. La fonction de réponse impulsionnelle se rapporte à l'impact de l'innovation à un certain moment qui affecte le processus à ce moment-là et au-delà. L'orateur utilise un exemple de changement de taux d'intérêt du président de la Réserve fédérale pour aider à expliquer l'impact de l'innovation au fil du temps.

  • 00:45:00 Dans cette section, le concept de réponse cumulative à long terme est discuté en relation avec l'analyse des séries chronologiques. La réponse cumulative à long terme est l'impact d'une innovation dans un processus au fil du temps et la valeur vers laquelle le processus évolue. Cette réponse est donnée par la somme des réponses individuelles, représentée par le polynôme de psi avec un opérateur de décalage. La représentation de Wold est une moyenne mobile d'ordre infini qui peut avoir une représentation autorégressive utilisant un inverse du psi du polynôme L. La classe des processus de moyennes mobiles autorégressifs, avec une définition mathématique, est également présentée au spectateur.

  • 00:50:00 Dans cette section, l'accent est mis sur les modèles autorégressifs dans les modèles ARMA. Pour mieux comprendre ces modèles, des cas plus simples seront examinés, en commençant par les modèles autorégressifs et en passant aux processus de moyenne mobile. Les conditions de stationnarité seront également explorées, où la fonction polynomiale phi, si elle est remplacée par une variable complexe z, sera l'équation caractéristique associée au modèle autorégressif. Le processus de X_t est stationnaire en covariance si et seulement si toutes les racines de cette équation caractéristique se trouvent à l'extérieur du cercle unité, ce qui signifie que le module du complexe z est supérieur à 1, et que les racines, si elles sont à l'extérieur du cercle unité, ont un module supérieur que 1.

  • 00:55:00 Dans cette section de la vidéo, le concept de stationnarité et de racines unitaires dans un processus autorégressif d'ordre un est discuté. L'équation caractéristique du modèle est présentée et il est déterminé que la stationnarité de la covariance nécessite que l'amplitude de phi soit inférieure à 1 en amplitude. La variance de X dans le processus autorégressif s'avère supérieure à la variance des innovations lorsque phi est positif et plus faible lorsque phi est inférieur à 0. De plus, il est démontré qu'un processus autorégressif avec phi compris entre 0 et 1 correspond à un processus exponentiel de retour à la moyenne qui a été utilisé théoriquement pour les modèles de taux d'intérêt en finance.

  • 01:00:00 Dans cette section, l'accent est mis sur les processus autorégressifs, en particulier les modèles AR(1). Ces modèles impliquent des variables qui reviennent généralement à une moyenne sur de courtes périodes de temps, mais le point de réversion moyen peut changer sur de longues périodes de temps. La conférence explique les équations de Yule-Walker, qui sont utilisées pour estimer les paramètres des modèles ARMA. Ces équations impliquent la covariance entre les observations à différents retards, et le système d'équations résultant peut être résolu pour les paramètres autorégressifs. Enfin, il est à noter que les équations de Yule-Walker sont fréquemment utilisées pour spécifier les modèles ARMA dans les packages statistiques.

  • 01:05:00 Dans cette section, le principe de la méthode des moments pour l'estimation statistique est expliqué, en particulier dans les modèles complexes où les fonctions de vraisemblance sont difficiles à spécifier et à calculer, et en utilisant des estimations non biaisées des paramètres. Le modèle de moyenne mobile est ensuite discuté, avec des formules pour les espérances de X_t, qui incluent mu et gamma 0, calculées. Les accommodements pour le comportement non stationnaire dans les séries chronologiques sont également discutés, en particulier par la transformation des données en stationnaire, l'approche de Box et Jenkins d'utilisation de la première différence et des exemples de modèles de réversion de tendance linéaire.

  • 01:10:00 Dans cette section, l'orateur discute des processus non stationnaires et de la manière de les incorporer dans les modèles ARMA. Il explique que si la première ou la seconde différenciation entraîne une stationnarité de covariance, elle peut être incorporée dans la spécification du modèle pour créer des modèles ARIMA ou des processus de moyenne mobile intégrés autorégressifs. Les paramètres de ces modèles peuvent être spécifiés à l'aide du maximum de vraisemblance, et différents ensembles de modèles et ordres de paramètres autorégressifs et de moyenne mobile peuvent être évalués à l'aide de critères d'information tels que le critère d'information d'Akaike ou de Bayes.

  • 01:15:00 Dans cette section, l'orateur discute de la question de l'ajout de variables supplémentaires dans le modèle et de la pénalité à appliquer. Il suggère qu'il est nécessaire d'examiner quelles preuves devraient être requises pour incorporer des paramètres supplémentaires tels que des statistiques t qui dépassent un certain seuil ou d'autres critères. Le critère d'information de Bayes suppose qu'il existe un nombre fini de variables dans le modèle et que nous les connaissons, tandis que le critère de Hannan-Quinn suppose un nombre infini de variables dans le modèle mais garantit qu'elles sont identifiables. Le problème de la sélection du modèle est difficile mais peut être résolu en utilisant ces critères.
8. Time Series Analysis I
8. Time Series Analysis I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

9. Modélisation de la volatilité



9. Modélisation de la volatilité

Cette vidéo fournit un aperçu complet de la modélisation de la volatilité, explorant divers concepts et techniques dans le domaine. Le conférencier commence par présenter les modèles de moyenne mobile autorégressive (ARMA) et leur pertinence pour la modélisation de la volatilité. Les modèles ARMA sont utilisés pour capturer l'arrivée aléatoire de chocs dans un processus de mouvement brownien. Le conférencier explique que ces modèles supposent l'existence d'un processus, pi de t, qui représente un processus de Poisson comptant le nombre de sauts qui se produisent. Les sauts sont représentés par des variables aléatoires, gamma sigma Z_1 et Z_2, suivant une distribution de Poisson. L'estimation de ces paramètres est effectuée en utilisant l'estimation du maximum de vraisemblance par l'algorithme EM.

La vidéo aborde ensuite le sujet de la sélection des modèles et des critères. Différents critères de sélection de modèles sont discutés pour déterminer le modèle le plus approprié pour un ensemble de données donné. Le critère d'information d'Akaike (AIC) est présenté comme une mesure de l'adéquation d'un modèle aux données, pénalisant les modèles en fonction du nombre de paramètres. Le critère d'information de Bayes (BIC) est similaire mais introduit une pénalité logarithmique pour les paramètres ajoutés. Le critère de Hannan-Quinn fournit une pénalité intermédiaire entre les termes logarithmiques et linéaires. Ces critères aident à sélectionner le modèle optimal pour la modélisation de la volatilité.

Ensuite, la vidéo aborde le test de Dickey-Fuller, qui est un outil précieux pour évaluer si une série chronologique est cohérente avec une marche aléatoire simple ou présente une racine unitaire. Le conférencier explique l'importance de ce test dans la détection de processus non stationnaires, ce qui peut poser des problèmes lors de l'utilisation de modèles ARMA. Les problèmes associés à la modélisation de processus non stationnaires à l'aide de modèles ARMA sont mis en évidence et des stratégies pour résoudre ces problèmes sont discutées.

La vidéo se termine par la présentation d'une application des modèles ARMA à un exemple concret. Le conférencier démontre comment la modélisation de la volatilité peut être appliquée dans la pratique et comment les modèles ARMA peuvent capturer la volatilité dépendante du temps. L'exemple sert à illustrer la pertinence pratique et l'efficacité des techniques de modélisation de la volatilité.

En résumé, cette vidéo fournit un aperçu complet de la modélisation de la volatilité, couvrant les concepts des modèles ARMA, le test Dickey-Fuller, les critères de sélection des modèles et les applications pratiques. En explorant ces sujets, la vidéo offre un aperçu des complexités et des stratégies impliquées dans la modélisation et la prévision de la volatilité dans divers domaines, tels que les marchés financiers.

  • 00:00:00 L'auteur discute du modèle de volatilité et comment il peut aider à l'estimation d'un modèle statistique. L'auteur note qu'il existe divers critères de sélection de modèles qui peuvent être utilisés pour déterminer quel modèle est le mieux adapté à un ensemble de données donné.

  • 00:05:00 Le critère d'information d'Akaike est une mesure de l'adéquation d'un modèle aux données, et il pénalise les modèles d'un facteur qui dépend de la taille des paramètres du modèle. Le critère d'information de Bayes est similaire, mais a une pénalité log n pour les paramètres ajoutés. Le critère de Hannan-Quinn a une pénalité à mi-chemin entre log n et deux. Le test de Dickey-Fuller est un test pour voir si une série chronologique est cohérente avec une marche aléatoire simple.

  • 00:10:00 Cette vidéo donne un aperçu de la modélisation de la volatilité, y compris les concepts des modèles de moyenne mobile autorégressive (ARMA) et le test de Dickey-Fuller. La vidéo aborde ensuite les problèmes qui peuvent survenir lorsqu'un processus non stationnaire est modélisé à l'aide de modèles ARMA et comment traiter ces problèmes. Enfin, la vidéo fournit une application des modèles ARMA à un exemple concret.

  • 00:15:00 Cette vidéo fournit une brève introduction à la modélisation de la volatilité, y compris une discussion sur les fonctions ACF et PACF, le test Dickey-Fuller pour les racines unitaires et les diagnostics de régression.

  • 00:20:00 La volatilité est une mesure de la variabilité des prix ou des rendements sur les marchés financiers. La volatilité historique est calculée en prenant la différence entre les logs des prix sur une période de temps donnée. Les modèles de volatilité sont conçus pour capturer la volatilité dépendante du temps.

  • 00:25:00 La volatilité est une mesure de l'évolution du prix d'un titre au fil du temps. La volatilité peut être mesurée par la racine carrée de la variance de l'échantillon et peut être convertie en valeurs annualisées. La volatilité historique peut être estimée à l'aide d'approches de mesure du risque.

  • 00:30:00 Les modèles de volatilité peuvent être utilisés pour prédire les cours boursiers futurs, et le mouvement brownien géométrique est un modèle couramment utilisé. Choongbum abordera plus en détail les équations différentielles stochastiques et le calcul stochastique dans des conférences ultérieures.

  • 00:35:00 Le modèle de volatilité est un modèle mathématique qui prédit le prix d'un titre au fil du temps. Le modèle utilise une distribution gaussienne pour calculer le prix sur une période de temps donnée. Lorsque l'échelle de temps est modifiée, le modèle doit être ajusté.

  • 00:40:00 La modélisation de la volatilité peut produire des résultats différents en fonction de la façon dont le temps est mesuré. Par exemple, sous un modèle de mouvement brownien géométrique, les rendements quotidiens sont échantillonnés à partir d'une distribution gaussienne, tandis que sous un modèle normal, les centiles de la distribution gaussienne ajustée sont tracés. Dans les deux cas, la fonction de distribution cumulative du modèle ajusté doit être centrée autour du centile réel.

  • 00:45:00 L'estimateur Garman-Klass est un modèle d'estimation de la volatilité qui prend en compte plus d'informations que les seuls cours de clôture. Il suppose que les incréments sont de un pour daily, correspondant à daily, et que l'heure de la journée à laquelle le marché s'ouvre (représentée par le petit f) est prise en compte.

  • 00:50:00 Ce modèle de volatilité calcule la variance des rendements de l'ouverture à la clôture et l'efficacité de cette estimation par rapport à l'estimation de la clôture à la clôture.

  • 00:55:00 Le modèle de volatilité est une équation différentielle stochastique qui modélise la volatilité d'un actif financier. L'article de Garman et Klass a révélé que le meilleur estimateur invariant d'échelle est une estimation qui ne change que par un facteur d'échelle, et que cet estimateur a une efficacité de 8,4.

  • 01:00:00 Cette vidéo traite de la modélisation de la volatilité, qui est un moyen de gérer l'arrivée aléatoire de chocs dans un processus de mouvement brownien. Le modèle suppose qu'il existe un processus pi de t, qui est un processus de Poisson qui compte le nombre de sauts qui se sont produits. Ces sauts sont représentés par gamma sigma Z_1 et Z_2, qui sont des variables aléatoires avec une distribution de Poisson. L'estimation du maximum de vraisemblance de ces paramètres est effectuée à l'aide de l'algorithme EM.

  • 01:05:00 La vidéo "9. Volatility Modeling" couvre l'algorithme EM et les modèles ARCH, qui sont utilisés pour modéliser la volatilité dépendante du temps. Les modèles ARCH permettent une dépendance temporelle de la volatilité, tout en maintenant les contraintes de paramètres. Ce modèle est utilisé pour estimer les taux de change euro/dollar.

  • 01:10:00 La modélisation de la volatilité est le processus d'estimation du processus sous-jacent qui détermine les cours des actions. Cela implique d'ajuster un modèle autorégressif aux résidus au carré et de tester la structure ARCH. S'il n'y a pas de structure ARCH, le modèle de régression n'aura aucune prévisibilité.

  • 01:15:00 Le modèle GARCH est une représentation simplifiée de la volatilité des rendements au carré d'un actif donné. Le modèle est capable d'ajuster assez bien les données et possède des propriétés qui suggèrent une dépendance temporelle de la volatilité.

  • 01:20:00 Cette vidéo traite des avantages de l'utilisation de modèles de volatilité par rapport à d'autres modèles de prévision. Les modèles GARCH se sont avérés particulièrement efficaces pour capturer la volatilité variable dans le temps. Le dernier jour pour s'inscrire à une excursion est mardi prochain.
9. Volatility Modeling
9. Volatility Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

10. Modèles de tarification et de risque régularisés



10. Modèles de tarification et de risque régularisés

Dans cette vidéo complète, le sujet de la tarification régularisée et des modèles de risque pour les produits de taux d'intérêt, en particulier les obligations et les swaps, est largement couvert. L'orateur commence par relever le défi de la mal-position dans ces modèles, où même de légers changements dans les entrées peuvent entraîner des sorties importantes. Pour surmonter ce défi, ils proposent l'utilisation de fonctions de base lisses et de fonctions de pénalité pour contrôler le lissage de la surface de volatilité. La régularisation de Tikhonov est introduite comme une technique qui ajoute une pénalité à l'amplitude, réduisant l'impact du bruit et améliorant la signification des modèles.

L'orateur se penche sur diverses techniques employées par les commerçants dans ce domaine. Ils discutent des techniques splines et de l'analyse en composantes principales (PCA), qui sont utilisées pour identifier les écarts sur le marché et prendre des décisions commerciales éclairées. Le concept d'obligations est expliqué, couvrant des aspects tels que les paiements périodiques, l'échéance, la valeur nominale, les obligations à coupon zéro et les obligations perpétuelles. L'importance de construire une courbe de rendement pour fixer le prix d'un portefeuille de swaps avec différentes échéances est soulignée.

Les taux d'intérêt et les modèles de tarification des obligations et des swaps sont discutés en détail. L'orateur reconnaît les limites des modèles à nombre unique pour prédire les variations de prix et introduit le concept de swaps et la façon dont les commerçants citent les niveaux d'offre et d'offre pour le taux de swap. La construction d'une courbe de rendement pour la tarification des swaps est expliquée, ainsi que la sélection des instruments d'entrée pour les types d'étalonnage et de spline. Le processus de calibrage des swaps à l'aide d'une spline cubique et de vérification de leur prix au pair est démontré à l'aide d'exemples pratiques.

La vidéo explore plus en détail la courbe des taux à terme à trois mois et la nécessité d'un prix équitable qui corresponde aux observables du marché. L'accent est ensuite mis sur le trading des spreads et la détermination des instruments les plus liquides. Les défis de la création d'une courbe insensible aux changements du marché sont discutés, soulignant les coûts importants associés à de telles stratégies. La nécessité d'améliorer les modèles de couverture est abordée, avec une nouvelle formulation générale du risque de portefeuille présentée. L'analyse en composantes principales est utilisée pour analyser les modes et les scénarios de marché, permettant aux traders de se couvrir à l'aide de swaps liquides et rentables.

Les modèles de tarification et de risque régularisés sont explorés en profondeur, en soulignant les inconvénients du modèle PCA, tels que l'instabilité et la sensibilité aux valeurs aberrantes. Les avantages de la traduction du risque en chiffres plus gérables et liquides sont mis en évidence. La vidéo explique comment des contraintes et des réflexions supplémentaires sur le comportement des matrices de risque peuvent améliorer ces modèles. L'utilisation de B-splines, de fonctions de pénalité, de matrices L1 et L2 et de la régularisation de Tikhonov est discutée comme moyen d'améliorer la stabilité et de réduire les erreurs de tarification.

Le conférencier aborde les défis de l'étalonnage d'une surface de volatilité, en fournissant un aperçu des problèmes sous-déterminés et des solutions instables. La représentation de la surface sous forme de vecteur et l'utilisation de combinaisons linéaires de fonctions de base sont expliquées. Le concept de mal-position est revisité, et l'importance de contraindre les sorties à l'aide de fonctions de base lisses est soulignée.

Diverses techniques et approches sont couvertes, y compris la décomposition en valeurs singulières tronquées (SVD) et les fonctions d'ajustement à l'aide de techniques splines. L'interprétation des graphiques d'interpolation et leur application dans le calibrage et l'arbitrage des écarts de marché sont expliquées. Les swaptions et leur rôle dans la modélisation de la volatilité sont discutés, ainsi que les opportunités qu'ils présentent pour les traders.

La vidéo se termine en soulignant la pertinence des modèles de tarification et de risque régularisés pour identifier les anomalies du marché et faciliter des décisions commerciales éclairées. Il met l'accent sur la liquidité des obligations et l'utilisation de swaps pour construire des courbes, tout en reconnaissant également le recours aux modèles PCA en l'absence d'une courbe stable. Dans l'ensemble, la vidéo fournit une compréhension complète des modèles de tarification et de risque régularisés pour les produits de taux d'intérêt, dotant les téléspectateurs de connaissances précieuses dans ce domaine.

  • 00:00:00 Dans cette section, le Dr Ivan Masyukov, conférencier invité de Morgan Stanley, discute des modèles de tarification et de risque régularisés pour les produits de taux d'intérêt, ce qui implique l'ajout de contraintes supplémentaires, également appelées régularisateurs, au modèle. La conférence commence par une explication des obligations, l'un des produits de taux d'intérêt les plus simples du marché, et couvre leurs paiements périodiques, leur échéance et leur valeur nominale. Les obligations à coupon zéro, qui ne rapportent rien jusqu'à l'échéance, et les obligations perpétuelles, qui offrent un paiement infini, sont également abordées. La conférence se termine par l'explication du diagramme de flux de trésorerie utilisé pour l'analyse, avec des flèches vertes indiquant quelque chose de reçu et des flèches rouges indiquant quelque chose de payé.

  • 00:05:00 Dans cette section, le concept de valeur temporelle de l'argent est introduit, où plus un flux de trésorerie est futur, plus le facteur d'actualisation est petit, ce qui entraîne une dépréciation. Une juste valeur des flux de trésorerie calculés peut être trouvée si nous avons des facteurs d'actualisation, qui peuvent être représentés à l'aide d'un modèle d'actualisation. Un modèle simple utilisant un paramètre, le rendement à l'échéance, est discuté. Le prix d'une obligation peut être représenté comme une combinaison linéaire des flux de trésorerie futurs, et le rendement de l'obligation peut être trouvé en le résolvant si le prix de l'obligation est connu, ou vice versa.

  • 00:10:00 Dans cette section, le concept de tarification des obligations par rapport au rendement est discuté. La valeur économique des obligations réside dans le prix des obligations et les flux de trésorerie. Le rendement corrèle les flux de trésorerie futurs avec le prix des obligations et suppose une actualisation constante à tous les moments, cependant, il peut ne pas toujours être optimal. La sensibilité du prix de l'obligation au rendement et son évolution avec le marché sont essentielles pour déterminer la durée d'une obligation. La durée d'une obligation est une formule de somme pondérée du temps et proportionnelle aux valeurs actuelles des flux de trésorerie futurs. La relation entre le rendement et le prix des obligations a un signe négatif et la durée d'une obligation à coupon zéro est égale à l'échéance, tandis que la durée des obligations à coupon régulier est inférieure à l'échéance. Le modèle de duration des obligations suppose que tous les taux évoluent de manière parallèle.

  • 00:15:00 Dans cette section, l'orateur discute des taux d'intérêt et des modèles de tarification des obligations et des swaps. Ils reconnaissent qu'un modèle à nombre unique pourrait ne pas être suffisant pour prédire les variations de prix et suggèrent d'utiliser des dérivées secondes pour tenir compte des pertes inexpliquées. En ce qui concerne les swaps, l'orateur explique comment les traders citent les niveaux d'offre et d'offre pour la quantité la plus importante d'un swap, le taux de swap, en utilisant la valeur actuelle des flux de trésorerie fixes et flottants. Ils notent également que la conclusion d'un swap ne nécessite aucun échange d'argent et que le taux fixe est fixé de manière à ce que la valeur actuelle des flux de trésorerie fixes moins flottants soit nette à zéro.

  • 00:20:00 Dans cette section, le concept de taux de swap en tant que somme pondérée des taux à terme est expliqué, les pondérations étant déterminées par des facteurs d'actualisation. La vidéo explique la nécessité de construire une courbe de rendement pour évaluer un portefeuille entier de swaps avec différentes échéances, ainsi que le processus de sélection des instruments d'entrée pour l'étalonnage et le type de spline. La dernière étape consiste à ajuster les points de contrôle pour s'assurer que lorsque les instruments sont réévalués à l'aide de l'objet mathématique, les résultats correspondent aux prix du marché.

  • 00:25:00 Dans cette section, Ivan Masyukov explique comment une spline cubique est utilisée pour construire une courbe lisse, dans laquelle la forme fonctionnelle de la forme de la courbe est un polynôme cubique, tout en maintenant le nombre maximum de dérivées pour chaque nœud indiquer. Les B-splines sont introduites en tant que nouveau type de spline qui peut être représentée comme une combinaison linéaire de fonctions de base, permettant de représenter n'importe quelle courbe avec ces points de nœud. Masyukov explique ensuite comment calibrer les swaps à l'aide d'un solveur pour s'assurer qu'ils se réévaluent au pair. Ceci est démontré à l'aide de l'exemple des instruments de courbe de rendement et des swaps IRS avec des échéances de un à 30 ans et des cotations de 0,33 % à 2,67 %.

  • 00:30:00 Dans cette section, Ivan Masyukov explique comment la courbe du taux à terme à trois mois, qui est principalement déterminée par le taux LIBOR pour la fréquence de paiement à trois mois sur la jambe flottante du swap de taux d'intérêt standard en USD, est pas plat et raide pendant les cinq premières années et atteint un plateau plus tard avec une certaine caractéristique dans la région de 20 ans. Comme la courbe ne peut pas être obtenue en supposant qu'il n'y a qu'un seul paramètre de rendement pour tout, ils ont besoin d'un terme supplémentaire pour obtenir un prix équitable et correspondre aux observables du marché. Le terme supplémentaire sera une petite correction de la courbe de rendement plutôt qu'une hypothèse approximative selon laquelle la courbe est plate. Cette approche est préférable pour disposer d'un modèle cohérent pour les obligations et les swaps dans notre portefeuille et pour comprendre la liquidité des obligations et les écarts de crédit.

  • 00:35:00 Dans cette section, l'accent est mis sur la manière dont les spreads sont négociés et sur les instruments considérés comme les plus liquides. Il est révélé que l'obligation est l'option la plus liquide, tandis que l'écart entre le swap à dix ans et l'obligation est la deuxième option la plus liquide. Ce changement mérite d'être fiable lors de la création d'une courbe, car un petit changement dans les intrants peut entraîner de grandes variations dans les sorties, ce qui préoccupe les commerçants. Une situation typique est celle dans laquelle un trader souhaiterait que la valeur de son modèle soit insensible aux variations du marché, pour cela il devrait acheter autant de swaps à un an que plus 200, autant de swaps à deux ans que moins 1.3, et ainsi de suite. Cependant, cela pourrait être coûteux, coûtant environ 3,6 millions de dollars, et proportionnel à l'offre d'achat d'instruments particuliers.

  • 00:40:00 Dans cette section, la nécessité d'un meilleur modèle de couverture est discutée, car la méthode actuelle de couverture pour les commerçants n'est pas efficace. Une nouvelle formulation générale du risque de portefeuille est présentée, caractérisée par les vecteurs de risque de portefeuille, le portefeuille de couverture et les pondérations de ce portefeuille. L'analyse en composantes principales est utilisée pour aborder le problème et analyser les modes et scénarios typiques du marché, dans lesquels les traders choisissent des swaps liquides et bon marché pour se couvrir. Un graphique des principales composantes typiques est présenté, le comportement principal du marché étant que les taux ne bougent pas actuellement, mais qu'ils bougeront à l'avenir en raison de la stimulation de la Réserve fédérale.

  • 00:45:00 Dans cette section, l'orateur discute des modèles de tarification et de risque régularisés, en particulier des inconvénients du modèle PCA. Le modèle PCA est formulé à l'aide d'instruments de couverture pour éliminer le besoin de minimiser, mais les coefficients ne sont pas très stables, en particulier pour les modes récents sur le marché. De plus, le modèle est sensible aux valeurs aberrantes et peut entraîner un surajustement des données historiques, ce qui rend risqué de supposer qu'elles fonctionneront pour l'avenir. Les avantages du modèle incluent la capacité de traduire le risque en nombres moins nombreux et plus liquides qui sont des ordres de grandeur plus petits qu'auparavant, permettant aux traders de prendre des décisions éclairées.

  • 00:50:00 Dans cette section, la vidéo parle de la tarification régularisée et des modèles de risque, et de la manière dont l'imposition de contraintes ou de réflexions supplémentaires sur le comportement des matrices de risque peut améliorer la situation. L'orateur explique l'interprétation PCA de la matrice des risques et comment il s'agit d'une combinaison linéaire de composantes principales, produisant un déplacement sur un instrument de couverture à la fois. Ils discutent également d'une approche qui va au-delà des données historiques et construit des courbes de rendement en termes de taux à terme pour minimiser le non-lissage en pénalisant les équations où le jacobien est une matrice traduisant les déplacements des entrées de la courbe de rendement. La vidéo met également en évidence le fonctionnement du moteur de tarification et du processus d'étalonnage à l'aide du modèle HJM pour évaluer la volatilité.

  • 00:55:00 Dans cette section, l'orateur explique les équations d'évolution des taux à terme nécessaires à la simulation de Monte Carlo, où les taux à terme sont la quantité qui est assimilée. L'orateur discute de la dérive des taux à terme, qui dépend dans une certaine mesure des taux à terme à la puissance du bêta. La surface de volatilité est introduite, qui donne le nombre de volatilité à utiliser pour le calendrier et le temps à venir, et la corrélation et la structure factorielle sont brièvement mentionnées. L'orateur explique que la surface triangulaire est utilisée pour la volatilité de la transition pour chaque flèche et montre un exemple de surface de volatilité. Le problème réside dans le calcul de la matrice triangulaire, qui a une dimension de 240 sur 240, a nécessité jusqu'à 60 ans de données, ce qui en fait une tâche difficile.

  • 01:00:00 Dans cette section de la vidéo, l'orateur explique comment aborder la question du calibrage d'une surface de volatilité. Comme le nombre d'éléments à calibrer est important, une solution formelle stockant une matrice de 28K par 28K n'est pas pratique. De plus, comme il y a moins d'instruments d'étalonnage que d'éléments à étalonner, c'est un problème sous-déterminé qui produit des solutions instables. Pour résoudre ce problème, ils représentent la surface sous forme de vecteur et utilisent une combinaison linéaire de fonctions de base qui correspond à des fonctions raisonnables avec le même nombre de fonctions de base que les instruments d'entrée. Bien qu'il soit parfaitement calibré, la surface résultante ressemble moins à une surface de volatilité qu'à la ligne d'horizon de Manhattan avec la rivière Hudson et les formes des bâtiments. Cette approche est couramment utilisée mais produit des résultats instables.

  • 01:05:00 Dans cette section de la vidéo, l'orateur aborde la question de la mauvaise pose dans les modèles de tarification et de risque, ce qui signifie que de petits changements dans les intrants peuvent entraîner des changements drastiques dans les sorties. Pour résoudre ce problème, ils suggèrent de mettre des contraintes sur les sorties en utilisant des fonctions de base qui sont lisses au départ, telles que les B-splines, et d'utiliser des fonctions de pénalité pour contrôler le changement et le lissage de la surface de volatilité. Ce faisant, ils peuvent produire des résultats significatifs sans avoir à calibrer exactement chaque instrument d'entrée. L'orateur démontre comment les fonctions de base peuvent être construites en deux dimensions et combinées à l'aide de combinaisons linéaires.

  • 01:10:00 Dans cette section, l'orateur aborde le concept de tarification régularisée et les modèles de risque. L'orateur explique que les matrices L1 et L2 composées de valeurs de 1 et -1 peuvent être utilisées pour pénaliser le gradient d'un vecteur si une approche de lissage est souhaitée. Pour résoudre un problème mal posé où un petit bruit et des modes insignifiants peuvent provoquer des changements substantiels dans la sortie, la technique de régularisation de Tikhonov peut être utilisée. La technique consiste à ajouter une pénalité à l'amplitude pour réduire l'impact du bruit. L'orateur souligne que, comme il y a toujours une incertitude dans les chiffres calibrés et que le modèle n'est pas toujours parfait, une régularisation est nécessaire pour minimiser les erreurs de tarification.

  • 01:15:00 Dans cette section, le concept de modèles de tarification et de risque régularisés est abordé. La régularisation de Tikhonov est introduite comme méthode pour améliorer la stabilité des problèmes mal conditionnés. En pénalisant l'amplitude ou une combinaison linéaire de la solution, la régularisation peut fournir un résultat plus significatif et réaliste, mais éventuellement avec une solution biaisée. La SVD tronquée est une autre approche qui peut être utilisée pour sélectionner uniquement les valeurs singulières significatives, ce qui donne un modèle plus robuste. La clé est d'identifier et de pénaliser la quantité spécifique qui doit être régularisée, plutôt que d'appliquer aveuglément une approche de manuel.

  • 01:20:00 Dans cette section, Ivan Masyukov répond aux questions du public sur les techniques utilisées pour ajuster les fonctions, en particulier les techniques splines. Il explique qu'une spline ou une interpolation est utilisée lorsqu'il y a un nombre limité d'entrées et que vous souhaitez dessiner entre les deux. Il discute également de l'interprétation du graphique d'interpolation et de la manière dont les traders l'utilisent pour calibrer et arbitrer les écarts qu'ils constatent. De plus, il explique comment les swaptions sont utilisées dans la modélisation de la volatilité et comment les traders effectuent des transactions à partir des écarts qu'ils constatent.

  • 01:25:00 Dans cette section, l'orateur discute des modèles de tarification et de risque régularisés utilisés par les commerçants du marché pour trouver des anomalies sur le marché et en tirer parti par le biais de transactions. Ces modèles peuvent intégrer des entrées telles que des hypothèses de lissage sur les taux à terme ou des combinaisons d'analyses en composantes principales (ACP). Bien que les obligations soient l'instrument le plus liquide du marché, elles ne sont pas négociées en continu, ce qui rend les swaps plus adaptés à la construction d'une courbe. Une fois la courbe des swaps construite, les traders obligataires l'utilisent pour se couvrir car les obligations sont plus liquides que les swaps. Cependant, les traders qui négocient uniquement des obligations s'appuient souvent sur des modèles PCA ou d'autres méthodes en raison de l'absence de courbe stable.
10. Regularized Pricing and Risk Models
10. Regularized Pricing and Risk Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Ivan MasyukovThis...
 

11. Analyse des séries chronologiques II


11. Analyse des séries chronologiques II

Cette vidéo se penche sur divers aspects de l'analyse des séries chronologiques, en s'appuyant sur la discussion de la conférence précédente sur la modélisation de la volatilité. Le professeur commence par présenter les modèles GARCH, qui offrent une approche flexible pour mesurer la volatilité des séries chronologiques financières. L'utilisation de l'estimation du maximum de vraisemblance en conjonction avec les modèles GARCH est explorée, ainsi que l'utilisation des distributions t comme alternative pour modéliser les données de séries chronologiques. L'approximation des distributions t avec des distributions normales est également discutée. Passant aux séries temporelles multivariées, le cours couvre les théorèmes de covariance croisée et de décomposition de Wold. L'orateur explique comment les processus vectoriels autorégressifs simplifient les modèles de séries chronologiques d'ordre supérieur en modèles de premier ordre. En outre, le calcul de la moyenne pour les processus VAR stationnaires et leur représentation sous la forme d'un système d'équations de régression sont discutés.

Le cours approfondit ensuite le modèle de régression multivariée pour l'analyse des séries chronologiques, en mettant l'accent sur sa spécification par le biais de modèles de régression univariés distincts pour chaque série de composants. Le concept d'opérateur de vectorisation est introduit, démontrant son utilité pour transformer le modèle de régression multivariée en une forme de régression linéaire. Le processus d'estimation, y compris l'estimation du maximum de vraisemblance et les critères de sélection du modèle, est également expliqué. La conférence se termine en présentant l'application de modèles vectoriels d'autorégression dans l'analyse de données de séries chronologiques liées à la croissance, à l'inflation, au chômage et à l'impact des politiques de taux d'intérêt. Les fonctions de réponse impulsionnelle sont utilisées pour comprendre les effets des innovations dans une composante de la série chronologique sur d'autres variables.

De plus, la poursuite de la modélisation de la volatilité de la conférence précédente est abordée. Des modèles ARCH, qui permettent une volatilité variable dans le temps dans les séries chronologiques financières, sont définis. Le modèle GARCH, une extension du modèle ARCH avec des paramètres supplémentaires, est mis en avant pour ses avantages par rapport au modèle ARCH, offrant une plus grande flexibilité dans la modélisation de la volatilité. Le conférencier souligne que les modèles GARCH supposent des distributions gaussiennes pour les innovations dans la série de retour.

En outre, la mise en œuvre des modèles GARCH utilisant l'estimation du maximum de vraisemblance est explorée. Le modèle ARMA pour les résidus au carré peut être exprimé comme un retard polynomial d'innovations pour mesurer la variance conditionnelle. La racine carrée de la variance à long terme est déterminée en s'assurant que les racines de l'opérateur se trouvent à l'extérieur du cercle unité. L'estimation du maximum de vraisemblance consiste à établir la fonction de vraisemblance en fonction des données et des paramètres inconnus, la fonction de densité conjointe étant représentée comme le produit des attentes conditionnelles successives de la série chronologique. Ces densités conditionnelles suivent des distributions normales.

Les défis associés à l'estimation des modèles GARCH, principalement dus aux contraintes sur les paramètres sous-jacents, sont discutés. Pour optimiser une fonction convexe et trouver son minimum, il est nécessaire de transformer les paramètres dans une plage sans limitation. Après ajustement du modèle, les résidus sont évalués à l'aide de divers tests pour évaluer la normalité et analyser les irrégularités. Un package R appelé rugarch est utilisé pour ajuster le modèle GARCH pour le taux de change euro-dollar, en utilisant un terme GARCH normal après ajustement du processus moyen pour les rendements du taux de change. L'ordre du processus autorégressif est déterminé à l'aide du critère d'information d'Akaike, et un tracé quantile-quantile normal des résidus autorégressifs est produit pour évaluer le modèle.

Le conférencier met également en évidence l'utilisation des distributions t, qui offrent une distribution à queue plus lourde par rapport aux distributions gaussiennes, pour la modélisation des données de séries chronologiques. Les modèles GARCH avec des distributions t peuvent estimer efficacement la volatilité et calculer les limites de valeur à risque. La distribution t est une bonne approximation d'une distribution normale, et le conférencier encourage l'exploration de différentes distributions pour améliorer la modélisation des séries chronologiques. De plus, l'approximation des distributions t avec des distributions normales est discutée. La distribution t peut être considérée comme une approximation raisonnable d'une distribution normale lorsqu'elle a 25 à 40 degrés de liberté. Le conférencier présente un graphique comparant les fonctions de densité de probabilité d'une distribution normale standard et d'une distribution t standard à 30 degrés de liberté, démontrant que les deux distributions sont similaires mais diffèrent par les queues.

Dans la conférence, le professeur continue d'expliquer l'analyse des données de séries chronologiques à l'aide de modèles vectoriels d'autorégression (VAR). L'accent est mis sur la compréhension de la relation entre les variables et l'impact des innovations sur les variables d'intérêt. Pour analyser les relations entre les variables dans un modèle VAR, la fonction d'autocorrélation multivariée (ACF) et la fonction d'autocorrélation partielle (PACF) sont utilisées. Ces fonctions capturent les décalages croisés entre les variables et donnent un aperçu des interactions dynamiques entre elles. En examinant l'ACF et le PACF, on peut identifier les retards significatifs et leurs effets sur les variables. De plus, les fonctions de réponse impulsionnelle (IRF) sont utilisées pour comprendre les effets des innovations sur les variables au fil du temps. Une innovation fait référence à un choc ou à un changement inattendu de l'une des variables. Les FRI illustrent comment les variables réagissent à une innovation dans une composante de la série chronologique multivariée. Cette analyse aide à comprendre la propagation et l'ampleur des chocs dans l'ensemble du système.

Par exemple, si une innovation dans le taux de chômage se produit, les IRF peuvent montrer comment ce choc affecte d'autres variables telles que le taux des fonds fédéraux et l'indice des prix à la consommation (IPC). L'ampleur et la durée de la réponse peuvent être observées, ce qui donne un aperçu des interdépendances et des effets d'entraînement au sein du système. En plus des IRF, d'autres mesures statistiques telles que la décomposition de la variance de l'erreur de prévision (FEVD) peuvent être utilisées. La FEVD décompose la variance de l'erreur de prévision de chaque variable en contributions de ses propres chocs et des chocs d'autres variables. Cette analyse permet de quantifier l'importance relative des différents chocs dans la conduite de la variabilité de chaque variable. En utilisant des modèles VAR et en analysant l'ACF, le PACF, les IRF et le FEVD, les chercheurs peuvent acquérir une compréhension globale des relations et de la dynamique au sein d'une série chronologique multivariée. Ces informations sont précieuses pour les prévisions, l'analyse des politiques et la compréhension des interactions complexes entre les variables économiques.

En résumé, la conférence met l'accent sur l'application des modèles VAR pour analyser les données de séries chronologiques. Il met en évidence l'utilisation de l'ACF et du PACF pour capturer les décalages croisés, des IRF pour examiner l'impact des innovations et du FEVD pour quantifier les contributions des différents chocs. Ces techniques permettent une compréhension plus approfondie des relations et de la dynamique au sein de séries chronologiques multivariées, facilitant des prévisions précises et la prise de décision politique.

  • 00:00:00 Dans cette section, le professeur discute de la poursuite de la modélisation de la volatilité dans le cours précédent en abordant la définition des modèles ARCH qui admettent une volatilité variable dans le temps dans les séries temporelles financières. Le modèle GARCH, une extension du modèle ARCH via des paramètres supplémentaires, présente de nombreux autres avantages par rapport au modèle ARCH et comporte moins de paramètres. En ajoutant le paramètre supplémentaire qui relie la volatilité actuelle à la valeur passée ou décalée, le modèle GARCH peut être flexible dans la modélisation de la volatilité. La limite inférieure de la volatilité est présente dans le modèle ARCH, ce qui fait que ce modèle a une limite inférieure dure, tandis que les modèles GARCH ont un avantage beaucoup plus flexible pour prédire les niveaux de volatilité. Il convient de noter que dans ces ajustements, nous supposons des distributions gaussiennes pour les innovations dans la série de retour.

  • 00:05:00 Dans cette section, le sujet est les modèles GARCH et leur mise en œuvre à l'aide de l'estimation du maximum de vraisemblance. Avec les modèles GARCH, nous pouvons mesurer la volatilité et exprimer le modèle ARMA pour les carrés des résidus sous la forme d'un retard polynomial des innovations. Pour la variance conditionnelle, nous pouvons déterminer la racine carrée de la variance à long terme en exigeant que les racines de l'opérateur aient des racines à l'extérieur du cercle unitaire. L'estimation du maximum de vraisemblance nécessite de déterminer la fonction de vraisemblance des données compte tenu des paramètres inconnus, et la fonction de densité conjointe peut être exprimée comme le produit des attentes conditionnelles successives de la série chronologique. Ces densités conditionnelles sont des variables aléatoires normales.

  • 00:10:00 Dans cette section, l'orateur discute du défi d'estimer les modèles GARCH en raison des contraintes sur les paramètres sous-jacents, qui doivent être appliquées. Afin d'optimiser une fonction convexe et de trouver le minimum d'une fonction convexe, les méthodes d'optimisation fonctionnent bien et il est nécessaire de transformer les paramètres à une échelle où leur plage est illimitée. Après avoir ajusté le modèle, les résidus doivent être évalués avec divers tests de normalité et en analysant l'ampleur des irrégularités. Avec le package R appelé rugarch, le modèle GARCH pour le taux de change euro-dollar avec un terme GARCH normal est choisi et ajusté après ajustement du processus moyen pour les rendements du taux de change. Afin d'évaluer le modèle, le processus autorégressif est ajusté en utilisant le critère d'information d'Akaike pour choisir l'ordre du processus autorégressif et produire un tracé qq normal de résidus autorégressifs.

  • 00:15:00 Dans cette section, le présentateur discute de l'utilisation d'une distribution à queue plus lourde, en particulier la distribution t, pour modéliser des données de séries chronologiques. Par rapport à une distribution gaussienne, la distribution t s'adapte mieux aux valeurs hautes et basses des résidus. Le présentateur montre comment les modèles GARCH avec des distributions t peuvent estimer la volatilité de la même manière que les modèles GARCH avec des distributions gaussiennes, et ils peuvent être utilisés pour calculer la valeur à risque. Dans l'ensemble, la distribution t peut être une bonne approximation d'une distribution normale, et le présentateur encourage l'exploration de différentes distributions pour mieux modéliser les données de séries chronologiques.

  • 00:20:00 Dans cette section, le professeur discute de l'approximation de la distribution t avec une distribution normale. En règle générale, une distribution t peut être considérée comme une bonne approximation d'une distribution normale avec 25 à 40 degrés de liberté. Le professeur montre un graphique comparant les fonctions de densité de probabilité pour une distribution normale standard et une distribution t standard avec 30 degrés de liberté. Le graphique montre que les deux distributions sont très proches mais diffèrent dans les queues de la distribution. La distribution t a des distributions de queue plus lourdes qu'une distribution normale. Le professeur discute également du regroupement de la volatilité et de la capacité du modèle GARCH à le gérer. De plus, le professeur note que les rendements ont des queues plus lourdes que les distributions gaussiennes, et les devoirs expliquent comment le modèle GARCH peut gérer cela.

  • 00:25:00 Dans cette section, le modèle GARCH et son utilité pour modéliser des séries chronologiques financières sont discutés. Le modèle GARCH est approprié pour modéliser des séries chronologiques stationnaires de covariance, où la mesure de la volatilité est une mesure du rendement excédentaire au carré et est essentiellement un processus stationnaire de covariance avec une moyenne à long terme. Les modèles GARCH sont excellents pour décrire la volatilité par rapport à la moyenne à long terme et, en termes d'utilité pour la prédiction, ils prédisent que la volatilité reviendra à la moyenne à un certain rythme. La vitesse à laquelle la volatilité revient est donnée par le paramètre de persistance, qui peut être mesuré par alpha_1 plus beta_1. Plus alpha_1 plus beta_1 est grand, plus la volatilité est persistante. Il existe de nombreuses extensions des modèles GARCH, et dans le sujet suivant, les séries chronologiques multivariées, le théorème de représentation multivariée de Wold sera discuté.

  • 00:30:00 Dans cette section, nous découvrons les séries chronologiques multivariées, qui impliquent l'extension des séries chronologiques univariées pour modéliser plusieurs variables qui changent au fil du temps. Nous étendons la définition de la stationnarité de la covariance aux moments finis et bornés du premier et du second ordre, où une variable aléatoire valuée à M dimensions est traitée comme M séries temporelles différentes. Pour la matrice de variance-covariance de la t-ième observation du processus multivarié, nous définissons gamma_0, qui est la valeur attendue de X_t moins mu fois X_t moins mu premier. La matrice de corrélation, r_0, est alors obtenue en multipliant pré et post la matrice de covariance gamma_0 par une matrice diagonale avec les racines carrées de la diagonale de cette matrice.

  • 00:35:00 Dans cette section, le concept de matrices de covariance croisée a été introduit, qui examine comment les valeurs actuelles d'une série chronologique multivariée covarient avec le k-ième décalage de ces valeurs. Gamma_k, les valeurs vectorielles de la période actuelle, est covariée avec le k-ième décalage de ces valeurs. Les propriétés de ces matrices ont été expliquées, la diagonale de gamma_0 étant la matrice de covariance des entrées diagonales des variances. L'existence du théorème de décomposition de Wold, un théorème avancé, a également été mentionné, qui étend le théorème de décomposition de Wold univarié. Ce théorème est utile pour identifier les jugements de causalité entre les variables dans les séries chronologiques économiques.

  • 00:40:00 Dans cette section, le concept de représentation de la décomposition de Wold pour un processus stationnaire de covariance est introduit. Le processus est représenté comme la somme d'un processus déterministe et d'un processus moyen mobile d'un bruit blanc. Dans un cas multivarié, le processus déterministe peut être une tendance linéaire ou exponentielle, et le processus de bruit blanc est un vecteur m-dimensionnel avec une moyenne de 0 et une matrice de variance/covariance semi-définie positive. L'innovation est la perturbation du processus modélisé qui ne peut pas être prédite par des informations antérieures. La somme des termes de la matrice de covariance doit converger pour que le processus soit stationnaire en covariance.

  • 00:45:00 Dans cette section, la décomposition de Wold est décrite comme un moyen de représenter les éléments d'information qui affectent le processus et qui n'étaient pas disponibles auparavant. La section passe ensuite à l'examen des processus vectoriels autorégressifs, qui modélisent la façon dont une composante donnée de la série multivariée dépend d'autres variables ou composantes de la série multivariée. Le concept de ré-expression d'un processus d'ordre p en tant que processus de premier ordre avec autorégressions vectorielles est ensuite expliqué, qui est une technique puissante utilisée dans les méthodes de séries chronologiques pour simplifier l'analyse de modèles complexes.

  • 00:50:00 Dans cette section, l'orateur discute de la représentation d'un processus stochastique multivarié à l'aide de vecteurs Z_t et Z_(t-1) et comment il peut être transformé en un modèle de série chronologique de premier ordre avec une série multivariée plus grande. Le processus est stationnaire si toutes les valeurs propres de la matrice compagnon A ont un module inférieur à 1, ce qui garantit que le processus n'aura pas de comportement explosif lorsqu'il incrémentera dans le temps. Cette exigence est la même que toutes les racines de l'équation polynomiale étant à l'extérieur du cercle unité. L'ordre du polynôme n'est pas mentionné dans cet extrait.

  • 00:55:00 Dans cette section, l'accent est mis sur le calcul de la moyenne du processus VAR stationnaire en prenant les attentes des deux côtés de l'équation. La moyenne inconditionnelle du processus est obtenue en résolvant pour mu de la deuxième ligne à la troisième ligne. Le modèle vectoriel d'autorégression est exprimé sous la forme d'un système d'équations de régression, composé de m modèles de régression correspondant à chaque composante de la série multivariée. Le m-ième modèle de régression modélise la j-ième colonne de la matrice comme Z beta j et epsilon j, où Z est un vecteur de valeurs décalées du processus multivarié. Le calcul suppose que p observations de pré-échantillon sont disponibles.

  • 01:00:00 Dans cette section, l'orateur explique le modèle de régression multivariée pour l'analyse des séries chronologiques. Le modèle consiste en un modèle de régression linéaire sur les retards de toute la série multivariée jusqu'à p retards avec leur paramètre de régression donné par βj, qui correspond aux différents éléments des matrices phi. L'orateur définit le modèle de régression multivariée et explique comment le spécifier en considérant le modèle de régression univariée pour chaque série de composants séparément. Ceci est lié à des régressions apparemment sans rapport en économétrie.

  • 01:05:00 Dans cette section du cours, le professeur discute des méthodes d'estimation des paramètres d'une régression linéaire et comment estimer les variances et les covariances des termes d'innovation. Le processus consiste à appliquer des méthodes d'estimation simples pour le paramètre d'une régression linéaire, puis à estimer les variances/covariances du terme d'innovation. Un résultat significatif est que ces régressions par composante sont également l'estimation optimale pour la régression multivariée. Les opérateurs de produit de Kronecker sont utilisés dans cette théorie, qui s'applique aux opérateurs vec qui prennent une matrice et empilent les colonnes ensemble.

  • 01:10:00 Dans cette section, le concept d'opérateur de vectorisation est introduit et son utilisation dans la manipulation de termes sous une forme plus pratique est expliquée. Le modèle de régression multivariée est établi à l'aide d'une structure matricielle et est exprimé en termes de forme de régression linéaire. En vectorisant la matrice bêta, epsilon et y, on peut définir la fonction de vraisemblance dans l'estimation du maximum de vraisemblance avec ces modèles. Les paramètres inconnus bêta étoile, sigma, qui sont égaux à la densité jointe de ce modèle de régression linéaire normal, correspondent à ce qui était précédemment utilisé dans l'analyse de régression avec une définition plus compliquée de la matrice des variables indépendantes X étoile et de la matrice de variance/covariance sigma étoile.

  • 01:15:00 Dans cette section, le concept de log-vraisemblance concentrée est discuté et il est révélé que l'estimation du paramètre de régression bêta est indépendante de la matrice de covariance sigma. Cela permet la concentration de la fonction de vraisemblance, qui doit être maximisée lors de l'estimation de la matrice de covariance. La maximisation se fait par le logarithme d'un déterminant d'une matrice moins n sur 2 la trace de cette matrice fois une estimation de celle-ci. De plus, des critères de sélection de modèles tels que le critère d'information d'Akaike, le critère d'information de Bayes et le critère de Hannan-Quinn peuvent être appliqués. Enfin, un exemple d'ajustement d'autorégressions vectorielles avec des variables macroéconomiques est présenté, démontrant l'importance de comprendre quels facteurs affectent l'économie en termes de croissance, d'inflation, de chômage et d'impact des politiques de taux d'intérêt.

  • 01:20:00 Dans cette section, l'orateur discute de l'utilisation de modèles vectoriels d'autorégression pour analyser les données de séries chronologiques. Les variables spécifiques étudiées sont le taux de chômage, les fonds fédéraux et l'IPC (une mesure de l'inflation). Les versions multivariées de la fonction d'autocorrélation et de la fonction d'autocorrélation partielle sont utilisées pour saisir les décalages croisés entre les variables de ces modèles. Les fonctions de réponse impulsionnelle sont ensuite utilisées pour comprendre l'impact d'une innovation dans l'une des composantes de la série temporelle multivariée sur les autres variables. Ceci est important pour comprendre le lien entre la représentation de la moyenne mobile et ces modèles de séries chronologiques.
11. Time Series Analysis II
11. Time Series Analysis II
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

12. Analyse des séries chronologiques III



12. Analyse des séries chronologiques III

Dans cette vidéo YouTube sur l'analyse des séries chronologiques, le professeur couvre une gamme de modèles et leurs applications à différents scénarios. La vidéo aborde des sujets tels que les modèles vectoriels d'autorégression (VAR), la cointégration et les modèles d'espace d'états linéaires. Ces modèles sont essentiels pour prévoir des variables telles que le chômage, l'inflation et la croissance économique en examinant les coefficients d'autocorrélation et d'autocorrélation partielle.

La vidéo commence par présenter la modélisation d'espace d'état linéaire et le filtre de Kalman, qui sont utilisés pour estimer et prévoir les modèles de séries chronologiques. La modélisation linéaire de l'espace d'état implique la mise en place d'équations d'observation et d'état pour faciliter le processus d'estimation du modèle. Le filtre de Kalman, un outil puissant, calcule la fonction de vraisemblance et fournit des termes essentiels pour l'estimation et la prévision.

Le conférencier explique ensuite comment dériver des représentations d'espace d'état pour les processus de moyenne mobile autorégressive (ARMA). Cette approche permet une représentation flexible des relations entre les variables d'une série chronologique. La vidéo met en évidence l'importance des travaux de Harvey en 1993, qui ont défini une représentation particulière de l'espace d'état pour les processus ARMA.

Ensuite, la vidéo explore l'application des modèles VAR aux variables macroéconomiques pour prévoir la croissance, l'inflation et le chômage. En analysant les coefficients d'autocorrélation et d'autocorrélation partielle, les chercheurs peuvent déterminer les relations entre les variables et identifier les modèles et les corrélations. La vidéo fournit un exemple de modèle de régression, illustrant comment le taux des fonds fédéraux peut être modélisé en fonction du taux de chômage décalé, du taux des fonds fédéraux et de l'IPC. Cet exemple révèle qu'une hausse du taux de chômage tend à entraîner une baisse du taux des Fed funds le mois suivant.

Le concept de cointégration est ensuite introduit, abordant les séries temporelles non stationnaires et leurs combinaisons linéaires. La cointégration consiste à trouver un vecteur bêta qui produit un processus stationnaire lorsqu'il est combiné avec les variables d'intérêt. La vidéo traite d'exemples tels que la structure par terme des taux d'intérêt, la parité du pouvoir d'achat et les relations au comptant et à terme. Une illustration utilisant des contrats à terme sur l'énergie, en particulier des contrats sur le pétrole brut, l'essence et le mazout, illustre le concept de cointégration.

La vidéo explore en outre l'estimation des modèles VAR et l'analyse des processus d'autorégression vectoriels cointégrés. Les travaux de Sims, Stock et Watson sont référencés, ce qui montre comment l'estimateur des moindres carrés peut être appliqué à ces modèles. L'estimation du maximum de vraisemblance et les tests de rang pour les relations de cointégration sont également mentionnés. Une étude de cas sur les données d'étalement des fissures est présentée, y compris le test de non-stationnarité à l'aide d'un test Dickey-Fuller augmenté. Ensuite, la vidéo se concentre sur les données à terme du pétrole brut et la détermination des ordres de non-stationnarité et d'intégration. La procédure de Johansen est utilisée pour tester le rang du processus cointégré. Les vecteurs propres correspondant à la relation stationnaire donnent un aperçu des relations entre les contrats à terme sur le pétrole brut, l'essence (RBOB) et le mazout.

La conférence présente ensuite les modèles d'espace d'états linéaires comme moyen d'exprimer divers modèles de séries temporelles utilisés en économie et en finance. L'équation d'état et l'équation d'observation sont expliquées, démontrant la flexibilité de ce cadre de modélisation. La vidéo illustre la représentation d'un modèle d'évaluation des immobilisations avec des bêtas variant dans le temps sous la forme d'un modèle d'espace d'état linéaire. En incorporant la dépendance temporelle dans les paramètres de régression, le modèle capture les changements dynamiques. En outre, le conférencier discute du concept de modification des paramètres de régression dans le temps, en supposant qu'ils suivent des marches aléatoires indépendantes. L'équation jointe d'espace d'état et sa mise en œuvre pour la mise à jour récursive des régressions à mesure que de nouvelles données sont ajoutées sont expliquées. Les modèles autorégressifs d'ordre P et les modèles de moyenne mobile d'ordre Q sont exprimés sous forme de modèles d'espace d'états linéaires.

La conférence se penche ensuite sur l'équation d'état et l'équation d'observation, en soulignant leur rôle dans la transition entre les états sous-jacents. La dérivation de la représentation de l'espace d'états pour les processus ARMA est explorée, mettant en évidence la flexibilité dans la définition des états et la matrice de transformation sous-jacente.
Le cours donne un aperçu de l'application des modèles d'espace d'états linéaires à l'analyse des séries temporelles. Le conférencier explique que ces modèles peuvent être utilisés pour estimer et prévoir des variables d'intérêt en incorporant à la fois des données observées et des états sous-jacents. En utilisant le filtre de Kalman, qui est un algorithme récursif, les modèles peuvent calculer la distribution conditionnelle des états en fonction des données observées, ainsi que prédire les états et observations futurs.

La conférence met l'accent sur l'importance de comprendre les composants clés des modèles d'espace d'états linéaires. L'équation d'état représente la dynamique de transition des états sous-jacents au fil du temps, tandis que l'équation d'observation relie les données observées aux états sous-jacents. Ces équations, ainsi que la distribution de l'état initial, définissent la structure du modèle.
Le conférencier discute ensuite du processus d'estimation pour les modèles d'espace d'états linéaires. L'estimation du maximum de vraisemblance est couramment utilisée pour estimer les paramètres inconnus du modèle sur la base des données observées. Le filtre de Kalman joue un rôle crucial dans ce processus en calculant la fonction de vraisemblance, qui mesure la qualité de l'ajustement entre le modèle et les données.

De plus, la conférence souligne que les modèles d'espace d'états linéaires fournissent un cadre flexible pour modéliser divers phénomènes économiques et financiers. Ils peuvent être utilisés pour exprimer des modèles autorégressifs, des modèles de moyenne mobile et même des modèles plus complexes tels que le modèle d'évaluation des immobilisations avec des bêtas variant dans le temps. Cette polyvalence fait des modèles d'espace d'états linéaires un outil précieux pour les chercheurs et les praticiens en économie et en finance. Pour illustrer davantage les applications pratiques des modèles d'espace d'états linéaires, la conférence présente une étude de cas sur les contrats à terme sur le pétrole brut. En analysant la relation entre les prix de différents contrats à terme, tels que le pétrole brut, l'essence et le mazout, l'orateur montre comment les modèles linéaires d'espace d'état peuvent être utilisés pour identifier les modèles, prévoir les prix et évaluer les risques sur le marché de l'énergie.

En résumé, la vidéo fournit un aperçu complet des modèles d'espace d'états linéaires et de leurs applications dans l'analyse des séries chronologiques. En exploitant le filtre de Kalman, ces modèles permettent aux chercheurs d'estimer et de prévoir les variables d'intérêt, de comprendre la dynamique des états sous-jacents et de saisir les relations complexes entre les variables. La conférence met l'accent sur la flexibilité et l'utilité des modèles linéaires d'espace d'états dans divers contextes économiques et financiers, ce qui en fait un outil précieux pour l'analyse empirique et la prise de décision.

  • 00:00:00 Dans cette section, le professeur présente les variables macroéconomiques qui peuvent être utilisées pour prévoir la croissance, l'inflation et le chômage dans l'économie et se concentre sur un résumé du modèle d'ajustement vectoriel d'autorégression. Les racines du polynôme caractéristique dans le modèle se sont avérées non stationnaires, ce qui indique qu'une série différente devrait être utilisée pour modéliser cela. Pour éliminer cette non-stationnarité, le professeur propose de modéliser les différences premières, ce qui peut se faire en prenant les différences de toutes les séries et en éliminant les valeurs manquantes. Le graphique affiche les propriétés de série chronologique de la série de différences, y compris les fonctions d'autocorrélation diagonale et les corrélations croisées, qui se révèlent statistiquement significatives. La fonction d'autocorrélation partielle est également discutée, ce qui implique des corrélations entre les variables et le décalage d'un autre après avoir expliqué tous les décalages de degré inférieur.

  • 00:05:00 Dans cette section, la vidéo traite de l'utilisation de modèles vectoriels autorégressifs, qui permettent aux chercheurs de modéliser les relations structurelles entre plusieurs variables macroéconomiques. L'exemple porte sur trois variables : le taux de chômage, le taux des fonds fédéraux et l'IPC. En examinant les coefficients d'autocorrélation et d'autocorrélation partielle, les chercheurs peuvent déterminer les relations entre ces variables et identifier les modèles et les corrélations. La vidéo fournit également un modèle de régression pour le taux des fonds fédéraux en fonction du taux de chômage décalé, du taux des fonds fédéraux et de l'IPC. Ce modèle indique que si le taux de chômage augmente, le taux de la Fed est susceptible de baisser le mois prochain. La vidéo souligne l'importance de comprendre le rapport signal sur bruit lors de l'estimation des paramètres autorégressifs et de l'interprétation des coefficients.

  • 00:10:00 Dans cette section de la vidéo, l'orateur introduit le concept de cointégration, qui est un sujet majeur dans l'analyse des séries chronologiques qui traite des séries chronologiques non stationnaires. La discussion commence par le contexte dans lequel la cointégration est pertinente et se concentre sur les processus stochastiques qui sont intégrés d'un certain ordre d, ce qui signifie que la dième différence est stationnaire. Alors que la prise des premières différences aboutit à la stationnarité, le processus perd de l'information, et la cointégration fournit un cadre pour caractériser systématiquement toutes les informations disponibles pour la modélisation statistique. Un processus non stationnaire peut toujours avoir une représentation vectorielle autorégressive, qui peut être exprimée comme un décalage polynomial des x égal au bruit blanc epsilon, et le réduire à la stationnarité nécessite de prendre la différence d'ordre d-ième.

  • 00:15:00 Dans cette section de la vidéo, le concept de cointégration est présenté comme un moyen de traiter les situations où des combinaisons linéaires de séries chronologiques multivariées peuvent être stationnaires, ce qui signifie qu'elles représentent les caractéristiques stationnaires du processus. La cointégration consiste à trouver un vecteur bêta tel que les poids linéaires sur les x et le bêta premier X_t soient un processus stationnaire. Le vecteur de cointégration peut être mis à l'échelle arbitrairement, mais il est courant de fixer la première série de composants du processus égale à 1. Cette relation se présente de plusieurs façons en économie et en finance, y compris la structure par terme des taux d'intérêt, la parité du pouvoir d'achat, la demande de monnaie , couvraient la parité des taux d'intérêt, la loi du prix unique, le comptant et les contrats à terme. Un exemple de contrats à terme énergétiques est donné pour illustrer le concept.

  • 00:20:00 Dans cette section, le professeur discute d'une série chronologique de contrats à terme sur le pétrole brut, l'essence et le mazout négociés au CME. Il explique comment les prix à terme de l'essence et du mazout devraient dépendre du coût de l'intrant, c'est-à-dire du pétrole brut. Le professeur montre un graphique des prix des contrats à terme, qui représentent les mêmes unités de production par rapport à l'entrée. Il note que même si les contrats à terme sur l'essence et le mazout sont constamment supérieurs aux contrats à terme sur les intrants de pétrole brut, ils varient selon le plus élevé. La différence entre le prix du contrat à terme sur le mazout de chauffage et le contrat à terme sur le pétrole brut représente l'écart de valeur de la production moins l'apport, qui comprend le coût du raffinage, l'offre et la demande, les effets saisonniers et le profit de la raffinerie.

  • 00:25:00 Dans cette section, le cours traite du modèle vectoriel autorégressif d'ordre p qui étend le modèle univarié. La conférence explique que l'autorégression d'une série dépend de toutes les autres séries, ce qui forme le bruit blanc multidimensionnel avec une moyenne de 0 et une certaine structure de covariance. Le processus intégré d'ordre un est également discuté, ainsi que le processus de dérivation qui concerne les différences avec certains termes supplémentaires. À la fin, le cours fournit l'équation de la différence de la série, qui est égale à une constante plus un multiple matriciel de la première série multivariée de différence, plus une autre matrice multipliée par la deuxième différence, jusqu'à la p-ième différence.

  • 00:30:00 Dans cette section, la vidéo traite du processus d'élimination de la non-stationnarité dans les séries chronologiques en utilisant des séries décalées et différenciées. Le modèle exprime le modèle de processus stochastique pour la série de différences, qui est stationnaire. Alors que les termes qui sont des multiples matriciels des retards sont stationnaires, le terme pi X_t contient les termes de cointégration qui impliquent l'identification de la matrice, pi. Comme la série originale avait des racines unitaires, la matrice pi est de rang réduit et définit les relations de cointégration. Les colonnes de bêta définissent des vecteurs linéairement indépendants qui cointègrent x. La décomposition de pi n'est pas unique, et en définissant le système de coordonnées dans l'espace à r dimensions où le processus est stationnaire, la matrice pi peut être exprimée sous la forme alpha beta prime.

  • 00:35:00 Dans cette section, l'orateur discute de l'estimation des modèles vectoriels d'autorégression et du travail de Sims, Stock et Watson qui montre comment l'estimateur des moindres carrés du modèle original peut être utilisé pour une analyse des processus d'autorégression vectorielle cointégrés. . L'orateur mentionne également la littérature avancée sur les méthodes d'estimation de ces modèles, y compris l'estimation du maximum de vraisemblance, qui donne des tests pour le rang de la relation de cointégration. Une étude de cas sur les données d'étalement des fissures est également discutée, qui implique de tester la non-stationnarité dans la série sous-jacente à l'aide d'un test Dickey-Fuller augmenté qui donne une valeur p de 0,164 pour CLC1, le premier contrat le plus proche.

  • 00:40:00 Dans cette section, le présentateur discute de la non-stationnarité et de l'ordre d'intégration des données à terme sur le pétrole brut, suggérant qu'il est nécessaire de tenir compte de la non-stationnarité lors de la spécification des modèles. Les résultats de la conduite d'une procédure de Johansen pour tester le rang du processus cointégré suggèrent qu'il n'y a pas de non-stationnarité forte, et le vecteur propre correspondant à la relation stationnaire est donné par les coefficients de 1 sur les contrats à terme sur le pétrole brut, 1,3 sur RBOB, et -1,7 sur le mazout. La combinaison brut plus essence moins mazout semble stationnaire dans le temps, ce qui pourrait être utile aux raffineurs qui souhaitent couvrir leurs risques de production.

  • 00:45:00 Dans cette section, l'orateur introduit le sujet des modèles d'espace d'états linéaires, qui peuvent être utilisés pour exprimer de nombreux modèles de séries temporelles utilisés en économie et en finance. Le modèle implique un vecteur d'observation au temps t, un vecteur d'état sous-jacent, un vecteur d'erreur d'observation au temps t et un vecteur d'erreur d'innovation de transition d'état. L'orateur explique l'équation d'état et l'équation d'observation dans le modèle, qui sont des transformations linéaires des états et des observations plus le bruit, et comment elles peuvent être écrites ensemble dans une équation conjointe. La notation peut sembler compliquée, mais elle offre une grande flexibilité dans la spécification des relations entre les variables.

  • 00:50:00 Dans cette section, l'orateur discute de la représentation d'un modèle de tarification des immobilisations avec des bêtas variant dans le temps en tant que modèle d'espace d'état linéaire. Le modèle étend le précédent en ajoutant une dépendance temporelle aux paramètres de régression. L'alpha et le bêta varient désormais dans le temps, alpha étant une marche aléatoire gaussienne et bêta étant également une marche aléatoire gaussienne. L'équation d'état est ajustée en ajoutant des termes de marche aléatoire, rendant s_(t+1) égal à T_t s_t plus R_t eta_t, avec une représentation complexe dans le cadre de l'espace d'état linéaire. L'équation d'observation est définie par une matrice Z_t, qui est une matrice de lignes d'éléments unitaires de r_(m,t). La matrice de covariance a une structure diagonale de bloc, avec la covariance des epsilons comme H, et la covariance de R_t eta_t comme R_t Q_t R_t transpose. Enfin, l'orateur considère un deuxième cas de modèles de régression linéaire où p variables indépendantes pourraient varier dans le temps.

  • 00:55:00 Dans cette section, le concept de modification des paramètres de régression au fil du temps dans une série chronologique est introduit, en supposant qu'ils suivent des marches aléatoires indépendantes. L'équation conjointe de l'espace d'état est expliquée ainsi que la mise en œuvre de l'espace d'état linéaire pour la mise à jour récursive des régressions à mesure que de nouvelles données sont ajoutées. Les modèles autorégressifs d'ordre P sont également discutés, décrivant la structure de l'évolution du modèle d'espace d'état linéaire. Enfin, le modèle de moyenne mobile d'ordre Q est exprimé sous la forme d'un modèle d'espace d'état linéaire.

  • 01:00:00 Dans cette section, le conférencier discute de l'équation d'état et de l'équation d'observation, qui sont utilisées pour donner une transition entre les états sous-jacents. Ils utilisent un exemple de modèle de moyenne mobile autorégressif pour démontrer comment la configuration des modèles d'espace d'états linéaires facilite le processus d'estimation du modèle. La conférence explique ensuite comment le travail de Harvey en 1993 a défini une représentation particulière de l'espace d'états pour le processus ARMA et comment il existe de nombreux modèles d'espace d'états linéaires équivalents différents pour un processus donné en fonction de la façon dont on définit les états et la transformation sous-jacente. matrice T. Enfin, le cours se poursuit en dérivant la représentation de l'espace d'états pour le processus ARMA.

  • 01:05:00 Dans cette section, l'orateur explique comment trouver un modèle simple pour la matrice de transition T dans les modèles d'espace d'états linéaires en résolvant de manière itérative le deuxième état en utilisant la valeur d'observation et en réécrivant l'équation du modèle. Ce processus remplace les états sous-jacents par des observations et conduit à une matrice de transition T qui a des composantes autorégressives comme première colonne et un vecteur de composantes moyennes mobiles dans la matrice R. L'efficacité de la modélisation linéaire de l'espace d'états réside dans la spécification complète avec le filtre de Kalman, qui calcule de manière récursive les fonctions de densité de probabilité pour les états sous-jacents à t + 1 avec des informations jusqu'au temps t, ainsi que la densité conjointe de l'état futur et l'observation à t+1, avec des informations jusqu'au temps t, et la distribution marginale de la prochaine observation avec des informations jusqu'au temps t. La mise en œuvre du filtre de Kalman nécessite une notation impliquant des moyennes conditionnelles, des covariances et des erreurs quadratiques moyennes déterminées par les omégas.

  • 01:10:00 Dans cette section, la transcription traite du filtre de Kalman, qui comporte quatre étapes qui aident à prédire le vecteur d'état et l'observation dans une série chronologique. La matrice de gain du filtre est utilisée pour ajuster la prédiction de l'état sous-jacent en fonction de ce qui s'est passé et caractérise la quantité d'informations que nous obtenons de chaque observation. L'incertitude sur l'état au temps t est réduite en minimisant la différence entre ce que nous avons observé et ce que nous avons prédit. Il existe également une étape de prévision, qui prédit l'état une période en avant et met à jour la matrice de covariance pour les états futurs compte tenu de l'état précédent. Enfin, l'étape de lissage caractérise l'espérance conditionnelle des états sous-jacents compte tenu des informations dans toute la série temporelle.

  • 01:15:00 Dans cette section, le conférencier présente le filtre de Kalman comme outil de calcul de la fonction de vraisemblance pour les modèles linéaires d'espace d'états et pour la prévision successive d'un processus. Ils expliquent que la fonction de vraisemblance est le produit des distributions conditionnelles de chaque observation successive compte tenu de l'historique des données. Le filtre de Kalman fournit tous les termes nécessaires à cette estimation, et si les termes d'erreur sont normalement distribués, les moyennes et les variances de ces estimations caractérisent les distributions exactes du processus. De plus, le filtre de Kalman met à jour les moyennes et les matrices de covariance pour les états sous-jacents et les distributions des observations.
12. Time Series Analysis III
12. Time Series Analysis III
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

13. Modèles de produits



13. Modèles de produits

Dans cette vidéo, le conférencier plonge dans le monde complexe des modèles de produits de base, soulignant les défis auxquels sont confrontés les analystes quantitatifs dans ce domaine. Ils fournissent des exemples perspicaces, tels que le bénéfice record de Trafigura en 2009, réalisé grâce à l'achat et au stockage stratégiques de pétrole brut. L'orateur discute de diverses stratégies d'appel d'offres sur le stockage, des problèmes d'optimisation et de l'importance de la stabilité et de la robustesse dans les modèles de produits de base. De plus, ils explorent les complexités de la modélisation des prix des matières premières, en se concentrant sur les considérations uniques requises pour les prix de l'électricité. L'orateur propose une méthodologie alternative adaptée au paysage des matières premières, en la distinguant des approches utilisées sur les marchés des titres à revenu fixe, des changes et des actions.

La vidéo commence par mettre en lumière les problèmes spécifiques auxquels sont confrontés les analystes quantitatifs dans le domaine des matières premières. Un exemple illustratif est présenté, mettant en vedette Trafigura, une entreprise qui a énormément profité de la chute spectaculaire des prix du pétrole en 2009. L'orateur explique comment fonctionnent les contrats à terme sur les marchés des matières premières, en mettant l'accent sur les concepts de contango et de déport. Contango fait référence à un scénario où le prix au comptant futur dépasse le prix au comptant actuel, permettant aux commerçants de générer des bénéfices même pendant les périodes de baisse des prix.

Ensuite, l'orateur se penche sur la stratégie de profit de Trafigura entre février 2009 et 2010 lorsque les prix du pétrole brut ont bondi de 35 $ à 60 $ le baril. En empruntant à 35 dollars, en achetant et en stockant du pétrole brut, puis en le revendant au prix plus élevé de 60 dollars, Trafigura a réalisé un bénéfice remarquable de 25 dollars le baril. Cette stratégie a été utilisée à grande échelle, impliquant des millions de barils de stockage, entraînant des gains significatifs. L'orateur insiste sur la nécessité d'une stratégie prudente dans les enchères de stockage pour récupérer les coûts et générer efficacement des bénéfices supplémentaires.

La vidéo aborde ensuite deux stratégies distinctes d'enchères sur le stockage dans les modèles de produits de base. La première stratégie consiste à faire des offres sur des contrats à terme pour août et à les vendre en décembre sans avoir besoin d'emprunter. La deuxième stratégie, employée par les quants, consiste à vendre l'option de spread entre les contrats d'août et de décembre. La valeur de cette option est déterminée par la différence de prix entre les deux contrats, les différences positives rapportant des bénéfices au propriétaire de l'option et les différences négatives ne rapportant aucun profit. Bien que la deuxième stratégie soit plus complexe, elle offre une valeur supplémentaire à l'entreprise.

Les avantages de vendre une production le 1er août en utilisant un modèle de marchandise sont discutés dans la section suivante. En vendant l'option à cette date précise, le vendeur reçoit une valeur d'option déterminée par une formule, généralement supérieure à la valeur marchande actuelle. Cela donne au vendeur une position avantageuse lors des enchères, lui permettant de gagner une marge bénéficiaire de son choix. Le conférencier explique également le calcul du risque d'option et comment les actifs réels ou physiques peuvent être exploités pour atténuer ce risque.

La vidéo se penche ensuite sur la complexité des options de répartition dans les modèles de produits de base, soulignant la nécessité de déterminer les portefeuilles d'options les plus précieux tout en tenant compte des contraintes techniques, contractuelles, juridiques et environnementales. Le conférencier souligne l'importance de vendre des portefeuilles d'options de manière à garantir l'extraction de valeur à l'expiration de l'option, compte tenu des limitations des taux d'injection et de retrait.

Un problème d'optimisation impliquant des modèles de marchandises et de stockage est discuté dans une autre section. Le problème tourne autour de l'extraction de la valeur d'une option de marchandise lorsque la capacité de stockage est épuisée, ainsi que de la vente à partir du stockage lorsqu'il devient vide. L'orateur explique les variables et les contraintes impliquées dans le problème et démontre comment l'optimisation du portefeuille à travers une série d'options peut conduire à la maximisation du profit. La complexité du problème nécessite l'utilisation de variables booléennes et l'accent mis sur la maximisation des profits.

La vidéo approfondit les défis des modèles de produits de base, en particulier ceux liés aux taux d'injection et de retrait, aux contraintes de capacité et aux variables inconnues telles que les volumes et les prix. Ces facteurs contribuent à la nature non linéaire du problème, le rendant extrêmement difficile à résoudre lorsqu'il s'agit de nombreuses variables et contraintes. Plusieurs approches, y compris l'approximation, les simulations de Monte Carlo et le contrôle stochastique, peuvent être utilisées pour aborder la complexité des modèles de produits de base. Cependant, l'exactitude des résultats dépend fortement de la précision des paramètres utilisés. Même la méthodologie la plus méticuleuse peut conduire à des résultats erronés si les paramètres sont incorrects.

L'orateur procède ensuite à la discussion de la méthodologie qu'il a choisie pour la modélisation des produits de base, qui privilégie la robustesse et la stabilité plutôt que la capture de la richesse complète des comportements de prix. Ils mettent en garde contre le sur-paramétrage d'un modèle, car il peut introduire de l'instabilité, provoquant même de légers changements ayant un impact significatif sur sa valeur. En utilisant une approche différente, ils privilégient la stabilité et la robustesse, permettant aux régulateurs extérieurs de vérifier le modèle. De plus, chaque composant du modèle peut être négocié sur le marché, ce qui revêt une importance considérable dans le paysage actuel du marché. Le concept de couverture dynamique est également expliqué, montrant comment il peut être utilisé pour répliquer la valeur d'une option et effectuer des paiements sans marché d'options actif, en utilisant une simple fonction de joueur.

L'orateur approfondit le concept de répliquer le paiement d'une option grâce à une couverture dynamique. Cette stratégie permet aux traders de vendre des portefeuilles même lorsqu'il n'y a pas d'acheteurs. Ils soulignent l'importance de développer une stratégie pour extraire de la valeur et de collaborer avec les exploitants d'installations de stockage pour exécuter le plan avec succès. L'orateur explique comment cette approche peut être étendue pour modéliser des actifs physiques, tels que des pétroliers et des centrales électriques, afin de maximiser les profits en prenant des décisions éclairées basées sur les prix de l'électricité et du carburant. Bien que la nature de chaque actif puisse varier, l'approche conceptuelle reste la même, ce qui nécessite une compréhension globale des complexités et des contraintes uniques associées à chaque actif.

Dans une section ultérieure, la vidéo explore le processus de calcul du coût de production d'un mégawattheure d'électricité en fonction de l'efficacité de la centrale électrique. L'efficacité, quantifiée par le taux de chaleur mesuré en mm BTU, indique la quantité de gaz naturel nécessaire pour générer un mégawattheure d'électricité. La constante correspondant à une centrale électrique au gaz naturel se situe généralement entre 7 et 20, les valeurs inférieures indiquant un rendement plus élevé. Les coûts supplémentaires liés à la production d'un mégawattheure, tels que la climatisation et la main-d'œuvre, sont également pris en compte. La vidéo approfondit en outre la détermination de la valeur d'une centrale électrique et la construction des distributions de prix et de coût du carburant pour déterminer un paiement approprié pour l'acquisition d'une centrale électrique.

Les défis de la modélisation des prix des matières premières, en particulier les prix de l'électricité, sont abordés dans la section suivante. La distribution des prix de l'électricité ne peut pas être modélisée avec précision à l'aide du mouvement brownien en raison de la présence de queues grasses et de pointes dans les données. De plus, la volatilité des prix de l'électricité est nettement plus élevée que celle des marchés boursiers. Le conférencier souligne que ces défis sont communs à toutes les régions et souligne la nécessité de capturer la réversion moyenne dans les pics pour représenter avec précision le comportement des prix de l'électricité. D'autres phénomènes tels que l'aplatissement élevé, la commutation de régime et la non-stationnarité doivent également être intégrés dans les modèles.

La vidéo explore les défis associés à la modélisation des prix des matières premières, mettant en évidence diverses approches, notamment le retour à la moyenne, les sauts et le changement de régime. Cependant, ces modèles ont tendance à être complexes et difficiles à gérer. Au lieu de cela, l'orateur propose une méthodologie unique spécifiquement adaptée au domaine des matières premières, distincte des méthodologies employées sur les marchés des titres à revenu fixe, des changes et des actions. Cette approche est mieux alignée sur les caractéristiques et les complexités des marchés des produits de base.

L'orateur souligne que les prix des matières premières sont principalement déterminés par la dynamique de l'offre et de la demande. Cependant, les méthodologies traditionnelles basées uniquement sur les prix se sont avérées insuffisantes pour saisir les complexités du comportement des prix des produits de base. Pour résoudre ce problème, le conférencier suggère d'incorporer une modélisation fondamentale tout en s'assurant que le modèle s'aligne sur les données de marché disponibles. Ils expliquent comment les prix de l'électricité sont façonnés par la mise aux enchères des offres des centrales électriques avec des rendements variables et comment le prix final est déterminé en fonction de la demande. Le nuage de points résultant illustrant la relation entre la demande et le prix montre une distribution diversifiée en raison de l'influence de facteurs aléatoires du prix du carburant.

En outre, l'orateur explique que le prix de l'électricité est déterminé à la fois par la demande et par les prix du carburant, car le coût de production dépend des prix du carburant. De plus, l'occurrence des pannes doit être modélisée, car le marché est fini et le prix de l'électricité peut être affecté si quelques centrales subissent des pannes. Pour intégrer ces facteurs, le conférencier propose de construire une pile de production, qui représente le coût de production pour chaque participant au marché. En tenant compte des prix du carburant et des pannes, la pile de production peut être ajustée pour correspondre avec précision aux prix du marché et aux prix des options.

La vidéo progresse pour discuter de la façon dont différents produits peuvent être modélisés pour comprendre l'évolution des prix de l'électricité. L'orateur explique le processus de modélisation du comportement des prix du carburant, des pannes et de la demande. Par la suite, une pile de production est construite, représentant une courbe déterminée par des facteurs tels que la demande, les pannes, les coûts variables et les prix du carburant. Les paramètres sont soigneusement sélectionnés pour correspondre à la courbe à terme des prix de l'électricité et à d'autres paramètres de marché pertinents. Cette approche permet de saisir les pics de prix sur les marchés de l'électricité avec une relative facilité. Le conférencier note que le gaz naturel, le mazout et le mazout sont des produits stockables, ce qui rend leur comportement plus régulier et plus facile à modéliser.

À l'avenir, le conférencier souligne comment les modèles de produits de base peuvent être exploités pour prédire le prix de l'électricité sur le marché, en tenant compte de facteurs tels que la température, l'offre et la demande. Grâce à l'utilisation de simulations de Monte Carlo et à une compréhension globale de la distribution des prix du carburant, des simulations précises des pics de prix causés par les fluctuations de température peuvent être réalisées. Le modèle capture également avec précision la structure de corrélation du marché sans l'exiger comme entrée. Cependant, il est souligné que le maintien d'un tel modèle nécessite une quantité importante d'informations et d'organisation, car chaque changement de centrale et de marché doit être suivi.

Dans la dernière section de la vidéo, le conférencier reconnaît les défis associés à la construction de modèles de produits de base pour différents marchés. Le processus est une entreprise massive qui nécessite des années de développement, ce qui en fait une entreprise coûteuse. Malgré les complexités impliquées, l'orateur estime que les sujets abordés sont un bon point pour conclure la discussion et invite les téléspectateurs à poser toutes les questions restantes qu'ils pourraient avoir.

Dans l'ensemble, la vidéo fournit des informations précieuses sur les défis auxquels sont confrontés les analystes quantitatifs lors de la création de modèles de matières premières. Il souligne l'importance de donner la priorité à la stabilité et à la robustesse dans les approches de modélisation, la complexité de la modélisation des prix des matières premières et le rôle de facteurs fondamentaux tels que l'offre, la demande et les prix du carburant dans la formation des prix de l'électricité. Le conférencier souligne également l'importance de la collaboration avec les intervenants de l'industrie et l'effort continu requis pour maintenir et mettre à jour les modèles de produits de base pour différents marchés.

  • 00:00:00 Dans cette section, l'orateur discute des problèmes que les analystes quantitatifs résolvent dans le monde des matières premières, en comparaison avec ceux d'autres marchés. Il a donné l'exemple de Trafigura, qui a réalisé un bénéfice record en 2009, l'année où les prix du pétrole ont chuté à un niveau historiquement bas. Il parle également des contrats à terme et de leur fonctionnement sur les marchés des matières premières, en particulier des concepts de contango et de déport. Contango signifie que le prix au comptant futur est plus cher que le prix au comptant actuel, ce qui permet aux commerçants de réaliser un profit même lorsque les prix sont bas.

  • 00:05:00 Dans cette section, l'orateur explique comment Trafigura a gagné de l'argent entre février 2009 et 2010, lorsque les prix du pétrole brut sont passés de 35 à 60 dollars. La société a emprunté 35 dollars, acheté un baril de pétrole brut et l'a stocké jusqu'à ce qu'il puisse être vendu beaucoup plus cher à 60 dollars. Cela leur a permis de réaliser un bénéfice de 25 dollars par baril, ce qui a multiplié plus de 50 à 60 millions de barils de racks de stockage jusqu'à une somme énorme. L'orateur souligne que pour soumissionner pour le stockage dans une vente aux enchères, il faut soigneusement élaborer une stratégie pour récupérer l'argent payé pour le stockage et gagner un profit supplémentaire.

  • 00:10:00 Dans cette section, la vidéo traite de deux stratégies d'enchères sur le stockage dans les modèles de marchandises. La première est une stratégie standard dans laquelle un trader enchérit sur des contrats à terme pour le mois d'août et vend en décembre, sans avoir à emprunter d'argent. La deuxième stratégie est celle utilisée par les quants, où ils vendent l'option de spread août-décembre, déterminée par la différence entre les prix des contrats de décembre et d'août, les différences positives payant le propriétaire de l'option et les négatives payant zéro. Cette dernière stratégie est plus compliquée mais offre une valeur ajoutée à l'entreprise.

  • 00:15:00 Dans cette section, l'orateur discute des avantages de vendre une production le 1er août en utilisant un modèle de marchandise. Il explique qu'en vendant l'option à la date donnée, le vendeur obtient une valeur de l'option déterminée par une formule, qui est généralement supérieure à la valeur marchande actuelle. Cela donne au vendeur un avantage lors des enchères et il peut gagner une marge bénéficiaire de son choix. Le conférencier explique également comment calculer le risque de l'option et comment les actifs réels ou physiques peuvent être utilisés pour atténuer le risque.

  • 00:20:00 Dans cette section, l'orateur aborde le concept d'une option de propagation et met en lumière leur complexité dans la réalité. Il explique que l'optimisation de la valeur d'un portefeuille d'options pouvant être vendues contre le stockage nécessite de déterminer les portefeuilles d'options les plus précieux tout en tenant compte des contraintes techniques, contractuelles, légales et environnementales. L'orateur note en outre que les portefeuilles d'options doivent être vendus de manière à garantir que la valeur peut être extraite chaque fois que l'option expire, et qu'il existe des contraintes sur le taux d'injection et de retrait.

  • 00: 25: 00 Dans cette section, l'orateur discute d'un problème d'optimisation impliquant des modèles de produits et le stockage. Le problème consiste à trouver un moyen d'extraire de la valeur d'une option de marchandise lorsqu'il n'y a plus d'espace dans le stockage et, inversement, de trouver un moyen de vendre à partir du stockage lorsqu'il est vide. L'orateur explique les variables et les contraintes du problème et montre comment il est possible d'optimiser le portefeuille à travers une série d'options. Dans l'ensemble, le problème d'optimisation est complexe mais peut être résolu à l'aide de variables booléennes et en mettant l'accent sur la maximisation des profits.

  • 00:30:00 Dans cette section, l'orateur discute de la nature complexe des modèles de matières premières qui impliquent des taux d'injection et de retrait, des contraintes de capacité maximale et minimale et des variables inconnues comme les volumes et les prix. Le problème devient non linéaire et très difficile à résoudre avec un grand nombre de variables et de contraintes. Plusieurs approches, y compris l'approximation, les simulations de Monte Carlo et le contrôle stochastique, peuvent être utilisées pour résoudre les modèles de produits de base, mais la précision des résultats dépend de la précision des paramètres utilisés. Même la méthodologie la plus précise peut être erronée si les paramètres sont incorrects.

  • 00:35:00 Dans cette section, l'orateur discute de la méthodologie qu'il a choisie pour la modélisation des matières premières, qui est conçue pour donner la priorité à la robustesse et à la stabilité plutôt qu'à la capture de la richesse des comportements de prix. Ils expliquent que le sur-paramétrage d'un modèle peut entraîner une instabilité et de petits changements qui peuvent modifier considérablement la valeur. Pour donner la priorité à la stabilité et à la robustesse, ils sacrifient une partie de la valeur en utilisant une approche différente. De plus, le modèle qu'ils utilisent peut être vérifié par des régulateurs externes, et chaque composant du modèle peut être négocié sur le marché, ce qui est crucial à l'heure actuelle. De plus, ils expliquent le concept de couverture dynamique et comment il peut être utilisé pour répliquer la valeur d'une option et répondre aux paiements sans marché d'options actif en utilisant une simple fonction de joueur.

  • 00:40:00 Dans cette section, l'orateur aborde le concept de répliquer le paiement d'une option en utilisant une stratégie de couverture dynamique, permettant aux traders de vendre des portefeuilles même s'il n'y a pas d'acheteurs. Il souligne l'importance de produire une stratégie pour extraire de la valeur, ainsi que de travailler avec ceux qui exploitent les installations de stockage pour exécuter le plan avec succès. Le conférencier explique ensuite comment cette approche peut être utilisée pour modéliser des actifs physiques, tels que des pétroliers et des centrales électriques, afin de maximiser les profits en prenant des décisions éclairées en fonction du prix de l'électricité et du carburant. Bien que la nature de chaque actif diffère, l'approche conceptuelle reste la même, nécessitant une compréhension des nuances et des contraintes de chaque actif.

  • 00:45:00 Dans cette section, la vidéo traite du processus de calcul du coût de production d'un mégawattheure d'électricité en fonction de l'efficacité de la centrale électrique. L'efficacité, connue sous le nom de taux de chaleur, est mesurée en mm BTU et nous indique combien d'unités de gaz naturel doivent être brûlées pour produire un mégawattheure d'électricité. La constante correspondant à une centrale électrique au gaz naturel est généralement comprise entre 7 et 20, 7 étant la plus efficace. D'autres coûts associés à la production d'un mégawattheure, tels que la climatisation et la main-d'œuvre, sont également pris en compte. La vidéo aborde ensuite le processus de détermination de la valeur d'une centrale électrique et de construction d'une distribution des prix et des coûts de carburant afin de calculer combien payer pour une centrale électrique.

  • 00:50:00 Dans cette section, le conférencier aborde les défis des modèles de matières premières, en particulier dans le cas des prix de l'électricité. La distribution des prix de l'électricité ne peut pas être modélisée à l'aide du mouvement brownien en raison de la présence de queues grasses et de pointes dans les données. La volatilité est également beaucoup plus élevée que sur les marchés actions. Le conférencier note que ces défis sont communs à toutes les régions et que l'inversion des pics est nécessaire pour saisir le comportement des prix de l'électricité. D'autres phénomènes qui doivent être capturés incluent l'aplatissement élevé, la commutation de régime et la non-stationnarité.

  • 00:55:00 Dans cette section, l'orateur discute des défis de la modélisation des prix des matières premières et de la manière dont différents modèles ont été utilisés, notamment le retour à la moyenne, les sauts et le changement de régime. Cependant, ces modèles sont trop complexes et difficiles à gérer. L'orateur propose une méthodologie complètement différente du monde des titres à revenu fixe, des changes et des actions, qui est plus appropriée et compréhensible du point de vue des matières premières.

  • 01:00:00 Dans cette section, l'orateur explique comment les prix des matières premières sont principalement déterminés par l'offre et la demande. Cependant, les méthodologies standard de modélisation des prix des matières premières basées uniquement sur les prix eux-mêmes se sont avérées difficiles. L'orateur suggère d'introduire une modélisation fondamentale pour résoudre ce problème, tout en s'assurant que son modèle correspond à toutes les données de marché disponibles. L'orateur poursuit en expliquant comment les prix de l'électricité sont formés par la mise aux enchères d'offres de centrales électriques avec différents niveaux d'efficacité, et comment le prix final est déterminé en fonction de la demande. Le nuage de points résultant de la demande par rapport au prix montre un graphique gras en raison du facteur aléatoire des prix du carburant.

  • 01:05:00 Dans cette section, l'orateur explique que le prix de l'électricité est déterminé à la fois par la demande et par les prix du carburant, car le coût de production dépend du prix du carburant. Les pannes doivent également être modélisées car le marché est fini et le prix de l'électricité peut être affecté si quelques centrales électriques tombent en panne. Pour modéliser ces facteurs, le conférencier propose de construire une pile de production, qui est le coût de production pour chaque participant au marché. En connaissant les prix du carburant et les pannes, on peut générer la pile de battements, qui suivra la pile de génération et s'ajustera pour correspondre aux prix du marché et aux prix des options.

  • 01:10:00 Dans cette section, l'orateur explique comment différents produits de base peuvent être modélisés et utilisés pour déterminer l'évolution des prix de l'électricité. Ils commencent par modéliser l'évolution des prix du carburant, des pannes et de la demande, puis construisent la pile de production, qui est une courbe déterminée par la demande, les pannes, les coûts variables et le carburant. Ils choisissent des paramètres correspondant à la courbe à terme des prix de l'électricité et à d'autres paramètres du marché. Cette approche permet de capturer les pics des prix de l'électricité sans trop d'efforts, et le gaz naturel, le mazout et le mazout sont des produits stockables, ce qui rend leur comportement plus régulier et plus facile à modéliser.

  • 01:15:00 Dans cette section de la vidéo, l'orateur explique comment les modèles de matières premières peuvent être utilisés pour prédire le prix de l'électricité sur le marché en fonction de la température et des facteurs d'offre et de demande. En utilisant des simulations de Monte Carlo et en comprenant la distribution des prix du carburant, ils sont capables de capturer et de simuler avec précision les pics de prix causés par les changements de température. De plus, le modèle capture avec précision la structure de corrélation du marché sans en avoir besoin comme entrée. Cependant, le côté négatif de cette approche est qu'elle nécessite beaucoup d'informations et d'organisation à maintenir en raison de la nécessité de suivre chaque centrale électrique et de tout changement pouvant survenir sur le marché.

  • 01:20:00 Dans cette section, l'orateur parle des défis de la construction de modèles de produits de base pour différents marchés. Il nécessite une entreprise massive et prend des années à se développer, ce qui en fait un processus coûteux. L'orateur estime que c'est un bon point d'arrêt mais invite les téléspectateurs à se poser des questions.
13. Commodity Models
13. Commodity Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Alexander Eydelan...
 

14. Théorie du portefeuille



14. Théorie du portefeuille

La théorie du portefeuille est un concept fondamental en finance qui se concentre sur la performance et la construction optimale de portefeuilles d'investissement. Cela implique d'analyser les rendements attendus, les volatilités et les corrélations de plusieurs actifs afin de déterminer l'allocation de portefeuille la plus efficace. La frontière efficiente représente une gamme de portefeuilles réalisables avec différents niveaux de volatilité. En introduisant un actif sans risque, l'ensemble des possibles s'élargit pour inclure une combinaison de l'actif sans risque et d'autres actifs, formant une ligne droite.

Une estimation précise des paramètres est cruciale pour évaluer les portefeuilles et résoudre le problème de programmation quadratique pour l'optimisation de portefeuille. Des formules sont utilisées pour calculer les pondérations optimales en fonction de diverses contraintes, telles que les portefeuilles long-only, les contraintes de détention et les contraintes d'exposition de référence. Les fonctions d'utilité sont utilisées pour définir les préférences de richesse et maximiser l'utilité attendue tout en tenant compte de l'aversion au risque.

La vidéo se penche sur l'application de la théorie du portefeuille à l'aide de fonds négociés en bourse (ETF) et de stratégies neutres au marché. Différentes contraintes peuvent être mises en place pour contrôler les risques et les variations d'un portefeuille, notamment les limites d'exposition aux facteurs de marché et les tailles minimales de transactions. Le conférencier explore l'allocation optimale de neuf ETF investis dans divers secteurs industriels sur le marché américain, en tenant compte des outils d'analyse de portefeuille et de l'impact des contraintes de capital sur les portefeuilles optimaux. Les stratégies neutres au marché employées par les hedge funds sont également abordées, soulignant leur potentiel de diversification et de corrélation réduite.

La sélection de mesures de risque appropriées est cruciale lors de l'évaluation des portefeuilles. L'analyse moyenne-variance est couramment utilisée, mais des mesures de risque alternatives telles que l'écart absolu moyen, la semi-variance, la valeur à risque et la valeur à risque conditionnelle peuvent fournir des informations supplémentaires. L'utilisation de modèles factoriels aide à estimer la matrice variance-covariance, améliorant ainsi la précision de l'optimisation du portefeuille.

Tout au long de la vidéo, l'orateur souligne l'importance d'une estimation précise des paramètres, l'impact des contraintes sur la construction du portefeuille et l'importance des mesures de risque dans l'évaluation du portefeuille. La théorie du portefeuille fournit un cadre pour prendre des décisions d'investissement rationnelles dans des conditions d'incertitude, en tenant compte des préférences pour des rendements plus élevés, une volatilité plus faible et une aversion au risque. En appliquant ces concepts, les investisseurs peuvent construire des portefeuilles bien équilibrés adaptés à leur tolérance au risque et à leurs objectifs de placement.

Dans les sections suivantes de la vidéo, le conférencier explore plus en détail les subtilités de la théorie du portefeuille et ses implications pratiques. Voici un résumé des principaux points abordés :

  1. Théorie historique de l'optimisation de portefeuille : l'orateur commence par discuter des fondements historiques de l'optimisation de portefeuille, en se concentrant sur l'optimisation de la variance moyenne de Markowitz. Cette approche analyse les portefeuilles en fonction de leur rendement moyen et de leur volatilité. Il fournit un cadre pour comprendre le compromis entre le risque et le rendement et sert de base à la théorie moderne du portefeuille.

  2. Théorie de l'utilité et prise de décision dans l'incertitude : la théorie de l'utilité, en particulier la théorie de l'utilité de von Neumann-Morgenstern, est introduite pour guider la prise de décision rationnelle dans l'incertitude. Les fonctions d'utilité sont utilisées pour représenter les préférences d'un investisseur en matière de richesse, en tenant compte de facteurs tels que des rendements plus élevés et une volatilité plus faible. L'orateur explique diverses fonctions d'utilité couramment utilisées dans la théorie du portefeuille, notamment les fonctions linéaires, quadratiques, exponentielles, de puissance et logarithmiques.

  3. Contraintes et mesures de risque alternatives : la vidéo explore l'inclusion de contraintes dans l'optimisation de portefeuille. Ces contraintes peuvent être mises en œuvre pour garantir des critères d'investissement spécifiques, tels que des portefeuilles long-only, des contraintes de rotation et des limites d'exposition à certains facteurs de marché. De plus, le conférencier discute des mesures de risque alternatives au-delà de l'analyse moyenne-variance traditionnelle, telles que les mesures tenant compte de l'asymétrie, de l'aplatissement et des mesures de risque cohérentes.

  4. Résoudre le problème d'optimisation de portefeuille : l'orateur fournit des informations mathématiques sur la résolution du problème d'optimisation de portefeuille. En le formulant comme un problème de programmation quadratique, des poids optimaux pour le portefeuille peuvent être déterminés. Les conditions lagrangiennes et de premier ordre sont utilisées pour résoudre ces poids, la dérivée de second ordre représentant la matrice de covariance. La solution permet de maximiser les rendements tout en minimisant la volatilité, sous réserve de contraintes spécifiées.

  5. Frontière efficiente et ligne du marché des capitaux : le concept de frontière efficiente est introduit, représentant un ensemble de portefeuilles optimaux qui obtiennent le rendement le plus élevé pour un niveau de risque donné. L'orateur explique comment la frontière efficiente se dessine à partir des profils risque-rendement des différents portefeuilles. En outre, la ligne du marché des capitaux est discutée, illustrant la relation entre le risque et le rendement lors de la combinaison de l'actif sans risque avec le portefeuille de marché. Il permet aux investisseurs de déterminer le rendement attendu pour tout niveau de risque souhaité.

  6. Estimation des paramètres et des mesures de risque : L'importance d'une estimation précise des paramètres est soulignée, car elle influence considérablement l'analyse du portefeuille. L'orateur met l'accent sur l'utilisation de modèles factoriels pour estimer la matrice de variance-covariance, fournissant des entrées plus précises pour l'optimisation. En outre, différentes mesures de risque telles que l'écart absolu moyen, la semi-variance, la valeur à risque et la valeur à risque conditionnelle sont expliquées, leur pertinence dépendant des caractéristiques spécifiques des actifs investis.

Tout au long de la vidéo, le conférencier met l'accent sur l'application pratique de la théorie du portefeuille à l'aide de fonds négociés en bourse (FNB) et de stratégies neutres au marché. L'utilisation de contraintes pour gérer les risques et les variations d'un portefeuille, l'impact des contraintes de capital sur les portefeuilles optimaux et les avantages des stratégies de diversification neutres au marché sont discutés en détail.

Dans l'ensemble, la vidéo fournit un aperçu complet de la théorie du portefeuille, couvrant divers aspects, des fondements historiques à la mise en œuvre pratique. Il met l'accent sur l'importance d'une estimation précise, de l'incorporation de contraintes, du choix des mesures de risque et des avantages potentiels de différentes stratégies d'investissement. En comprenant ces concepts, les investisseurs peuvent prendre des décisions éclairées pour construire des portefeuilles qui correspondent à leurs préférences en matière de risque et à leurs objectifs d'investissement.

  • 00:00:00 Dans cette section de la vidéo, Peter Kempthorne aborde le sujet de la théorie du portefeuille, qui est l'un des sujets les plus importants en finance. Il commence par discuter de la théorie historique de l'optimisation de portefeuille, qui implique l'optimisation de la variance moyenne de Markowitz pour analyser les caractéristiques de performance des portefeuilles en termes de rendement moyen et de rendement de volatilité. L'analyse est ensuite étendue pour inclure l'investissement avec un actif sans risque, et le sujet de la théorie de l'utilité, la théorie de l'utilité de von Neumann-Morgenstern, est introduit pour prendre des décisions dans des conditions d'incertitude de manière rationnelle. De plus, Kempthorne couvre les contraintes d'optimisation de portefeuille et les mesures de risque alternatives pour étendre la simple analyse moyenne-variance. Enfin, il explique l'analyse sur une seule période, comment représenter un portefeuille et comment calculer le rendement attendu et la variance d'un portefeuille.

  • 00:05:00 Dans cette section, l'orateur introduit le problème d'analyse de portefeuille et considère un cadre simplifié avec deux atouts. L'objectif est de trouver des portefeuilles optimaux investissant dans ces deux actifs, compte tenu de leur rendement et de leur volatilité attendus, et de la corrélation possible entre eux. L'analyse moyenne-variance est utilisée pour analyser l'ensemble de portefeuilles réalisables et déterminer les portefeuilles optimaux et sous-optimaux. L'orateur souligne ensuite l'importance de la théorie de Markowitz et de ses extensions pour apporter des réponses élégantes à ces questions. Enfin, une simulation est effectuée pour examiner les rendements cumulés de chaque actif dans différents portefeuilles.

  • 00:10:00 Dans cette section, un actif simulé avec un rendement moyen de 15 % et une volatilité de 25 % est discuté. Le nuage de points des rendements hebdomadaires ne montre aucune corrélation apparente, bien qu'il existe une corrélation d'échantillon. L'ensemble réalisable de portefeuilles est indiqué sur le graphique de droite, et l'allocation vers l'actif 2 améliore le rendement du portefeuille sans compromettre la volatilité. Le portefeuille à variance minimale est également abordé, avec une pondération sur les différents actifs inversement proportionnelle à leur volatilité au carré. Le graphique bleu est légèrement plus proche de l'actif 1, indiquant un poids légèrement plus élevé pour l'actif 1.

  • 00:15:00 Dans cette section, le concept de portefeuilles sous-optimaux est examiné, avec la conclusion que tous les points du nuage de points sont des portefeuilles sous-optimaux et qu'un compromis doit être fait entre rendement et volatilité. L'avantage de la diversification lorsque deux actifs totalement non corrélés sont regroupés est discuté, et l'effet des corrélations négatives sur les ensembles possibles et la réduction de la volatilité est examiné. Une corrélation de -1 entre deux actifs peut conduire à un portefeuille à volatilité nulle, ce qui est rare sur les marchés, mais en théorie des prix, le rendement de ce portefeuille devrait être égal au taux sans risque.

  • 00:20:00 Dans cette section de la vidéo, l'orateur discute de la relation entre corrélation et diversification dans la théorie du portefeuille. La simulation montre que l'augmentation de la corrélation entre les actifs se traduit par un moindre bénéfice de la diversification, ce qui signifie que la variance du portefeuille ne peut pas être réduite autant. L'orateur souligne l'importance d'utiliser des estimations précises pour les rendements moyens, les volatilités et les corrélations lors de l'évaluation des portefeuilles, car les estimations des échantillons peuvent différer des paramètres de la population et présenter une certaine variabilité. Le problème de programmation quadratique pour l'optimisation de portefeuille consiste à minimiser la volatilité au carré du portefeuille soumis à des contraintes sur la moyenne du portefeuille et l'investissement complet, qui peuvent être résolus à l'aide d'un lagrangien et de conditions de premier ordre.

  • 00:25:00 Dans cette section, l'orateur explique comment résoudre les poids et la variance minimale. La condition du premier ordre est une solution car la dérivée du second ordre du lagrangien est égale à la matrice de covariance, ce qui peut résoudre le problème. En substituant un alpha donné dans les solutions, la variance du portefeuille optimal peut également être résolue. Le problème peut être envisagé de deux autres manières, l'une pour maximiser le rendement soumis à une contrainte sur la volatilité, et l'autre pour maximiser le rendement soumis à un multiple négatif sur la variance. Ce sont des problèmes équivalents résolus par le même lagrangien.

  • 00:30:00 Dans cette section, nous apprenons la frontière efficiente, qui est la collection de toutes les solutions possibles compte tenu d'une gamme de rendements cibles réalisables et de valeurs de volatilité. Dans un cas à deux actifs, la frontière efficiente est une parabole, et l'ajout d'un autre actif crée plusieurs paraboles, qui définissent l'ensemble des possibles. La frontière efficiente est le côté supérieur de la courbe. L'ajout d'un actif sans risque élargit l'ensemble des possibles en une ligne droite entre le point de l'actif sans risque et tout point de la frontière efficiente, permettant des investissements dans une combinaison de l'actif sans risque et d'autres actifs.

  • 00:35:00 Dans cette section, le conférencier discute des mathématiques pour résoudre un problème où l'objectif est de minimiser la volatilité tout en s'assurant que le rendement est égal à
    une valeur spécifique. En investissant dans un actif sans risque, les investisseurs peuvent obtenir un rendement plus élevé avec une variance plus faible et élargir leurs opportunités d'investissement. L'enseignant propose des formules pour déterminer un portefeuille optimal, qui investit proportionnellement dans des actifs risqués mais diffère dans l'allocation de poids, en fonction du rendement cible. Ces formules fournissent également des expressions sous forme fermée pour la variance du portefeuille, qui augmente à mesure que le rendement cible augmente en raison du compromis lors de l'utilisation de portefeuilles optimaux. Le portefeuille optimal entièrement investi est appelé portefeuille de marché.

  • 00:40:00 Dans cette section, le conférencier explique le concept de portefeuille optimal, qui est le portefeuille qui maximise le rendement moyen de tous les portefeuilles. Ils mentionnent que chaque portefeuille optimal investit dans une combinaison d'actifs sans risque et de portefeuille de marché, quel que soit le risque qu'un investisseur souhaite prendre. L'orateur présente les expressions du rendement attendu et de la variance du portefeuille de marché et montre la formule des pondérations du portefeuille optimal. Cela conduit à la définition de la ligne du marché des capitaux, qui permet aux investisseurs de déterminer le rendement attendu pour un niveau de risque donné.

  • 00:45:00 Dans cette section, la ligne du marché des capitaux pour l'optimisation du portefeuille est discutée. La ligne représente le rendement attendu de tout portefeuille optimal, qui est égal au taux sans risque plus un multiple du rendement par risque du portefeuille de marché. En attribuant des pondérations supplémentaires au portefeuille de marché et en empruntant de l'argent au taux sans risque, on peut obtenir des rendements et une volatilité plus élevés au-delà du portefeuille de marché, ce qui conduit à une frontière efficiente étendue. La section se termine par une discussion sur la théorie de l'utilité de von Neumann-Morgenstern, qui considère le processus de prise de décision pour l'optimisation du portefeuille en fonction du rendement attendu et de la volatilité.

  • 00:50:00 Dans cette section, le concept de théorie du portefeuille est introduit. La théorie du portefeuille implique de prendre des décisions d'investissement dans des conditions d'incertitude basées sur une fonction d'utilité spécifiée pour la richesse, dans le but de maximiser l'utilité attendue de la richesse. La théorie est puissante pour fournir des décisions rationnelles dans des conditions d'incertitude qui tiennent compte des préférences quant à des rendements plus élevés, une volatilité plus faible et d'autres facteurs définis par la fonction d'utilité utilisée. Les propriétés de base des fonctions d'utilité sont discutées, y compris les concepts d'aversion au risque et d'aversion au risque absolue et relative. Les fonctions d'utilité utilisées dans la théorie du portefeuille comprennent les fonctions linéaires, quadratiques, exponentielles, de puissance et logarithmiques.

  • 00:55:00 Dans cette section, l'orateur discute de la théorie du portefeuille sous la fonction d'utilité quadratique et des hypothèses de rendements distribués gaussiens. Sous ces hypothèses, l'analyse moyenne-variance est l'approche optimale pour l'optimisation du portefeuille. Cependant, avec différentes fonctions d'utilité, telles que celles qui prennent en compte les pénalités pour l'asymétrie ou l'aplatissement, des extensions du modèle de base peuvent être nécessaires. L'orateur note également que les problèmes pratiques d'optimisation de portefeuille impliquent des contraintes telles que des portefeuilles long-only, des contraintes de détention, des contraintes linéaires simples, des contraintes de rotation et des contraintes d'exposition de référence. Ces contraintes doivent être prises en compte lors de l'ajustement des portefeuilles d'une période à l'autre.

  • 01:00:00 Dans cette section, le conférencier aborde différents types de contraintes pouvant être appliquées dans l'optimisation de portefeuille pour contrôler les risques et les variations d'un portefeuille. Il s'agit notamment de contrôler l'erreur de suivi entre un portefeuille et son indice de référence, de limiter l'exposition aux différents facteurs de marché et d'appliquer des tailles minimales de transaction et de détention, ainsi que des contraintes d'entier. Ces contraintes peuvent être exprimées sous forme de contraintes linéaires et quadratiques sur les poids et peuvent être mises en œuvre parallèlement au problème d'optimisation de portefeuille. L'exemple donné concerne les fonds négociés en bourse du secteur américain.

  • 01:05:00 Dans cette section, le conférencier discute du potentiel des fonds négociés en bourse comme moyen d'investir dans les marchés boursiers. Ils analysent neuf FNB différents investis dans divers secteurs industriels du marché américain. Ces FNB se sont comportés différemment entre 2009 et la semaine dernière, ce qui met en évidence leur valeur pour un portefeuille diversifié. L'intervenant examine l'allocation optimale de ces ETF sur cette période à travers des outils d'analyse de portefeuille. Les résultats révèlent que l'ETF jaune représentant les biens de consommation de base se verra attribuer une pondération élevée, suivi du vert représentant l'énergie et de l'orange pour la santé, ce qui implique que ces secteurs sont prometteurs pour l'investissement. De plus, une optimisation moyenne-variance est appliquée en restreignant un investissement maximum de 30% par actif. Le graphique montre que cette contrainte commence à être active lorsque les rendements sont supérieurs au taux sans risque, ce qui signifie allouer plus de pondération aux autres ETF pour augmenter le portefeuille discrétionnaire des consommateurs.

  • 01:10:00 Dans cette section, le conférencier explique comment les contraintes de capital affectent les portefeuilles optimaux. Ils présentent un graphique de la frontière efficiente et montrent comment les portefeuilles changent lorsque les contraintes sont atteintes. Lorsqu'un rendement cible de 10 % est considéré avec une contrainte de capital de 30 %, le portefeuille optimal avec une volatilité de 10 % est affiché. Cependant, lorsque la contrainte de capital est réduite à 15 %, la frontière efficiente diminue et les portefeuilles doivent être alloués à d'autres fonds négociés en bourse, car les contraintes frappent plus tôt. La conférence souligne que les contraintes de capital sont réalistes dans certaines circonstances et leur impact sur les politiques d'investissement.

  • 01:15:00 Dans cette section, le conférencier discute de l'optimisation de portefeuille à l'aide de fonds négociés en bourse (ETF) et de stratégies neutres au marché. L'exemple des ETF montre comment les performances passées peuvent définir les portefeuilles, mais il n'est pas vraiment fiable. Le conférencier explique ensuite comment les hedge funds peuvent investir dans des modèles sectoriels en utilisant des stratégies neutres au marché, qui ont tendance à être moins corrélées et offrent des avantages de diversification spectaculaires. Le graphique montre que des allocations optimales dans ces modèles sectoriels neutres au marché peuvent aider à atteindre une volatilité cible de 10 %, et la combinaison de différents modèles a une optimisation de portefeuille bénéfique en raison de leur corrélation plus faible.

  • 01:20:00 Dans cette section, l'orateur souligne que les résultats des rendements estimés, des volatilités estimées et des corrélations peuvent être impactés par les choix de période d'estimation, d'erreur d'estimation et de différentes techniques qui peuvent moduler ces problèmes. L'utilisation de modèles factoriels pour estimer la matrice variance-covariance permet d'obtenir des données d'optimisation plus précises. Le conférencier aborde également différentes mesures de risque telles que l'écart absolu moyen, la semi-variance et les mesures de valeur à risque, qui sont désormais standard dans la gestion de portefeuille et la gestion d'actifs risqués. Il existe également une extension de la valeur à risque appelée valeur à risque conditionnelle. Les mesures de risque appropriées dépendent des actifs investis, et il y a toute une discussion sur les mesures de risque cohérentes pour l'analyse des risques.
14. Portfolio Theory
14. Portfolio Theory
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

15. Modélisation factorielle



15. Modélisation factorielle

Dans cette section, la vidéo se penche sur les aspects pratiques de la modélisation factorielle, y compris l'estimation des paramètres sous-jacents et l'interprétation des modèles factoriels. Le conférencier souligne l'importance d'adapter les modèles à des périodes de données spécifiques et reconnaît que la modélisation de la dynamique et des relations entre les facteurs est cruciale.

La vidéo explique que les méthodes d'estimation du maximum de vraisemblance peuvent être utilisées pour estimer les paramètres des modèles factoriels, y compris les chargements factoriels et alpha. Le processus d'estimation implique l'utilisation de formules de régression avec les saturations factorielles estimées et les valeurs alpha pour estimer les réalisations factorielles. L'algorithme EM (Expectation-Maximization) est présenté comme une méthodologie d'estimation puissante pour les fonctions de vraisemblance complexes, car il estime de manière itérative les variables cachées en supposant des variables cachées connues.

L'application de la modélisation factorielle sur les marchés des matières premières est discutée, en mettant l'accent sur l'identification des facteurs sous-jacents qui déterminent les rendements et les covariances. Ces facteurs estimés peuvent servir d'entrées pour d'autres modèles, permettant une meilleure compréhension du passé et des variations du marché. Le conférencier mentionne également la flexibilité de considérer différentes transformations des facteurs estimés à l'aide de la matrice de transformation H.

Les tests de rapport de vraisemblance sont introduits comme moyen de tester la dimensionnalité du modèle factoriel. En comparant la vraisemblance du modèle à facteurs estimés avec la vraisemblance d'un modèle réduit, l'importance et la pertinence de facteurs supplémentaires peuvent être évaluées. Cette approche de test aide à déterminer le nombre approprié de facteurs à inclure dans le modèle.

La section conclut en soulignant l'importance de modéliser la dynamique des facteurs et leurs relations structurelles. Les modèles factoriels fournissent un cadre pour comprendre l'interaction entre les facteurs et leur impact sur les rendements des actifs et les covariances. En tenant compte de la dynamique et des relations structurelles, les investisseurs et les analystes peuvent obtenir des informations précieuses sur les moteurs sous-jacents des marchés financiers.

Dans l'ensemble, cette section développe le sujet de la modélisation factorielle, explorant l'estimation des paramètres, l'interprétation des modèles factoriels et l'application de la modélisation factorielle sur les marchés des matières premières. Cette section met l'accent sur la nécessité de disposer de techniques de modélisation appropriées et de comprendre la dynamique et les relations entre les facteurs pour obtenir des informations utiles sur les marchés financiers.

  • 00:00:00 Dans cette section, le sujet abordé est la modélisation factorielle, qui vise à utiliser l'analyse multivariée pour modéliser les marchés financiers en utilisant des facteurs pour expliquer les rendements et les covariances. Il existe deux types de modèles factoriels où les facteurs peuvent être observables ou cachés, et des modèles factoriels statistiques sont utilisés pour spécifier ces modèles. Le modèle factoriel linéaire utilise les facteurs f1 à fk, qui est un modèle d'espace d'états pour la valeur du processus stochastique qui dépend des coefficients beta_1 à beta_k. La configuration ressemble à un modèle de régression standard, et les vecteurs beta_i sont appelés les chargements factoriels, des facteurs spécifiques étant appelés epsilon de l'actif i, période t. L'objectif est de caractériser les rendements et les covariances en utilisant un nombre modeste de facteurs sous-jacents par rapport au grand nombre de titres, ce qui simplifie grandement le problème.

  • 00:05:00 Dans cette section, la vidéo présente un modèle factoriel pour expliquer les rendements des actifs en fonction de facteurs sous-jacents. Le terme résiduel est considéré comme aléatoire et supposé être un bruit blanc de moyenne 0. Ce modèle suppose que les rendements des actifs dépendent des facteurs sous-jacents avec une moyenne, mu_f, et une matrice de covariance, omega_f. La matrice psi représente une matrice diagonale avec les variances spécifiques des actifs sous-jacents. La matrice de covariance pour le vecteur global du processus stochastique à m variables peut être obtenue en utilisant les attentes et les covariances conditionnelles et inconditionnelles. La covariance inconditionnelle de x est égale à l'espérance de la covariance du terme résiduel plus deux fois la covariance entre la valeur attendue de x et le terme résiduel. Le nombre de paramètres pour la matrice de covariance est m fois m plus 1 sur 2.

  • 00:10:00 Dans cette section, le concept de modèle factoriel est introduit comme moyen de réduire le nombre de paramètres impliqués dans une régression multivariée, avec une attention particulière accordée à l'interprétation du modèle factoriel comme une série de régressions de séries chronologiques. L'accent est mis sur le regroupement de tout pour tous les actifs à la fois, ce qui est efficace en termes de calcul pour les adapter. Le modèle factoriel le plus simple, le modèle à facteur unique de Sharpe, est présenté dans lequel le rendement excédentaire des actions peut être modélisé comme une régression linéaire sur le rendement excédentaire du marché, en échelonnant le risque par le beta_i de différents actifs.

  • 00:15:00 Dans cette section, la vidéo traite de la matrice de covariance des actifs dans la modélisation factorielle et comment elle peut être simplifiée en utilisant un modèle de modélisation de la covariance, qui peut être utile dans la gestion de portefeuille et la gestion des risques. Le processus d'estimation pour le modèle à indice unique de Sharpe est également expliqué, ainsi que le concept de variables factorielles communes qui peuvent être observées comme candidats potentiels pour être un facteur pertinent dans un modèle factoriel linéaire. L'efficacité d'un facteur potentiel est déterminée en ajustant le modèle et en voyant dans quelle mesure il contribue à la matrice de covariance globale.

  • 00:20:00 Dans cette section, la vidéo décrit la modélisation factorielle et l'approche de transformation des facteurs en facteurs de surprise pour modéliser les variables macroéconomiques. Le pouvoir d'incorporer des changements imprévus dans ces facteurs est discuté, et cette approche est largement appliquée maintenant. La vidéo explique également comment estimer les paramètres sous-jacents à l'aide de méthodes de régression simples et des hypothèses de Gauss-Markov. Un exemple de l'approche BARRA, qui utilise des variables factorielles communes basées sur des attributs fondamentaux ou spécifiques à un actif, est également fourni.

  • 00:25:00 Dans cette section, l'approche Fama-French de la modélisation factorielle et de l'analyse des risques est abordée, qui consiste à classer les actions en fonction de facteurs communs tels que la capitalisation boursière et la valeur par rapport à la croissance, et à les diviser en quintiles pour des moyennes équipondérées . Le modèle factoriel industriel BARRA, qui divise les actions en différents groupes industriels, est également mentionné comme un cas simple de modélisation factorielle. Les réalisations des facteurs ne sont pas observées mais sont estimées dans l'application de ces modèles, ce qui permet de calculer la corrélation avec les rendements des actifs individuels. Dans l'ensemble, ces approches continuent d'être largement utilisées dans la modélisation factorielle aujourd'hui.

  • 00:30:00 Dans cette section, le concept de modèles de facteurs industriels est introduit. Plus précisément, les modèles de facteurs industriels permettent l'association de saturations factorielles, qui sont utilisées pour charger chaque actif en fonction du groupe industriel auquel il appartient. Le problème avec les modèles de facteurs industriels est de savoir comment spécifier la réalisation des facteurs sous-jacents, qui peuvent être estimés avec un modèle de régression. L'estimation des réalisations factorielles suppose que la variabilité des composantes de x a la même variance mais il y a en fait hétéroscédasticité dans ces modèles. Dans l'ensemble, cette section donne un aperçu de l'estimation des matrices de covariance et des estimations de régression pour les modèles de facteurs industriels.

  • 00:35:00 Dans cette section de la vidéo, l'accent est mis sur l'hétéroscédasticité dans l'estimation des paramètres de régression et son impact sur l'optimisation du portefeuille, où les actifs sont pondérés par leurs rendements attendus et pénalisés par une variance élevée. Les portefeuilles imitant les facteurs sont utilisés pour déterminer la valeur réelle du trading avec des facteurs tels que dans le modèle Fama-French, et la réalisation de chaque facteur est une somme pondérée des rendements des actifs sous-jacents. En normalisant les pondérations des lignes des réalisations k-dimensionnelles, des portefeuilles imitant les facteurs qui interprètent les investissements potentiels peuvent être définis pour l'allocation d'actifs.

  • 00:40:00 Dans cette section, l'orateur discute des modèles de facteurs statistiques pour analyser les séries chronologiques de rendements d'actifs pour m actifs sur T unités de temps, où les facteurs sous-jacents sont inconnus. L'orateur explique l'analyse factorielle et l'analyse en composantes principales comme des méthodes pour découvrir ces facteurs sous-jacents, qui peuvent être définis en termes de données elles-mêmes. L'orateur note qu'il y a une flexibilité dans la définition du modèle factoriel et que toute spécification donnée de la matrice B ou des facteurs f peut être transformée par ak par k matrice inversible H.

  • 00:45:00 Dans cette section, le concept de modélisation factorielle et de transformations est discuté, soulignant comment la fonction linéaire reste la même en termes de matrice de covariance des facteurs sous-jacents. La discussion passe à la définition d'une matrice H qui diagonalise les facteurs, ce qui permet de considérer des modèles factoriels avec des composantes factorielles non corrélées. Faire certaines hypothèses telles que les facteurs orthonormaux et de moyenne nulle simplifie le modèle à la matrice de covariance sigma_x comme les chargements de facteur B fois sa transposée, plus une matrice diagonale. L'estimation du maximum de vraisemblance est également discutée dans le contexte de modèles à facteurs linéaires normaux avec des variables aléatoires sous-jacentes normalement distribuées, conduisant à la fonction de densité conjointe des données.

  • 00:50:00 Dans cette section, la vidéo traite de la modélisation factorielle et de la manière dont les méthodes d'estimation du maximum de vraisemblance peuvent être appliquées pour spécifier tous les paramètres des matrices B et psi à l'aide de l'algorithme EM. Les réalisations factorielles peuvent être estimées en utilisant la formule de régression avec des estimations pour les saturations factorielles et alpha. L'algorithme EM est une méthodologie d'estimation puissante qui peut simplifier les fonctions de vraisemblance complexes en estimant les variables cachées, en supposant que les variables cachées sont connues, et en itérant ce processus. Les réalisations des facteurs peuvent être utilisées pour la modélisation des risques.

  • 00:55:00 Dans cette section, l'orateur discute de l'utilisation de l'analyse factorielle statistique sur les marchés des matières premières et de l'identification des facteurs sous-jacents qui génèrent des rendements et des covariances. Les facteurs sous-jacents estimés peuvent également être utilisés comme données d'entrée dans d'autres modèles, ce qui est utile pour comprendre le passé et la manière dont ils varient. L'orateur mentionne également la flexibilité de considérer différentes transformations d'un ensemble donné de facteurs estimés par la matrice H pour la transformation. De plus, l'utilisation de l'analyse factorielle statistique pour interpréter les facteurs sous-jacents est mentionnée, avec des applications pour mesurer le QI et trouver des rotations des charges factorielles qui rendent les facteurs plus interprétables. Enfin, la section couvre les tests de rapport de vraisemblance et les tests de dimensionnalité du modèle factoriel.

  • 01:00:00 Dans cette section, le concept d'analyse en composantes principales (ACP) est introduit, qui est un cadre théorique qui utilise des valeurs propres et des vecteurs propres de la matrice de covariance pour réduire la structure multivariée dans un espace dimensionnel plus petit. PCA crée un nouveau système de coordonnées qui ne modifie pas la position relative des données, mais fait uniquement pivoter les axes de coordonnées, et cela simplifie
    la transformation affine de la variable d'origine x. Les variables des composantes principales ont une moyenne de 0 et une matrice de covariance donnée par la matrice diagonale des valeurs propres, et elles représentent un modèle factoriel linéaire avec des chargements factoriels donnés par gamma_1 et un terme résiduel donné par gamma_2 p_2. Cependant, le vecteur gamma_2 p_2 peut ne pas avoir de matrice de covariance diagonale.

  • 01:05:00 Dans cette section, la vidéo explique les différences entre les modèles à facteurs linéaires et l'analyse en composantes principales. Avec un modèle à facteurs linéaires, on suppose que le vecteur résiduel a une matrice de covariance égale à une diagonale, tandis que l'analyse en composantes principales peut être vraie ou non. La vidéo aborde ensuite l'analyse empirique des composantes principales, où des données d'échantillon sont utilisées pour obtenir des estimations des moyennes et des matrices de covariance. Le concept de variabilité est également introduit, dans lequel la première variable de composante principale est définie comme la dimension à laquelle l'axe des coordonnées présente la variabilité maximale. La deuxième variable composante principale est alors la direction orthogonale à la première avec la variance maximale, et ce processus est poursuivi pour définir toutes les m variables composantes principales.

  • 01:10:00 Dans cette section, l'orateur explique comment l'analyse en composantes principales peut être utilisée pour décomposer la variabilité des différentes variables des composantes principales d'une matrice de covariance σ, qui représente la variance totale d'un ensemble de données multivariées. Les entrées hors diagonale de la matrice sont nulles, ce qui indique que les principales variables composantes ne sont pas corrélées et ont leur propre niveau de variabilité, représenté par les valeurs propres. Comme étude de cas, l'orateur utilise l'exemple des rendements des bons du Trésor américain entre 2000 et 2013, en examinant spécifiquement les variations des rendements. L'accent est mis sur une période de cinq ans entre 2001 et 2005, et l'analyse se compose de la volatilité quotidienne des rendements et des niveaux négatifs sur cette période.

  • 01:15:00 Dans cette section, le présentateur traite de la modélisation factorielle des changements de rendement à l'aide de l'analyse en composantes principales. La matrice de corrélation des changements de rendement montre des corrélations élevées pour les durées plus courtes et des corrélations diminuant à mesure que vous vous éloignez de la diagonale. Le présentateur utilise des graphiques pour représenter visuellement les corrélations et montre que la première composante principale explique 85 % de la variabilité totale. Un diagramme d'éboulis confirme que les premières composantes principales expliquent une part importante de la variabilité. Enfin, le présentateur compare les écarts-types des changements de rendement d'origine à ceux des principales variables composantes.

  • 01:20:00 Dans cette section, un graphique des charges sur les différents changements de rendement pour les premières variables des composantes principales a été présenté, ce qui donne une idée de l'interprétation des variables des composantes principales. La première variable de composante principale mesure la variation moyenne du rendement sur l'ensemble de la fourchette et donne plus de poids au rendement à cinq ans, qui capture une mesure du changement de niveau de la courbe de rendement, tandis que la deuxième variable de composante principale examine la différence entre le rendement changements sur les ténors longs par rapport aux ténors courts. De plus, la troisième variable de la composante principale fournit une mesure de la courbure de la structure des termes et de son évolution dans le temps. Les variables des composantes principales n'ont aucune corrélation entre elles, et les variables des composantes principales cumulatives au fil du temps indiquent comment ces facteurs sous-jacents ont évolué au cours de la période.

  • 01:25:00 Dans cette section, l'orateur discute de l'adaptation d'un modèle d'analyse factorielle statistique aux données et de la comparaison des résultats sur une période de cinq ans. L'orateur insiste sur l'importance de spécifier les modèles sur une période précise et note que l'ajustement des modèles n'est qu'un point de départ. En définitive, la modélisation de la dynamique de ces facteurs et de leurs relations structurelles est nécessaire.
15. Factor Modeling
15. Factor Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
Raison: