Trading Quantitatif - page 17

 

Cours Ingénierie Financière : Cours 11/14, partie 1/2, (Modèles de marché et ajustements de convexité)



Cours Ingénierie Financière : Cours 11/14, partie 1/2, (Modèles de marché et ajustements de convexité)

Dans cette conférence, l'accent est mis principalement sur le modèle de marché des bibliothèques et ses extensions, en particulier la volatilité stochastique. Le modèle de marché des bibliothèques vise à consolider les mesures individuelles des taux Libor en une mesure unifiée et cohérente pour évaluer les prix des produits dérivés. Après avoir donné un aperçu de l'historique et des spécifications du modèle, le conférencier se penche sur la dérivation du modèle, en explorant des choix populaires tels que la volatilité log-normale et stochastique.

Le second sujet abordé est la correction de convexité, qui consiste à définir et modéliser ces ajustements. Le cours traite du moment où les corrections de convexité se produisent, comment les identifier et leur pertinence dans l'évaluation des dérivés qui impliquent des ajustements de convexité.

L'enseignant souligne l'importance des modèles de marché et des ajustements de convexité dans le domaine de l'ingénierie financière. Les modèles de marché offrent des solutions puissantes à divers problèmes complexes, en particulier dans la tarification des dérivés exotiques avec des structures de paiement complexes. Cependant, ces modèles peuvent être encombrants et coûteux. Néanmoins, le modèle de marché Libor, ou les modèles de marché en général, ont été conçus pour gérer de telles complications, en particulier dans la tarification des dérivés exotiques dépendant de plusieurs taux Libor.

En outre, la conférence explore le développement d'une mesure unifiée pour incorporer plusieurs taux Libor, une condition préalable cruciale pour une tarification précise. La machinerie mise en œuvre s'appuie sur les techniques de changement majeur et la mesure à terme associée aux obligations à coupon zéro. Bien que des solutions de forme fermée soient possibles dans certains cas, la machinerie elle-même est complexe et multidimensionnelle.

L'orateur discute du cadre de définition des modèles de taux d'intérêt, soulignant l'importance de spécifier les conditions de dérive et de volatilité pour s'assurer que le modèle est bien défini et exempt d'opportunités d'arbitrage. L'évaluation de produits à revenu fixe complexes, y compris les dérivés exotiques, nécessite des modèles avancés en raison de leur dépendance à de multiples bibliothèques, ce qui rend impossible leur décomposition en paiements indépendants. Pour résoudre ce problème, le modèle de marché Libor est introduit, développé avec une approche pratique pour maintenir la cohérence avec les pratiques du marché et les méthodes de tarification existantes pour les swaptions ou les options sur les bibliothèques. Ce modèle permet une valorisation avancée et est sans arbitrage, ce qui le rend indispensable pour la tarification de produits à revenu fixe complexes.

La conférence met l'accent sur l'importance du modèle BGM (Brace Gatarek Musiela), qui a révolutionné la tarification des produits dérivés exotiques. S'appuyant sur les fondations existantes du marché, le modèle BGM a introduit des éléments supplémentaires qui lui ont permis d'être largement accepté comme pratique du marché pour la tarification des dérivés liés à de multiples bibliothèques et à des structures de volatilité complexes. Les simulations de Monte Carlo sont souvent utilisées pour séparer les processus impliqués dans le modèle BGM en raison des défis posés par le traitement de plusieurs taux Libor sous différentes mesures. Le modèle vise à fournir une dynamique sans arbitrage pour les taux Libor, permettant la tarification des caplets et des fleurons d'une manière similaire à la convention de marché établie par la formule Black-Scholes. Alors que le modèle BGM se simplifie à ce bloc fondamental, il offre des fonctionnalités supplémentaires pour faciliter la tarification des dérivés exotiques.

L'orateur poursuit en expliquant le processus d'obtention des taux de la bibliothèque en définissant une obligation zéro à terme comme stratégie de refinancement entre le temps t1 et le temps d2. Diverses considérations, telles que les dates de réinitialisation, le délai de réinitialisation et le délai de paiement, doivent être prises en compte, car les décalages entre le paiement du produit et l'actualisation nécessitent des ajustements de convexité. À l'avenir, la conférence se penche sur la spécification d'un modèle de marché Libor multidimensionnel, en commençant par la détermination du nombre requis de taux Libor.

La conférence explore la structure des équations différentielles stochastiques pour un système de taux Libor dans le temps. Au fil du temps, la dimensionnalité du système diminue à mesure que certains taux Libor se fixent à des points spécifiques. L'intervenant insiste sur l'importance de la structure de corrélation entre les taux Libor et sa paramétrisation pour assurer une matrice de corrélation définie positive. La conférence mentionne également le rôle de la mesure à terme et des obligations à coupon zéro dans la définition des martingales.

Les actifs négociables et les obligations à coupon zéro sont introduits sous forme de martingales. Le taux Libor, L(T) et TI-1 sont considérés comme des martingales sous certaines conditions. Les fonctions σ(i) et σ(j) sont introduites comme moteurs du mouvement brownien, qui doit être défini sous une mesure cohérente. Le cours met en évidence le besoin de cohérence entre la mesure de l'espérance et la mesure du mouvement brownien utilisée pour évaluer les expressions. Le modèle de marché Libor, également connu sous le nom de modèle BGM, combine des ensembles individuels selon des pratiques de marché dérivées des modèles Black-Scholes, servant de point clé dans le cadre du modèle.

La conférence se penche sur le concept du modèle de marché Libor, qui utilise plusieurs équations différentielles stochastiques pour unifier différents processus sous une mesure à terme cohérente. Chaque taux Libor, selon sa propre mesure, agit comme une martingale. Cependant, lorsque les mesures sont modifiées pour chaque taux Libor, cela affecte la dynamique et le terme de dérive. L'élément crucial du modèle de marché Libor réside dans la détermination de la transition de la dérive et de son comportement lorsque les mesures changent pour chaque taux Libor. Ce terme de dérive peut être complexe, et la conférence discute de deux possibilités courantes pour choisir la mesure terminale ou la mesure ponctuelle pour évaluer les dérivés. En outre, la conférence explore la relation entre le modèle de marché Libor et d'autres modèles tels que AJM (Andersen-Jessup-Merton), le modèle Brace Gatarek Musiela et HJM (Heath-Jarrow-Morton), donnant un aperçu de leurs interconnexions. L'utilisation de la volatilité complète pour le taux à terme instantané dans le modèle de marché Libor est également examinée.

La conférence aborde la relation entre le taux à terme instantané et le taux Libor, en insistant sur leur forte corrélation, en particulier lorsque les deux heures se rapprochent et qu'un indice courant est présent. Le processus de modification de la mesure de i à j et de recherche du terme de dérive par des transformations de mesure est expliqué en détail. La conférence souligne l'importance de saisir les concepts abordés dans les conférences précédentes pour comprendre l'éventail d'outils et de simulations requis dans les deux dernières conférences.

L'instructeur se penche sur les transformations de mesure et la dynamique du taux Libor sous différentes mesures. En utilisant le théorème de Girsanov et en effectuant les substitutions appropriées, une équation est dérivée pour représenter la transformation de la mesure de i-1 à i ou vice versa. Cette équation sert de base pour représenter le taux LIBOR selon différentes mesures. La conférence met en évidence l'importance de sélectionner la mesure ponctuelle ou terminale appropriée pour une tarification précise des produits dérivés.

La conférence explique en outre le processus d'ajustement de la dérive pour différents taux Libor dans le modèle de marché afin d'assurer la cohérence avec la mesure terminale. L'ajustement consiste à cumuler tous les ajustements nécessaires des taux Libor entre le premier et le dernier taux jusqu'à atteindre la mesure terminale. La transition d'une mesure à une autre peut être dérivée de manière itérative, et le processus d'ajustement de la dérive est au cœur du modèle de marché Libor. Cependant, un défi se pose avec la mesure terminale, où la période la plus courte, la plus proche du présent, devient plus stochastique car elle implique tous les processus ultérieurs, ce qui peut sembler contre-intuitif. Néanmoins, le modèle de marché Libor fonctionne principalement dans le cadre de la mesure au comptant en tant que défaut consensuel, à moins qu'un gain spécifique ne soit désigné comme faisant partie de la mesure terminale.

L'orateur aborde certains problèmes avec le modèle de marché des bibliothèques, en particulier le manque de continuité concernant les temps entre la grille de teneur spécifiée. Pour résoudre ce problème, l'orateur présente la stratégie consistant à utiliser un compte d'épargne discret à trois rééquilibrages discrets pour définir la mesure ponctuelle du modèle de marché des bibliothèques. Cette stratégie consiste à observer comment une unité de devise investie aujourd'hui peut s'accumuler compte tenu de la structure d'appel d'offres existante des obligations à coupon zéro. La stratégie est définie non pas à t0, mais à t1, consistant à acheter une obligation à t1, à recevoir le montant accumulé à l'échéance et à le réinvestir pour la deuxième obligation à t2.

La conférence explique le concept de capitalisation dans une structure d'intervalle discrète, qui permet d'investir dans des obligations à coupon zéro tout en réinvestissant les montants reçus dans de nouvelles obligations. Le produit de tous les composants de l'obligation à coupon zéro définit le montant que l'investisseur recevrait à un moment donné. Le montant cumulé peut être défini en continu en actualisant du dernier point de la grille au point actuel. Le cours introduit le concept de la mesure spot-Libor, qui permet au numérateur courant de passer d'une mesure ti à une mesure tm. De plus, le concept de mt est introduit comme le minimum i tel que ti soit le plus grand que t, établissant un lien entre t et la liaison suivante.

À l'avenir, l'orateur explique le processus de définition de la transformation de la mesure de la mesure M_t à la mesure M_t+1. Ceci est réalisé en utilisant le dérivé Radon-Nikodym. Le cours se penche sur la dynamique pour lambda et psi, qui déterminent la transformation de la mesure et la relation entre les mouvements browniens sous t et n. Enfin, l'orateur présente la représentation finale du modèle de marché des bibliothèques, qui ressemble étroitement aux transformations de mesure discutées précédemment dans des modèles comme le mode de marché.

Ensuite, la conférence se concentre sur la dynamique du modèle de marché Libor, en particulier son application dans la tarification de produits exotiques avancés et complexes dans le domaine des taux d'intérêt. Le modèle pose un problème de grande dimension avec une dérive complexe qui englobe plusieurs taux Libor, ce qui rend sa mise en œuvre difficile. Cependant, le modèle est un précieux outil de résolution de problèmes. La conférence explore les extensions du modèle pour incorporer les sourires de volatilité et discute de la sélection du processus de volatilité stochastique tout en gardant la dynamique du modèle aussi simplifiée que possible. On note que la log-normalité du modèle n'existe que sous la mesure marginale et implique une sommation de différents processus indépendants, indiquant qu'elle n'est pas log-normale dans le cas général.

La série de conférences sur le Libor Market Model et ses extensions, en particulier la volatilité stochastique, approfondit divers aspects du cadre du modèle. Il couvre l'unification des taux Libor individuels en une mesure cohérente, la dérivation du modèle à l'aide de choix populaires tels que la volatilité log-normale et stochastique, et le concept de corrections de convexité pour la tarification des dérivés. La conférence met l'accent sur l'importance de comprendre les transformations de mesure, la dynamique sous différentes mesures et de choisir les mesures ponctuelles ou terminales appropriées. La capacité du modèle à gérer des produits à revenu fixe complexes, sa relation avec d'autres modèles de marché, ainsi que sa dynamique et ses défis sont explorés en profondeur. En comprenant ces concepts et ces outils, les ingénieurs financiers peuvent évaluer efficacement les produits dérivés exotiques et naviguer dans les subtilités du monde des taux d'intérêt.

  • 00:00:00 Dans cette section du cours d'ingénierie financière, l'accent est mis sur le premier sujet du modèle de marché des bibliothèques et ses extensions, en particulier la volatilité stochastique. Le modèle de marché des bibliothèques vise à rassembler toutes les mesures individuelles des taux Libor en une seule mesure cohérente et à évaluer la dérivée de prix. Après avoir discuté de l'historique et des spécifications du modèle, la conférence couvre la dérivation du modèle, y compris les choix populaires de volatilité log-normale et stochastique. Le deuxième sujet est la correction de convexité, qui comprend la définition de ce que sont les corrections de convexité, l'identification du moment où elles se produisent, leur modélisation et l'évaluation des dérivés qui impliquent des ajustements de convexité.

  • 00:05:00 Dans cette section, le conférencier aborde les modèles de marché et les ajustements de convexité en relation avec l'ingénierie financière. Les modèles de marché sont extrêmement puissants et peuvent être utilisés pour résoudre une variété de problèmes graves, mais peuvent également être problématiques en raison de leur nature maladroite et coûteuse. Cependant, le ou les modèles de marché Libor sont conçus pour gérer des structures de paiement avancées très compliquées dans la tarification des dérivés exotiques. Le développement d'une mesure unifiée pour intégrer plusieurs taux Libor dans un cadre unique est également discuté, ce qui est nécessaire à des fins de tarification. La machinerie s'appuie sur les techniques de changement majeur et la mesure à terme associée aux obligations à coupon zéro. Bien que des solutions de forme fermée soient possibles dans certains cas, la machinerie elle-même est complexe et multidimensionnelle.

  • 00:10:00 Dans cette section, l'orateur discute du cadre de définition des modèles de taux d'intérêt, qui implique de spécifier les conditions de dérive et de volatilité pour garantir que le modèle est bien défini et sans arbitrage. Les produits à revenu fixe complexes, tels que les dérivés exotiques, nécessitent des modèles avancés d'évaluation, car leur gain dépend de plusieurs bibliothèques et ne peut pas être décomposé en paiements indépendants. L'orateur présente le modèle de marché Libor, qui est développé avec une approche pratique pour s'assurer qu'il est conforme aux pratiques du marché et ne perturbe pas les pratiques de tarification actuelles pour les swaptions ou les options sur les bibliothèques. Ce modèle permet une valorisation avancée et est sans arbitrage, ce qui le rend utile pour la tarification de produits à revenu fixe complexes.

  • 00:15:00 Dans cette section de la conférence, l'importance du modèle BGM et comment il a permis la tarification des dérivés exotiques est discutée. Le modèle BGM était basé sur des blocs de construction existants sur le marché et a ajouté quelque chose de plus au cadre, lui permettant d'être accepté comme pratique du marché pour la tarification des dérivés exotiques qui dépendent de plusieurs bibliothèques et de structures de volatilité complexes. La séparation des processus impliqués dans le modèle BGM est principalement effectuée à l'aide de Monte Carlo, en raison du problème de dimensionnalité lorsqu'il s'agit de plusieurs taux de libor sous différentes mesures. Le concept de développement d'un nouveau modèle est de fournir une dynamique sans arbitrage pour les taux libor et de faciliter la tarification des caplets et des fleurons de la même manière que la convention de marché, la formule Black-Scholes. Le modèle BGM s'effondre sur ce bloc fondamental de base tout en fournissant quelque chose de plus au cadre pour permettre la tarification des dérivés exotiques.

  • 00:20:00 Dans cette section de la conférence, l'orateur explique comment arriver aux taux de la bibliothèque en définissant l'obligation zéro à terme comme une stratégie de refinancement entre le temps t1 et le temps d2. Les dates de réinitialisation peuvent être légèrement modifiées, et il y a des dates supplémentaires à prendre en compte, telles que le délai de réinitialisation et le délai de paiement. Lorsqu'il y a un décalage entre le paiement du produit et l'escompte, l'orateur explique que des ajustements de convexité doivent être faits pour tenir compte de l'impact. L'orateur aborde ensuite la spécification d'un modèle de marché du libor multidimensionnel, en commençant par définir le nombre de taux de libor nécessaires.

  • 00:25:00 Dans cette section de la conférence sur l'ingénierie financière, l'orateur discute de la structure des équations différentielles stochastiques pour un système de taux Libor dans le temps. Au fil du temps, la dimensionnalité du système diminue à mesure que certains des taux Libor deviennent fixes à certains moments. L'orateur explique que la structure de corrélation entre les taux Libor est également importante et peut être paramétrée pour s'assurer que la matrice des corrélations est définie positive. La mesure à terme et les obligations à coupon zéro sont également mentionnées en relation avec la définition des martingales.

  • 00:30:00 Dans cette section de la conférence, le concept des actifs négociables et des obligations à coupon zéro en tant que martingale est discuté. Si nous savons que le Libor, L(T) et TI-1 sont une martingale, alors nous pouvons définir des fonctions σ(i) et σ(j), qui deviennent les moteurs du mouvement brownien. Cependant, ces moteurs doivent être définis sous une mesure cohérente, et il doit y avoir une cohérence entre la mesure de l'attente et la mesure du mouvement brownien utilisée pour évaluer une expression. C'est le point clé du modèle de marché Libor ou modèle BGM, qui combine des ensembles individuels selon les pratiques de tarification du marché à l'aide de modèles Black-Scholes.

  • 00:35:00 Dans cette section de la conférence, le concept du modèle de marché Libor est exploré. Ce modèle utilise plusieurs équations différentielles stochastiques pour rassembler différents processus sous une seule mesure cohérente. Chaque Libor sous sa propre mesure est une martingale, mais le changement des mesures introduit des conséquences sur la dynamique et le terme de dérive du taux Libor correspondant. L'élément clé du modèle de marché Libor est de déterminer la transition de la dérive et son comportement lorsque les mesures correspondantes sont modifiées pour chaque taux Libor. Ce terme de dérive peut être assez compliqué, et la conférence discutera de deux possibilités courantes pour choisir la mesure terminale ou la mesure au comptant pour fixer le prix des dérivés. De plus, la relation entre le modèle du marché Libor et l'AJM, le modèle Brace Gatarek Musiela et le HJM est discutée, et la conférence explore l'utilisation d'une volatilité complète pour le taux à terme instantané dans le modèle du marché Libor.

  • 00:40:00 Dans cette section de la conférence, l'orateur discute de la relation entre le taux à terme instantané et le taux Libor, qui sont fortement liés, en particulier dans les cas où les deux heures se rapprochent et qu'un indice courant est présent . La conférence détaille également la modification de la mesure de i à j et la recherche du terme de dérive en s'appuyant sur les transformations de mesure, élément clé de la transformation des mouvements browniens sous différentes mesures. Le cours met l'accent sur l'importance de comprendre les concepts des cours précédents pour comprendre la variété d'outils et de simulations requis dans les deux derniers cours du cours.

  • 00:45:00 Dans cette section du cours, le professeur discute des transformations de mesure et de la dynamique de la bibliothèque sous différentes mesures. En utilisant le théorème de Girsanov et quelques substitutions, le professeur arrive à une équation qui montre la transformation de la mesure de i-1 à i ou vice versa. Le professeur explique ensuite comment cette équation peut être utilisée pour représenter le taux LIBOR selon différentes mesures. La conférence souligne également l'importance de choisir la mesure ponctuelle ou terminale appropriée pour la tarification des dérivés.

  • 00:50:00 Dans cette section du cours d'ingénierie financière, l'instructeur explique comment ajuster la dérive pour différentes bibliothèques dans le modèle de marché afin d'être cohérent avec la mesure terminale. Il explique que toutes les bibliothèques entre la première et la dernière doivent être ajustées, étant accumulées jusqu'à cette dernière mesure. La transition d'une mesure à une autre peut être dérivée de manière itérative, et le processus d'ajustement de la dérive est l'essence du modèle de marché Libor. Cependant, le problème associé à la mesure terminale est que le processus pour la période la plus courte, qui est la plus proche d'aujourd'hui, finit par être plus stochastique car il implique tous les processus qui se trouvent après ce point, ce qui est contre-intuitif. Néanmoins, le modèle de marché Libor fonctionne sous la mesure au comptant comme un consensus par défaut à moins qu'un gain ne soit spécifié comme étant dans la mesure terminale.

  • 00:55:00 Dans cette section de la conférence, l'orateur discute des problèmes du modèle de marché des bibliothèques, en particulier du manque de continuité en termes de temps entre la grille de locataires spécifiée. En tant que tel, l'orateur explique la stratégie consistant à utiliser un compte d'épargne discret à trois rééquilibrages discrets pour définir la mesure ponctuelle du modèle de marché des bibliothèques. Il s'agit d'observer comment l'investissement d'une unité monétaire aujourd'hui peut être accumulé compte tenu de la structure d'appel d'offres existante des obligations à coupon zéro. La stratégie est définie non pas à t0 mais à t1 et consiste à acheter une obligation à t1, à recevoir le montant accumulé à l'échéance et à le réinvestir pour la deuxième obligation à t2.

  • 01:00:00 Dans cette section, le concept de capitalisation dans une structure à intervalles discrets est expliqué comme un moyen d'investir dans des obligations à coupon zéro tout en réinvestissant les montants reçus dans de nouvelles obligations. Le produit de tous les composants zéro définit le montant que l'investisseur recevrait à un moment donné, et le montant cumulé peut être défini en continu en actualisant du dernier point de la grille au point actuel. Le concept de la mesure spot-libor est également introduit, ce qui permet au numérateur courant de passer d'une mesure ti à une mesure tm. De plus, le concept de mt est introduit comme le minimum i tel que ti soit le plus grand que t pour relier t à la liaison suivante.

  • 01:05:00 Dans cette section du cours, l'orateur passe par le processus de définition de la transformation de la mesure de la mesure M_t à la mesure M_t+1. Ceci est accompli en utilisant le dérivé Radon-Nikodym. L'orateur explique également la dynamique pour lambda et psi, qui déterminera la transformation de la mesure et le lien entre les mouvements browniens sous t et n. Enfin, le conférencier présente la représentation finale du modèle de marché des bibliothèques, qui est similaire à ce qui a été vu auparavant dans la mesure changeante de mesures comme le mode de marché.

  • 01:10:00 Dans cette section, l'orateur discute de la dynamique du modèle de marché Libor, qui est utilisé pour les produits exotiques avancés et compliqués dans le monde des taux d'intérêt. Le modèle implique un problème de grande dimension, avec une dérive compliquée qui inclut plusieurs Libors, ce qui le rend difficile à mettre en œuvre. Cependant, le modèle est un résolveur de problèmes, et l'orateur poursuit en discutant des extensions du modèle pour inclure les sourires de volatilité et comment choisir le processus de volatilité stochastique tout en gardant la dynamique du modèle aussi simplifiée que possible. L'orateur note que la log-normalité du modèle n'existe que sous la mesure marginale et qu'elle implique une sommation de différents processus autonomes, ce qui la rend non log-normale dans le cas général.
Financial Engineering Course: Lecture 11/14, part 1/2, (Market Models and Convexity Adjustments)
Financial Engineering Course: Lecture 11/14, part 1/2, (Market Models and Convexity Adjustments)
  • 2022.03.10
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 11- part 1/2, Market Models and Convexity Adjustments▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course ...
 

Cours Ingénierie Financière : Cours 11/14, partie 2/2, (Modèles de marché et ajustements de convexité)



Cours Ingénierie Financière : Cours 11/14, partie 2/2, (Modèles de marché et ajustements de convexité)

La série de conférences sur le Libor Market Model et ses extensions à volatilité stochastique permet une compréhension globale du cadre du modèle et de ses applications en ingénierie financière. L'orateur insiste sur l'importance de considérer les transformations de mesure, la dynamique sous différentes mesures et de choisir des mesures ponctuelles ou terminales appropriées. L'hypothèse log-normale du modèle est discutée, ainsi que ses limites et les défis de la gestion de la volatilité stochastique.

L'un des principaux sujets abordés est le concept d'ajustements de convexité, qui sont nécessaires pour tenir compte des retards de paiement ou des asymétries dans les instruments financiers. Le conférencier explique les défis qui se posent lors de l'inclusion de la dynamique du Libor dans la dynamique de la variance et discute des solutions potentielles, telles que l'imposition de corrélations entre le Libor et la volatilité. Cependant, le conférencier prévient que ces solutions peuvent ne pas être réalistes ou bien calibrées par rapport aux données de volatilité implicite du marché.

Pour relever ces défis, le conférencier introduit le concept de modèle de volatilité stochastique à diffusion déplacée, qui offre une meilleure approche pour modéliser la volatilité stochastique dans le modèle de marché Libor. En utilisant un processus de volatilité stochastique et une méthode de déplacement, le modèle peut modifier la distribution des valeurs de processus tout en préservant les caractéristiques de sourire et d'asymétrie. L'enseignant explique comment le facteur de déplacement, contrôlé par la fonction bêta, détermine l'interpolation entre les valeurs initiales et de processus. L'indépendance du processus de variance est obtenue en supposant une corrélation nulle entre la variance et la dynamique du Libor.

La conférence explore en outre la mise en œuvre et l'étalonnage du modèle de volatilité stochastique à diffusion déplacée. L'enseignant montre comment lier la dynamique du modèle à la représentation du modèle maître, qui est un cas particulier du modèle de Hassle. Les avantages de l'utilisation de ce modèle pour l'étalonnage sont discutés, en soulignant la facilité d'étalonnage de chaque Libor selon sa propre mesure sans corrections de dérive supplémentaires. Le conférencier met également en évidence l'impact du bêta et du sigma sur la forme de la volatilité implicite et explique comment passer le modèle au modèle Hassle pour la tarification.

En outre, la conférence aborde la question des ajustements de convexité dans le modèle de marché Libor. L'enseignant explique comment ajuster la valeur initiale et la volatilité d'un processus de volatilité stochastique à diffusion déplacée pour tenir compte de la convexité du marché. Une nouvelle variable est introduite et des corrections et ajustements constants sont appliqués aux termes de déplacement et de Libor. Le processus qui en résulte est un processus de volatilité stochastique à diffusion déplacée qui intègre la convexité du marché.

La série de conférences aborde également la technique de congélation, qui est utilisée pour fixer la stochasticité des variables et simplifier les modèles. Cependant, le conférencier met en garde contre les pièges potentiels de l'utilisation de cette technique et souligne l'importance de calibrer avec précision le modèle aux données du marché.

Pour renforcer les concepts abordés, la série de conférences se termine par plusieurs devoirs à la maison. Ces devoirs comprennent des exercices sur le calcul des ajustements de convexité, la détermination des matrices de corrélation et l'exploration de différentes spécifications de modèles.

La série de conférences fournit une exploration approfondie du modèle de marché Libor, de ses extensions avec volatilité stochastique, et des défis et techniques impliqués dans la mise en œuvre et le calibrage du modèle de tarification et de gestion des risques dans le domaine des taux d'intérêt.

  • 00:00:00 Dans cette section de la conférence, l'accent est mis sur le modèle de marché des bibliothèques et ses extensions à volatilité stochastique. L'hypothèse log-normale dans le modèle est discutée, et il est montré qu'une approche simple et naïve de la gestion de la volatilité stochastique peut conduire à un système complexe de sds. La technique de congélation pour l'approximation du modèle est présentée, ainsi que ses pièges et les problèmes qui peuvent être rencontrés lors de l'application. Enfin, les corrections et ajustements de convexité sont abordés, ainsi que l'inclusion du sourire et du biais de la volatilité de l'impact dans les calculs. Trois missions sont données pour mieux comprendre le modèle de marché des bibliothèques et les ajustements de convexité.

  • 00:05:00 Dans cette section, l'orateur discute de la dynamique du processus et applique les changements mesurés nécessaires au modèle. Ils supposent que les bibliothèques sont corrélées, ce qu'ils déclarent être un élément clé, et que le Libor est corrélé à la variance. En supposant une corrélation nulle, le modèle n'a qu'un sourire. Ils redéfinissent ensuite le modèle en termes de mouvements browniens indépendants car c'est plus pratique pour effectuer des transformations mesurées. Enfin, ils substituent la définition de la dynamique dans le modèle et démontrent la dynamique du processus Libor et variance après substitution.

  • 00:10:00 Dans cette section, l'orateur explique les complications de l'utilisation des modèles de marché et des ajustements de convexité dans l'ingénierie financière. Plus précisément, ils discutent des défis qui se posent lors de l'inclusion de la dynamique du libor dans la dynamique de la variance. Bien qu'il existe des solutions potentielles, telles que l'imposition de corrélations entre le Libor et la volatilité, ces solutions peuvent ne pas être réalistes ou bien calibrées par rapport aux données de volatilité implicite du marché. En conséquence, l'orateur suggère d'utiliser la diffusion déplacée comme option alternative pour modéliser la volatilité stochastique dans le modèle du marché du libor.

  • 00:15:00 Dans cette section, l'orateur discute du modèle de volatilité stochastique à diffusion déplacée, qui est un meilleur candidat pour les modèles du marché du travail en raison de sa capacité à satisfaire des conditions de modèle importantes. Le modèle implique l'utilisation d'un processus de volatilité stochastique et d'une méthode de déplacement pour modifier la distribution des valeurs de processus tout en préservant le sourire et la vis. L'orateur explique que le facteur de déplacement est contrôlé par la fonction bêta, qui détermine l'interpolation entre les valeurs initiales et de processus. L'indépendance du processus de variance est obtenue en supposant une corrélation nulle entre la variance et la dynamique de l'ampoule. Le modèle peut être utilisé pour introduire un biais et compenser le biais perdu en raison de la corrélation nulle supposée.

  • 00:20:00 Dans cette section, l'orateur explique comment lier la dynamique de diffusion des affichages à la représentation du modèle maître, qui est un cas particulier du modèle de Hassle. Ils expliquent les avantages de l'utilisation de ce modèle pour l'étalonnage et comment chaque libor peut être calibré selon sa propre mesure, sans aucune correction de dérive supplémentaire, ce qui facilite l'évaluation des dérivés. L'orateur montre ensuite l'impact du bêta et du sigma sur la forme de la volatilité implicite et comment l'introduction du processus de smile peut donner suffisamment de flexibilité au modèle pour être calibré sur les instruments du marché. Ils discutent également brièvement de l'implémentation de python et de la manière de lier la diffusion des affichages à la volatilité stochastique pour passer le modèle au modèle Hassle pour la tarification.

  • 00:25:00 Dans cette section de la conférence, l'orateur explique comment ajuster la valeur initiale et la volatilité d'un processus de volatilité stochastique à diffusion déplacée pour tenir compte de la convexité du marché. Pour ce faire, ils introduisent une nouvelle variable et effectuent des ajustements constants sur les termes de déplacement et de bibliothèque. Après avoir appliqué les corrections et ajustements constants, la forme du nouveau processus pour v est définie, avec une nouvelle correction ou ajustement pour les variances qui est gérée avec la variable eta-hat. Le processus qui en résulte est un processus de volatilité stochastique à diffusion déplacée qui tient compte de la convexité du marché.

  • 00:30:00 la conférence se penche sur les modèles de marché et les ajustements de convexité, en particulier le modèle Heston, qui permet à la fois le biais du sourire et la gestion des problèmes avec les mesures du modèle de marché Libor. Le cours couvre également la technique de congélation, une méthode utilisée pour fixer la stochasticité des variables et simplifier les modèles. Bien que cette technique puisse être utile dans certains scénarios, le conférencier souligne qu'elle est souvent abusive et peut conduire à des résultats inexacts, rendant finalement le modèle inutile.

  • 00:35:00 Dans cette section de la vidéo, le conférencier discute du concept d'ajustement de convexité et de son importance sur les marchés des taux d'intérêt. Un ajustement de convexité est requis lorsque des retards de paiement ou des décalages surviennent entre la date de paiement d'un contrat et le numérateur correspondant. Le conférencier explique que cela peut entraîner des problèmes de tarification lorsque le paiement ne coïncide pas avec la date de paiement de l'actif observable dont le prix est évalué. Cependant, ce problème peut être évité en utilisant des modèles de Monte Carlo complets et en simulant la dynamique du Libor. L'enseignant explique qu'il est important de considérer la structure du contrat et les scénarios de marché avant d'utiliser les techniques d'ajustement de la convexité, qui ne doivent être utilisées qu'en cas d'absolue nécessité.

  • 00:40:00 Dans cette section, le conférencier explique les défis de s'appuyer sur la courbe des rendements lorsque les paiements ne sont pas alignés dans un instrument financier. Si l'instrument est légèrement différent de ce qui est disponible sur le marché, l'attente doit être estimée, ce qui est souvent lié à la convexité. Il illustre par un exemple où le paiement dans le contrat est différent de ce qui est vu sur le marché, de sorte que l'attente ne peut pas être calculée à partir de la courbe de rendement. Le conférencier montre comment exprimer l'attente en termes d'observables sur le marché et passer de la mesure à la mesure prospective. L'attente restante n'est pas quelque chose qui a été vu auparavant, et les fonctions d'ajustement de la convexité ou la correction de la convexité entreraient en jeu ici. Il souligne que les instruments de marché, tels que les swaps, sont présentés dans leurs mesures naturelles, qui ne sont pas toujours les mêmes que la mesure utilisée pour calculer l'espérance.

  • 00:45:00 La section se concentre sur le traitement des termes et des attentes sous différentes mesures et sur la manière de gérer les corrections de convexité. L'extrait explique que le passage de ti moins un à ti mesure correspondrait à la date de paiement de la barre coulissante. Cependant, cela conduit à une combinaison intéressante où le produit du Libor et de l'obligation à coupon zéro n'est pas une martingale. Pour reformuler le problème, la section suggère d'ajouter et de soustraire le libor pour déterminer le terme de correction de convexité et finalement de trouver l'ajustement nécessaire pour avoir l'égalité dans l'expression de la valeur commerciale au temps t zéro.

  • 00:50:00 Dans cette section, l'instructeur discute des défis d'éviter les simulations dans la modélisation financière et d'utiliser à la place les blocs les plus simples possibles, en particulier les graphiques de rendement, dans le calcul de la valeur commerciale. Le problème avec le calcul du libor divisé par les obligations à coupon zéro est qu'il ne s'agit pas d'une martingale, ce qui le rend problématique en raison des carrés concernant les obligations à coupon zéro. Ce qui est nécessaire est de trouver une espérance sous la mesure t-forward pour obtenir l'évaluation de la valeur d'un commerce. L'instructeur définit ensuite la dynamique du libor et discute des solutions pour les attentes de l'expression, qui dépendront d'un seul libor, ce qui le rendra simple à faire.

  • 00:55:00 Dans cette section de la conférence, le concept de correction de convexité est discuté en relation avec la dynamique du marché LIBOR et la variable inconnue c. Il est à noter que le choix de sigma est problématique car il n'y a pas d'indication claire de la volatilité de l'attente donnée. Le choix le plus simple serait de prendre la volatilité au niveau monétaire, mais cela négligerait l'impact du sourire de la volatilité. Une expérience Python est présentée pour illustrer l'impact du changement de sigma sur l'ajustement de la convexité, soulignant que le sigma optimal pour correspondre au marché est d'environ 0,22. Pour extraire le sigma correct du marché, les ingénieurs financiers devraient examiner les instruments du marché et utiliser des méthodes telles que l'algorithme de Newton-Raphson pour le calibrer.

  • 01:00:00 Dans cette section, le conférencier explique la mise en œuvre du modèle Hull-White pour la génération de chemins et le calcul de la correction de convexité. Le modèle calcule les obligations à coupon zéro pour une période spécifique et calcule l'attente avec un sur, en actualisant cette bibliothèque. Les chemins de Monte Carlo sont générés jusqu'au temps t1, après quoi les liaisons peuvent être calculées de t1 à n'importe quel point futur. L'orateur souligne l'importance de vérifier l'adéquation entre les courbes de rendement du marché et la simulation du modèle ainsi que d'être à l'aise avec les changements de mesure lorsqu'il s'agit de corrections de convexité. L'orateur mentionne également une approche alternative où le sourire et le biais de volatilité implicites peuvent être pris en compte pour évaluer les attentes, éliminant ainsi le besoin de spécifier un paramètre sigma particulier.

  • 01:05:00 Dans cette section de la conférence, l'approche de Brandon Litzenberger est discutée comme une technique pour exprimer l'espérance d'une variable en termes de valeur monétaire, puis calculer un terme de correction impliquant l'intégration des entrées de pôles de implicite sourire de volatilité basé sur le sourire de volatilité implicite. Cette approche est puissante car elle permet de calculer toutes sortes d'attentes et ne repose pas sur la disponibilité sur le marché d'un sigma de n'importe quel produit. Cependant, il repose sur la disponibilité d'une surface de volatilité implicite, donc supposer une distribution log-normale ou un autre type de distribution pour la dynamique libero peut être plus efficace et simple si une surface de volatilité implicite n'est pas disponible. La conférence a également abordé les deux principaux sujets du jour, qui étaient le modèle de marché libéral et les extensions possibles avec la volatilité stochastique et les corrections de convexité.

  • 01:10:00 Dans cette section de la conférence, l'accent est mis sur la contribution des éléments externes du modèle aux fuites entre différents Libors définis sous différentes mesures et sur la création d'une mesure uniforme pouvant être utilisée pour évaluer les dérivés qui dépendent de plusieurs bibliothèques. La conférence plonge dans la dynamique du Libor sous la mesure P, la mesure t-forward et les différences entre les mesures terminales et ponctuelles. La discussion couvre également la volatilité stochastique, y compris la manière naïve d'aborder le problème, l'ajout de la relativité corrélée à la dynamique du Libor et le problème d'une structure de volatilité complexe. La conférence s'est terminée par un accent sur les corrections de convexité et sur la façon de résoudre et de spécifier un modèle d'évaluation des anticipations non linéaires. Les devoirs comprennent un exercice d'algèbre et une extension du modèle de Heston, où au lieu d'avoir un facteur de volatilité, nous en avons deux.

  • 01:15:00 Dans cette section de la vidéo, l'instructeur attribue trois problèmes de devoirs liés aux modèles de marché et aux ajustements de convexité. Le premier problème consiste à trouver les valeurs de psi bar et le processus initial pour deux équations données. Le deuxième problème est le même que le calcul de l'ajustement de convexité, mais avec un paramètre de décalage introduit pour gérer les taux négatifs sur le marché. Le troisième problème est de déterminer la matrice de corrélation pour un ensemble donné de processus.
Financial Engineering Course: Lecture 11/14, part 2/2, (Market Models and Convexity Adjustments)
Financial Engineering Course: Lecture 11/14, part 2/2, (Market Models and Convexity Adjustments)
  • 2022.03.18
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 11- part 2/2, Market Models and Convexity Adjustments▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course ...
 

Cours d'Ingénierie Financière : Cours 12/14, partie 1/3, (Valuation Adjustments- xVA)



Cours d'Ingénierie Financière : Cours 12/14, partie 1/3, (Valuation Adjustments- xVA)

Dans la conférence, le concept de xVA est présenté comme un ajustement de valorisation qui revêt une importance significative pour les banques, en particulier dans le contexte de la tarification des dérivés exotiques. Le conférencier plonge dans les subtilités des calculs d'exposition et de l'exposition future potentielle, en soulignant leur rôle crucial dans la gestion efficace des risques. De plus, la conférence explore l'exposition attendue, qui sert de lien entre les mesures utilisées pour les calculs d'exposition et les cas simplifiés pour le calcul de xVA. Des exemples pratiques impliquant des swaps de taux d'intérêt, des produits de change et des actions sont fournis, et une implémentation Python est proposée pour générer plusieurs échantillons de réalisations à partir d'équations différentielles stochastiques.

La vidéo plonge dans le domaine du risque de crédit de contrepartie et sa relation avec xVA. Il explique comment l'inclusion de la probabilité de défaut de la contrepartie influe sur la tarification et la valorisation des dérivés. Alors que le concept de mesure neutre au risque a déjà été abordé dans les conférences précédentes, la portée s'élargit désormais pour englober un cadre plus large qui intègre des risques tels que le crédit de contrepartie. Pour illustrer le concept de risque de crédit de contrepartie et son influence sur la tarification, un exemple simple de swap de taux d'intérêt est présenté.

Un scénario impliquant une transaction de swap est discuté dans la vidéo, dans lequel le marché a connu un changement entraînant une valeur positive pour le contrat en raison d'une augmentation des taux flottants. Cependant, la probabilité de défaut de la contrepartie a également augmenté, introduisant un risque de mauvaise orientation, car l'exposition et la probabilité de défaut se sont amplifiées. La vidéo souligne la nécessité d'intégrer ce risque supplémentaire dans les ajustements d'évaluation, qui seront explorés plus en détail dans les sections suivantes.

Le conférencier élucide les risques associés aux situations de défaut et met en évidence les exigences réglementaires que les institutions financières doivent prendre en compte. Le risque de crédit de contrepartie (CCR) survient lorsqu'une contrepartie ne remplit pas ses obligations et est directement lié au risque de défaut. Si la contrepartie fait défaut avant l'expiration du contrat et n'effectue pas les paiements nécessaires, on parle de risque émetteur (ISR). De tels défauts de paiement peuvent entraîner la perte de bénéfices futurs potentiels, obligeant l'institution financière à réintégrer le swap et s'exposant par conséquent à d'autres risques. Dans l'ensemble, les institutions financières doivent tenir compte de ces risques car ils ont un impact significatif sur l'évaluation des dérivés.

La vidéo se penche sur l'impact des probabilités de défaut sur l'évaluation des contrats dérivés. L'orateur explique qu'un contrat dérivé impliquant une contrepartie défaillante a une valeur inférieure à celle d'un contrat avec une contrepartie sans risque en raison du risque supplémentaire qui doit être pris en compte dans le prix du dérivé. La crise financière de 2007 est citée comme un catalyseur des changements dans la perception du risque, y compris des modifications des probabilités de défaut et du risque de crédit de contrepartie. L'effondrement de grandes institutions financières a déclenché une propagation généralisée du risque de défaut, entraînant un risque systémique au sein du secteur financier. En réponse, les régulateurs sont intervenus pour établir de nouvelles méthodologies et réglementations visant à minimiser les risques et à assurer la transparence des positions sur dérivés.

Le professeur discute de l'impact de la réglementation sur les dérivés exotiques et explique comment ces dérivés sont devenus plus chers en raison de l'augmentation des besoins en capital et des coûts de maintenance. Le professeur explique que la vente de dérivés exotiques sur le marché n'est pas aussi simple et nécessite de trouver des contreparties intéressées pour de telles transactions. De plus, l'environnement prolongé de taux bas a diminué l'attrait des dérivés exotiques. Cependant, avec des taux d'intérêt plus élevés, les coûts associés au maintien de modèles exotiques peuvent être compensés. Le professeur souligne l'importance d'intégrer la probabilité de défaut de la contrepartie dans la tarification des dérivés financiers, qui a transformé des produits simples en dérivés exotiques. Cela nécessite l'utilisation de modèles hybrides pour évaluer les produits exotiques et étendre les mesures de risque au-delà des dérivés exotiques.

La vidéo traite de l'inclusion du risque de probabilité de défaut dans la tarification des dérivés financiers. La probabilité de défaut sur les dérivés exotiques doit être prise en compte pour tenir compte du risque, et les contreparties se voient facturer une prime supplémentaire qui est intégrée dans la tarification neutre au risque. Les probabilités de défaut sont intégrées au juste prix des dérivés pour compenser le risque de contrepartie. En raison du manque de confiance dans le système financier, il y a eu une réduction de la complexité, ce qui a conduit à se concentrer davantage sur l'estimation et le maintien de produits financiers simples. La vidéo se penche également sur divers types d'ajustements d'évaluation, y compris l'ajustement d'évaluation de contrepartie (CVA), l'ajustement d'évaluation de financement (FVA) et l'ajustement d'évaluation de capital (KVA), tous visant à atteindre l'objectif ultime de la tarification précise des dérivés financiers.

Le professeur poursuit en expliquant comment les institutions financières utilisent une technique appelée cartographie pour approximer les probabilités de défaut d'une entreprise, même en l'absence de contrats spécifiques comme les swaps sur défaillance de crédit (CDS) à référence. Cette section couvre également le concept d'expositions, en soulignant l'importance des expositions positives et négatives dans le contexte de xVA. Le professeur précise que la valeur d'une dérivée à un instant donné, notée vt, est définie par les expositions à un instant ultérieur, notées g, qui est le maximum de vt et de zéro. La valeur de vt subit des changements stochastiques basés sur la filtration pour le jour suivant, et l'exposition représente le montant maximum d'argent qui peut être perdu si la contrepartie fait défaut.

L'instructeur se concentre sur les ajustements d'évaluation ou les xVA. Le premier aspect exploré est l'exposition, qui dénote la disparité entre le montant qu'une partie doit et ce que la contrepartie doit dans une transaction. Cette exposition peut entraîner des pertes ou des gains, avec un montant positif maximum défini. L'instructeur explique qu'en cas de défaillance d'une contrepartie, l'obligation de payer la totalité du montant demeure et que tout recouvrement de fonds est subordonné à la qualité des actifs sous-jacents. En outre, l'exposition future potentielle est introduite comme mesure de la perte potentielle maximale, calculée sur la base de l'exposition du scénario le plus défavorable, compte tenu de la distribution des résultats potentiels.

Le concept d'exposition potentielle future (PFE) est ensuite discuté comme un moyen d'estimer le risque extrême d'un portefeuille. Le PFE représente un quantile d'expositions basé sur la valorisation d'un portefeuille dans les réalisations futures. La conférence couvre également l'agrégation des transactions au sein d'un portefeuille, soit au niveau du contrat, soit au niveau de la contrepartie, soulignant les avantages de la compensation pour compenser les risques. La compensation, qui s'apparente à la couverture, consiste à acquérir des contrats de compensation pour réduire les risques ou les flux de trésorerie.

L'instructeur poursuit en expliquant les avantages et les limites de la compensation, en abordant en détail les ajustements d'évaluation de crédit (CVA). Il est précisé que seules les transactions homogènes qui peuvent être légalement compensées conformément aux accords-cadres ISDA peuvent être utilisées pour la compensation, et toutes les transactions ne sont pas éligibles. Le taux de recouvrement est établi une fois la procédure judiciaire entamée et est associé à la valeur des actifs détenus par l'entreprise en faillite. Un exemple simple impliquant un scénario de défaut est présenté pour illustrer les avantages de la compensation, dans laquelle le coût encouru en raison d'une contrepartie défaillante peut être considérablement réduit, au profit de la contrepartie concernée.

Le professeur développe ensuite l'impact de la compensation sur les portefeuilles et ses justifications juridiques. Après avoir calculé les expositions, les expositions futures potentielles peuvent être calculées sur la base de la distribution ou de la réalisation du portefeuille. Le professeur souligne que l'exposition est l'élément le plus crucial en matière de xVA et d'autres ajustements. En outre, une approche intéressante pour calculer les expositions futures potentielles est introduite, impliquant l'utilisation de la perte attendue comme interprétation de l'exposition attendue.

L'instructeur se penche à nouveau sur les expositions futures potentielles (PFE), soulignant son rôle en tant que mesure du risque extrême. Le PFE indique le point auquel la probabilité de pertes dépasse l'exposition future potentielle, en se concentrant uniquement sur le segment restant du risque extrême. Un débat entourant le calcul du PFE est mentionné, se demandant s'il doit être basé sur la mesure q ou calibré à l'aide de données historiques sous la mesure p. Les gestionnaires de risques peuvent préférer incorporer des scénarios qui se sont produits dans le passé, en plus des attentes du marché pour l'avenir, afin de tenir compte efficacement du risque extrême.

Le conférencier conclut la conférence en discutant de diverses approches d'évaluation et de gestion des risques en ingénierie financière. Différentes méthodes, telles que l'ajustement des expositions en fonction des données de marché ou la spécification manuelle de scénarios extrêmes, sont employées à la discrétion des gestionnaires de risques. Le choix de l'approche de gestion des risques est crucial, car les mesures utilisées jouent un rôle important dans la gestion des risques. Ces mesures aident à déterminer les limites pour les commerçants et les types et quantités de risques autorisés lors de la négociation de produits dérivés.

La conférence donne un aperçu complet de xVA et de son importance dans le secteur bancaire, en particulier dans la tarification des dérivés exotiques. Il couvre les calculs d'exposition, l'exposition future potentielle et l'exposition prévue, soulignant leur importance dans la gestion des risques. L'inclusion des probabilités de défaut et du risque de crédit de contrepartie est soulignée, compte tenu de leur impact sur la valorisation des dérivés. La conférence explore également le paysage réglementaire, les coûts croissants associés aux dérivés exotiques et l'utilisation de modèles hybrides pour la tarification. La compensation et divers ajustements d'évaluation, tels que le CVA, sont discutés comme des moyens d'atténuer les risques. Le rôle des expositions potentielles futures (PFE) dans l'estimation du risque extrême et le débat autour de sa méthodologie de calcul sont également abordés. En fin de compte, la conférence met l'accent sur l'importance d'une gestion efficace des risques dans l'ingénierie financière et sur le rôle des ajustements de valorisation dans la tarification des dérivés financiers.

  • 00:00:00 Dans cette section du cours d'ingénierie financière, le conférencier introduit le concept de xVA, un ajustement de valorisation important pour les banques, notamment en ce qui concerne la tarification des dérivés exotiques. La conférence couvrira les calculs d'exposition et l'exposition future potentielle, qui sont tous deux cruciaux dans la gestion des risques. L'exposition attendue sera également discutée, en faisant le lien entre les mesures utilisées pour les calculs d'exposition et les cas simplifiés pour le calcul de xVA. La conférence comprendra également des exemples de swaps de taux d'intérêt, de produits de change et d'actions et fournira une implémentation Python pour générer plusieurs échantillons de réalisations à partir d'équations différentielles stochastiques.

  • 00:05:00 Dans cette section du cours, le concept de risque de crédit de contrepartie et xVA sont introduits. Le cours explique comment inclure la probabilité que la contrepartie ne remplisse pas ses obligations dans la tarification des dérivés et comment cela affecte la valorisation. Le concept de mesure neutre au risque a été discuté dans les conférences précédentes, mais maintenant la conférence se déplace dans un cadre plus large qui inclut des risques tels que le crédit de contrepartie. Le cours commence par un exemple simple de swap de taux d'intérêt pour expliquer le concept de risque de crédit de contrepartie et comment il affecte la tarification.

  • 00:10:00 Dans cette section, la vidéo traite du scénario d'une transaction de swap où le marché a bougé et la valeur du contrat est devenue positive en raison d'une augmentation des taux flottants. Cependant, les risques de probabilité de défaut de la contrepartie ont également augmenté, ce qui crée un risque de mauvaise direction car notre exposition a augmenté avec la probabilité de défaut. La vidéo suggère la nécessité d'inclure ce risque supplémentaire dans nos ajustements d'évaluation, qui seront discutés plus en détail dans les sections suivantes.

  • 00:15:00 Dans cette section, le conférencier explique les risques associés aux situations de défaut et comment les institutions financières doivent en tenir compte en raison des exigences réglementaires. Le risque de crédit de contrepartie (CCR) est la situation où une contrepartie ne remplit pas ses obligations, et il est associé à un risque de défaut. Si la contrepartie fait défaut avant l'expiration du contrat et n'effectue pas tous les paiements requis, cela s'appelle le risque de l'émetteur (ISR). Le défaut d'effectuer ces paiements pourrait entraîner une perte de bénéfices futurs potentiels et l'institution financière devrait réintégrer le swap, ce qui entraînerait des risques supplémentaires. Dans l'ensemble, les institutions financières doivent tenir compte de ces risques car ils ont une incidence sur l'évaluation des dérivés.

  • 00:20:00 Dans cette section, la vidéo traite de l'impact des probabilités de défaut sur la valorisation des contrats dérivés. L'orateur explique qu'un contrat dérivé avec une contrepartie défaillante vaut moins qu'un contrat avec une contrepartie sans risque en raison du risque supplémentaire qui doit être inclus dans un prix dérivé. La crise financière de 2007 est mentionnée comme un catalyseur des changements dans la perception du risque, y compris les changements dans les probabilités de défaut et le risque de crédit de contrepartie. L'effondrement de grandes institutions financières a déclenché une propagation généralisée du risque de défaut, créant un risque systémique dans le monde financier. Les régulateurs sont intervenus pour créer de nouvelles méthodologies et réglementations visant à minimiser les risques et à assurer la transparence des positions sur dérivés.

  • 00:25:00 Dans cette section de la conférence, le professeur discute de l'impact des réglementations sur les dérivés exotiques et de la façon dont ils sont devenus plus chers en raison de l'augmentation des besoins en capital et des coûts de maintenance. Il explique que les produits dérivés exotiques ne peuvent pas être facilement vendus sur le marché et nécessitent de trouver une contrepartie intéressée par ce type de transaction. De plus, l'environnement de taux bas au fil des ans a rendu les exotiques moins attrayants, mais avec des taux d'intérêt plus élevés, les coûts associés au maintien de modèles exotiques peuvent être compensés. Le professeur souligne également l'importance d'intégrer la probabilité de défaut d'une contrepartie dans la tarification des dérivés financiers, ce qui a transformé des produits simples en dérivés exotiques. Cela nécessite l'utilisation de modèles hybrides pour la tarification des produits exotiques et la tarification des mesures de risque au-delà des dérivés exotiques.

  • 00:30:00 Dans cette section, la vidéo traite de l'inclusion du risque de probabilités de défaut dans la tarification des dérivés financiers. La probabilité de défaut sur les exotiques doit être incluse pour tenir compte du risque, et les contreparties sont facturées avec une prime supplémentaire, qui est appliquée à une tarification neutre au risque. Des probabilités de défaut sont ajoutées au juste prix des dérivés pour compenser le risque de contrepartie. En raison du manque de confiance dans le système financier, la complexité a diminué et les produits financiers simples sont plus faciles à estimer et à gérer. La vidéo aborde également les différents types d'ajustements d'évaluation, tels que l'ajustement d'évaluation de contrepartie, l'ajustement d'évaluation de financement et l'ajustement d'évaluation de capital, qui sont utilisés pour atteindre l'objectif ultime de tarification des dérivés financiers.

  • 00:35:00 Dans cette section de la conférence, le professeur explique comment les institutions financières utilisent une technique de cartographie pour approximer les probabilités de défaut d'une entreprise même si elle n'a pas de contrats tels que les swaps sur défaillance de crédit (CDS) à cartographier. une probabilité particulière de défaut. Cette section couvre également le concept d'expositions, où les expositions positives et négatives sont importantes pour xVA. Le professeur explique que la valeur de la dérivée au temps t est définie comme les expositions au temps g, qui est le maximum vt puis zéro. La valeur de vt change de manière stochastique en fonction de la filtration pour demain, et l'exposition est le montant maximum d'argent qui peut être perdu si la contrepartie fait défaut.

  • 00:40:00 Dans cette section du cours d'ingénierie financière, l'instructeur discute des ajustements d'évaluation ou des xVA. Le premier aspect est l'exposition, qui est la différence entre ce qu'une partie doit et ce que la contrepartie doit dans une transaction. Le montant d'exposition peut entraîner des pertes ou des gains, et il existe un montant positif maximum. L'instructeur explique que si une partie fait défaut, l'obligation de payer la totalité du montant demeure et tout recouvrement des fonds est basé sur la qualité des actifs. L'exposition future potentielle mesure la perte potentielle maximale, qui est calculée sur la base de l'exposition du scénario le plus défavorable, compte tenu de la distribution des résultats.

  • 00:45:00 Dans cette section de la conférence, le concept d'exposition future potentielle (PFE) est discuté comme un moyen d'estimer le risque extrême d'un portefeuille. Le PFE est un quantile d'expositions basé sur la valeur d'un portefeuille évalué dans les réalisations futures. Le cours explique également comment regrouper les transactions dans un portefeuille, par exemple au niveau du contrat ou au niveau de la contrepartie, et les avantages de la compensation pour compenser les risques. La compensation est un concept similaire à la couverture, où des contrats de compensation sont achetés pour réduire les risques ou les flux de trésorerie.

  • 00:50:00 Dans cette section du cours d'ingénierie financière, l'instructeur explique les avantages et les limites de la compensation et discute en détail des CVA (ajustements d'évaluation de crédit). Seules les transactions homogènes qui peuvent être légalement compensées conformément aux accords-cadres ISDA peuvent être utilisées et toutes les transactions ne peuvent pas être compensées. Le taux de recouvrement est établi une fois le processus judiciaire engagé et est associé à la valeur des actifs de l'entreprise en faillite. Un exemple simple avec un scénario de défaut est donné pour expliquer les avantages de la compensation où le coût d'une contrepartie défaillante peut être réduit de manière significative, ce qui serait bénéfique pour la contrepartie.

  • 00:55:00 Dans cette partie du cours, le professeur discute des effets nets sur les portefeuilles et comment ils sont légalement justifiés. Après calcul des expositions, les expositions futures potentielles peuvent être calculées sur la base de la distribution ou de la réalisation du portefeuille. Le professeur souligne que l'exposition est l'ingrédient le plus important lorsqu'il s'agit de xVA et d'autres ajustements. De plus, il existe une approche intéressante pour calculer les expositions futures potentielles qui consiste à tirer parti de la perte attendue comme interprétation de l'exposition attendue.

  • 01:00:00 Dans cette section du cours, l'instructeur discute des expositions potentielles futures (PFE) comme mesure du risque extrême. Le PFE représente l'endroit où la probabilité de pertes peut dépasser l'exposition future potentielle, qui ne représente que la partie restante du risque extrême. L'instructeur mentionne également un débat sur la manière dont le PFE doit être calculé, s'il doit être basé sur la mesure q ou sur l'étalonnage utilisant des données historiques sous la mesure p. Les gestionnaires de risques peuvent préférer prendre en compte des scénarios qui se sont produits dans le passé, en plus de ce que le marché attend de l'avenir, pour tenir compte du risque extrême.

  • 01:05:00 Dans cette section, l'orateur discute de différentes manières d'évaluer et de gérer les risques dans l'ingénierie financière, comme l'ajustement des expositions en fonction des données du marché ou la spécification manuelle de scénarios extrêmes. Le choix de l'approche de gestion des risques dépend de la discrétion du gestionnaire des risques et les mesures utilisées sont importantes pour la gestion des risques, telles que la détermination des limites pour les traders et les types et montants de risques autorisés lors de la négociation de dérivés.
Financial Engineering Course: Lecture 12/14, part 1/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 1/3, (Valuation Adjustments- xVA)
  • 2022.03.24
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 1/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Cours d'Ingénierie Financière : Cours 12/14, partie 2/3, (Valuation Adjustments- xVA)



Cours d'Ingénierie Financière : Cours 12/14, partie 2/3, (Valuation Adjustments- xVA)

Le conférencier continue d'approfondir le sujet des ajustements d'évaluation (xVA) dans l'ingénierie financière, en fournissant des exemples et des idées supplémentaires. Ils discutent des cas où les expositions attendues peuvent être calculées de manière analytique, comme pour les portefeuilles constitués d'une seule action, et mettent en évidence la complexité accrue et les caractéristiques de type option qui surviennent lors du calcul de l'exposition dans l'exposition attendue. L'importance des martingales, des mesures et des filtrages dans l'ingénierie financière est également soulignée.

Dans un exemple, le conférencier explique comment les filtrages et les attentes conditionnelles sont utilisés pour dériver une expression simplifiée de l'exposition attendue, qui est ensuite actualisée. Dans un autre exemple, ils appliquent les principes des cours précédents pour déterminer la valeur actualisée d'un swap à un moment précis, en tenant compte des flux de trésorerie disponibles et en excluant les premiers. Ces exemples soulignent l'importance de comprendre et d'appliquer correctement les concepts d'ingénierie financière.

Le conférencier revisite les sujets précédents et démontre leur lien avec les ajustements d'évaluation. En utilisant l'exemple d'un swap de change, ils illustrent le processus de changement de la mesure en mesure t-forward, entraînant l'élimination du compte d'épargne en monnaie nationale et ne laissant que l'obligation à coupon zéro de la devise étrangère multipliée par le notionnel. En utilisant le taux de change à terme, l'attente peut être simplifiée en une transaction à terme.

Le calcul de l'exposition attendue en monnaie nationale pour un swap est également abordé. La nature stochastique de l'obligation à coupon zéro pose un défi, qui est résolu en utilisant sa définition comme un ratio du compte d'épargne monétaire. La mesure passe alors de la mesure domestique neutre à la mesure domestique t-forward, permettant la tarification d'une option en utilisant le prix de l'option européenne. Grâce à l'utilisation d'une équation différentielle stochastique, l'exposition attendue en vertu de la mesure nationale peut être déterminée en fixant le prix de l'option. Ce processus intègre des concepts tels que la capitalisation des taux d'intérêt et les taux de change abordés dans les conférences précédentes. La section se termine par une expérience numérique dans un cas unidimensionnel.

L'orateur explore en outre l'évaluation des swaps de taux d'intérêt à l'aide du modèle de Hull-White et exprime l'évaluation des swaps en termes d'obligations à coupon zéro. Ils soulignent l'importance du suivi des flux de trésorerie futurs pour l'évaluation xVA, car ils sont exposés au risque de défaut de la contrepartie. L'orateur souligne l'effet d'équilibrage de l'augmentation de l'incertitude et de la réduction du risque associé aux flux de trésorerie futurs dans les swaps. De plus, l'importance de la racine dans le modèle de Hull-White pour l'intégration de chemins multicolores pour évaluer les obligations à coupon zéro est discutée.

Les défis informatiques liés à la détermination du prix des obligations à coupon zéro sont abordés. L'intégration des voies peut être coûteuse en calcul, mais la représentation des fonctions dépendant du temps du modèle Hull-White offre une efficacité en évaluant les fonctions au lieu d'intégrer les voies. Cela le rend plus efficace pour les simulations xVA des expositions et les calculs VAR. Les résultats numériques d'un swap de taux d'intérêt sont fournis, montrant le profil d'exposition croissant en raison de la volatilité et la réduction éventuelle de l'exposition à mesure que les flux de trésorerie sont remboursés. La valeur des swaps dans le temps est également illustrée pour un ex-swap de 20 ans.

Le concept d'expositions attendues et d'expositions futures potentielles dans l'ingénierie financière est discuté. Les expositions négatives attendues sont définies comme des volumes et deviennent significatives lorsque l'exposition se rapproche de zéro. L'orateur présente un graphique des expositions positives et négatives, en précisant les intervalles de confiance. Une simulation de Monte Carlo est effectuée, en tenant compte du nombre de chemins, d'étapes et de paramètres pour le modèle Hull-White. Le calcul de la valeur du swap et de la valeur du compte d'épargne est expliqué. La section conclut en soulignant l'importance des niveaux de confiance dans les expositions futures potentielles.

Le calcul de l'exposition attendue et de l'exposition attendue actualisée pour les swaps simples et les portefeuilles avec compensation est expliqué. La valeur du swap est déjà exprimée à un moment précis, éliminant ainsi la nécessité d'une remise au présent. Les résultats numériques des simulations de Monte Carlo illustrent les valeurs potentielles des swaps dans différents scénarios de marché, soulignant l'importance de la couverture pour réduire les expositions. Les expositions positives et les expositions attendues actualisées du swap sont représentées avec différents niveaux d'exposition future potentielle. L'accent est mis sur la compréhension de la méthodologie en termes de filtration, car elle permet d'avoir un cadre cohérent pour simuler xVA d'expositions.

L'orateur discute en outre de l'impact de la compensation sur la réduction des expositions futures potentielles. L'ajout de swaps à un portefeuille peut être bénéfique pour minimiser les expositions et l'exposition future potentielle. Ils soulignent la nécessité d'utiliser des modèles hybrides et de construire des systèmes multidimensionnels d'équations différentielles stochastiques lors de la simulation de swaps multidevises dans différentes économies. Cependant, ils avertissent que l'évaluation de portefeuilles dans plusieurs scénarios, bien que moins coûteuse d'un point de vue informatique, peut encore prendre du temps dans la pratique.

La conférence aborde les défis liés à l'évaluation de xVA, en particulier le coût de calcul associé au calcul de la sensibilité des expositions à des facteurs de risque spécifiques ou aux changements du marché. Cependant, ils mettent en évidence des techniques permettant de réduire le nombre d'évaluations nécessaires pour se rapprocher du profil recherché. La conférence met l'accent sur l'importance de la sélection de modèles et des évaluations multiples, en particulier lorsqu'il s'agit de plusieurs devises et d'évaluation des expositions entre le début et la maturité du commerce. Enfin, la conférence présente la série d'ajustement de la valeur de crédit (CVA) comme un moyen de tenir compte de la possibilité de défaut de la contrepartie dans la tarification sans risque.

La conférence approfondit le concept d'ajustement de la valeur de crédit (CVA) dans la tarification des dérivés lors de l'examen du risque de défaut. Il commence par un scénario simple où le défaut se produit après le dernier paiement du contrat, fournissant une formule pour évaluer le dérivé. La conférence explore ensuite des cas plus complexes où la possibilité d'un défaut a un impact sur l'évaluation des dérivés. La notation du gain actualisé et l'objectif de lier les prix des dérivés avec et sans risque de défaut sont introduits. Divers scénarios par défaut et les montants correspondants qui peuvent être reçus dans chaque scénario sont examinés afin de déterminer l'ajustement nécessaire dans l'évaluation des risques pour le contrat.

Différents scénarios concernant le calendrier des taux de défaut et de recouvrement lors de la négociation avec une contrepartie sont discutés. Si le défaut survient avant un certain délai, tous les paiements sont reçus jusqu'à ce moment. Si cela se produit après l'échéance du contrat, le solde restant dû peut être récupéré. Cependant, si un défaut survient entre ces deux points, il peut y avoir des obligations futures et un taux de recouvrement à considérer. L'orateur montre comment calculer l'espérance des flux de trésorerie futurs actualisés pour quatre cas différents et comment les relier à l'aide d'une équation.

La conférence passe à l'étape suivante après le calcul de l'exposition attendue, qui consiste à utiliser la linéarité de l'attente et à la diviser en deux composants. La première composante implique des fonctions indicatrices dépendant de différentes échéances, représentant la valeur du contrat depuis le temps tau jusqu'au temps de maturité t. La deuxième composante considère les cas où tau est supérieur au temps t ou inférieur à t. Comme la valeur du contrat est mesurable par rapport à la filtration, les trois premiers termes sous le terme d'attente représentent la valeur sans risque du dérivé. La deuxième partie introduit un ajustement pour inclure la partie convexe avec un maximum et un taux de récupération, résultant en l'ajustement de la valeur du crédit (CVA). En résumé, un dérivé risqué peut être exprimé comme un dérivé sans risque moins l'ajustement CVA, qui correspond à la probabilité de défaut de la contrepartie, élément essentiel de la relation.

Enfin, le conférencier explique le concept de calcul de l'exposition pour chaque période jusqu'à l'échéance du contrat, d'ajustement en cas de défaut et d'actualisation de tous les flux de trésorerie en conséquence. Le taux de recouvrement est défini comme la perte en cas de défaut et est inclus dans la formule d'ajustement de la valeur du crédit.

La conférence propose une exploration complète des ajustements de valorisation (xVA) en ingénierie financière. Il couvre divers exemples, défis informatiques et méthodologies de calcul des expositions, des expositions attendues et des ajustements de la valeur de crédit. Comprendre ces concepts et les appliquer correctement est crucial pour une évaluation et une tarification précises des risques sur les marchés financiers.

  • 00:00:00 Dans cette partie de la conférence, l'orateur poursuit avec le sujet des ajustements de valorisation (xVA) en ingénierie financière. Ils discutent des cas particuliers pour lesquels les expositions attendues peuvent être calculées analytiquement, comme pour un portefeuille composé uniquement d'une seule action. Ils soulignent que le calcul de l'exposition dans l'exposition attendue augmente la complexité d'un niveau et expliquent que la valeur d'un contrat simple, tel qu'un paiement unique en espèces, peut devenir une option en raison de cette complexité accrue. La section se termine par un rappel de l'importance des martingales, des mesures et des filtrages dans l'ingénierie financière.

  • 00:05:00 Dans cette section, le conférencier aborde les ajustements de valorisation (xVA) en ingénierie financière à l'aide de deux exemples. Dans le premier exemple, il explique comment traiter les filtrages et les attentes conditionnelles pour arriver à une expression simple de l'exposition attendue, qui est actualisée. Dans le deuxième exemple, il utilise les principes des cours précédents pour déterminer la valeur actualisée d'un swap à l'instant t, en tenant compte des flux de trésorerie disponibles et en excluant les premiers. Ces deux exemples soulignent l'importance de comprendre les concepts et de les appliquer correctement en ingénierie financière.

  • 00:10:00 Dans cette section de la conférence, le professeur revient sur des sujets précédemment abordés et montre leur lien avec le sujet actuel des ajustements d'évaluation. Il utilise l'exemple d'un swap FX et passe par le processus de changement de mesure en mesure t forward. Cela permet l'annulation du compte d'épargne en monnaie nationale et de l'obligation à coupon zéro, ne laissant que l'obligation à coupon zéro multipliée par le notionnel dans la devise étrangère. Grâce à l'utilisation du taux de change à terme, l'attente peut être simplifiée à une simple transaction à terme.

  • 00:15:00 Dans cette section, l'orateur discute du processus de calcul de l'exposition attendue en monnaie nationale pour un swap. L'obligation à coupon zéro devient non mesurable en raison de sa nature stochastique. Ce problème peut être résolu en utilisant la définition de l'obligation à coupon zéro comme ratio du compte d'épargne. L'étape suivante consiste à changer la mesure de la mesure domestique neutre à la mesure domestique t-forward, ce qui permettrait de fixer le prix d'une option en utilisant le prix de l'option européenne. Grâce à l'utilisation d'une équation différentielle stochastique, l'exposition attendue en vertu de la mesure nationale peut être déterminée en fixant le prix de l'option. Le processus implique plusieurs des concepts abordés dans les conférences précédentes, tels que la capitalisation des taux d'intérêt et le change. La section se termine par une expérience numérique dans un cas unidimensionnel.

  • 00:20:00 Dans cette section, l'orateur discute de l'évaluation des swaps de taux d'intérêt à l'aide du modèle de Hull-White et de la manière d'exprimer cette évaluation des swaps en termes d'obligations à coupon zéro. Ils mentionnent également l'importance du suivi des flux de trésorerie futurs pour une évaluation en xVA, car ils sont exposés au risque de défaut de la contrepartie, et comment les effets compensatoires de l'augmentation de l'incertitude et de la réduction du risque associé aux flux de trésorerie futurs s'équilibrent dans les swaps. Enfin, la racine dans le modèle de Hull-White est mise en évidence comme une caractéristique cruciale pour intégrer des chemins multicolores pour évaluer les obligations à coupon zéro.

  • 00:25:00 Dans cette section, l'orateur discute des défis informatiques liés à la détermination de l'apparence du prix des obligations, qui nécessite l'intégration de voies, ce qui la rend très coûteuse en calcul. Cependant, comme le modèle entièrement blanc appartient à une sorte de classe fine de processus, il peut être représenté comme une fonction dépendante du temps, ce qui le rend extrêmement puissant. Cela signifie que nous pouvons déterminer la valeur des obligations à coupon zéro sans réellement intégrer les chemins, et nous n'avons qu'à évaluer les fonctions, ce qui le rend plus efficace pour les simulations XVA des expositions et les calculs VAR. L'orateur fournit des résultats chiffrés pour un swap de taux d'intérêt, montrant que le profil d'exposition augmente en raison de la volatilité, l'impact du remboursement des flux devient important et finit par s'annuler. De plus, un profil pour un ex-swap de 20 ans montre la valeur des swaps dans le temps.

  • 00:30:00 Dans cette section de la conférence, l'orateur aborde le concept d'expositions attendues et d'expositions futures potentielles en ingénierie financière. Les expositions négatives attendues sont définies comme des volumes, et elles deviennent significatives lorsque l'exposition est presque nulle. L'orateur montre un graphique des expositions positives et négatives, en précisant le niveau des intervalles de confiance. L'expérience implique une spécification pour la simulation de Monte Carlo, y compris le nombre de chemins et d'étapes et les paramètres pour l'ensemble du modèle de White. L'orateur explique également le processus de calcul de la valeur d'un swap et du compte d'épargne. La section conclut en discutant de l'importance des niveaux de confiance dans les expositions futures potentielles.

  • 00:35:00 Dans cette section, l'orateur discute du calcul de l'exposition attendue et de l'exposition attendue actualisée pour les swaps simples et les portefeuilles avec compensation. La valeur du swap est déjà exprimée à l'instant ti, il n'est donc pas nécessaire de l'actualiser jusqu'à aujourd'hui. Ils démontrent également les résultats numériques des simulations de Monte Carlo, montrant la valeur potentielle des swaps en fonction de différents scénarios de marché, et l'importance de la couverture pour réduire les expositions. Ils illustrent les expositions positives et les expositions actualisées attendues du swap, avec différents niveaux d'exposition future potentielle. Le conférencier souligne l'importance de comprendre la méthodologie en termes de filtration pour mettre tous les blocs appris jusqu'à présent dans un seul cadre pour une simulation plus facile de xVA d'expositions.

  • 00:40:00 Dans cette section, l'orateur explique comment la compensation peut avoir un impact sur la réduction des expositions futures potentielles et comment l'ajout de swaps dans un portefeuille peut être utile pour réduire les expositions et l'exposition future potentielle. Il est essentiel d'utiliser des modèles hybrides et de construire des systèmes multidimensionnels d'équations différentielles stochastiques tout en simulant des swaps multidevises dans différentes économies. L'orateur avertit également que bien que la simulation de Monte Carlo soit relativement moins chère du point de vue informatique, elle peut encore prendre du temps lors de l'évaluation des portefeuilles sur tous ces scénarios.

  • 00:45:00 Dans cette section, l'orateur discute des défis liés à l'évaluation de xVA, en particulier le coût de calcul qui peut être très important, en particulier lors du calcul de la sensibilité des expositions à des facteurs de risque particuliers ou à des changements de marché. Cependant, il existe des techniques pour réduire le nombre d'évaluations nécessaires pour ressembler au profil recherché. La conférence se penche ensuite sur l'idée de xVA et les différentes mesures et techniques qui peuvent être appliquées pour calculer les attentes actualisées des expositions pour une contrepartie ou un portefeuille. L'importance du choix du modèle et des évaluations multiples est soulignée, en particulier lorsqu'il s'agit de plusieurs devises et d'évaluation des expositions entre le début et la maturité d'une transaction. Enfin, la série d'ajustement de la valeur de crédit est introduite comme moyen de tenir compte de la possibilité de défaillance de la contrepartie dans la tarification sans risque.

  • 00:50:00 Dans cette section, la conférence traite de l'ajustement de la valeur de crédit (CVA) dans la tarification des dérivés lorsque le risque de défaut est pris en compte. La conférence commence par un cas simple où le moment du défaut se produit après le dernier paiement du contrat, et une formule est donnée pour la valeur du dérivé. Le cours aborde ensuite des cas plus complexes où la possibilité de défaut de l'institution considérée a un impact sur la valorisation des dérivés. Le cours introduit également la notation du gain actualisé et l'objectif de lier le prix dérivé qui peut faire défaut et le prix qui ne peut pas. À partir de cette configuration, la conférence explore les différents scénarios de défaut possible et le montant d'argent qui peut être reçu dans chaque scénario, qui sera utilisé pour déterminer l'ajustement nécessaire dans l'évaluation des risques du contrat.

  • 00:55:00 Dans cette section, l'orateur discute de différents scénarios concernant le calendrier des taux de défaut et de recouvrement lorsqu'il traite avec une contrepartie. Si le défaut survient avant un certain temps, tous les paiements sont reçus jusqu'à ce moment-là, alors que s'il survient après l'échéance du contrat, le solde impayé peut être récupéré. Cependant, si le défaut survient entre les deux, il peut y avoir des obligations futures et un taux de recouvrement en cause. L'orateur montre ensuite comment calculer l'espérance des tables futures actualisées pour quatre cas différents et comment les relier à l'aide d'une équation.

  • 01:00:00 Dans cette section, la conférence traite de l'étape suivante après le calcul de l'exposition attendue, qui consiste à utiliser la linéarité de l'attente et à diviser l'attente en deux parties. Le premier élément implique des fonctions indicatrices qui dépendent de différentes échéances, représentant la valeur d'un contrat jusqu'au temps tau et de tau jusqu'au temps d'échéance t. La deuxième partie concerne les cas où tau est supérieur au temps capital t ou inférieur à t. La valeur du contrat est mesurable par rapport à la filtration, de sorte que les trois premiers termes sous le terme d'attente ne sont que la valeur sans risque du dérivé. La deuxième partie implique l'ajustement pour inclure la partie convexe avec un maximum et un taux de récupération, ce qui entraîne un ajustement de la valeur du crédit ou CVA. En fin de compte, un dérivé risqué est égal à un dérivé sans risque moins l'ajustement CVA, qui correspond à la probabilité de défaut d'une contrepartie, élément crucial de la relation.

  • 01:05:00 Dans cette section de la vidéo, l'orateur explique le concept de calcul de l'exposition pour chaque période jusqu'à l'échéance d'un contrat, puis d'ajustement en cas de défaut et d'actualisation de tout. Le taux de recouvrement est considéré comme la perte en cas de défaut et est représenté dans la formule d'ajustement de la valeur du crédit.
Financial Engineering Course: Lecture 12/14, part 2/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 2/3, (Valuation Adjustments- xVA)
  • 2022.03.31
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 2/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Cours d'Ingénierie Financière : Cours 12/14, partie 3/3, (Valuation Adjustments- xVA)



Cours d'Ingénierie Financière : Cours 12/14, partie 3/3, (Valuation Adjustments- xVA)

Au cours de la conférence, l'orateur se penche sur les approximations standard du marché utilisées pour estimer l'ajustement de la valeur de crédit (CVA) et aborde la question de la symétrie en ce qui concerne le pseudo CVA (PCVA) et le volume CVA (VCVA). Ils expliquent que les frais des clients basés sur les probabilités de défaut peuvent différer, créant un obstacle pour que les transactions se produisent sans ajustements. Pour résoudre ce problème, le concept d'ajustement de la valeur de profondeur (DVA) est introduit et l'application des rayons lourds pour le calcul des expositions attendues est expliquée.

Les attributions commerciales pour le CVA sont également discutées, ainsi que l'importance de pondérer le CVA dans un portefeuille pour éviter les problèmes d'additivité. En conclusion, le conférencier fait un résumé du cours magistral et présente deux exercices aux étudiants.

Ensuite, l'orateur insiste sur l'incorporation du risque dans la tarification et considère le taux de recouvrement ou la perte en cas de défaut comme une constante. Ils expliquent que l'obtention d'une approximation pour la correction CVA nécessite une distribution conjointe, qui est une quantité stochastique corrélée avec le temps de défaut. En outre, les termes « risque de mauvaise approche » et « risque de bonne approche » sont explorés, soulignant leur relation avec la corrélation entre les expositions et les probabilités de défaut des contreparties. L'orateur mentionne également la disponibilité d'articles classiques en ligne qui fournissent une introduction aux techniques utilisées pour imposer des corrélations lors de l'hypothèse d'indépendance entre deux variables.

En changeant d'orientation, le professeur discute de l'approche du marché pour se rapprocher de l'attente conditionnelle par l'exposition attendue, en soulignant son importance dans le cours. Ils décomposent les trois principaux éléments composant le CVA et soulignent que la partie exposition attendue est la plus coûteuse. La conférence met en évidence le problème de symétrie associé au CVA, où les prix des contreparties diffèrent en raison de points de vue contradictoires sur les probabilités de défaut, ce qui entrave l'accord. Pour résoudre ce problème, le conférencier conclut que l'ajustement bilatéral de la valeur du crédit (bCVA) doit être exploré.

Le CVA bilatéral prend en compte le risque associé au défaut des deux parties, assurant la symétrie dans la tarification des dérivés. Cela signifie qu'une partie peut ne pas être d'accord avec le prix ajusté calculé par l'autre partie. La CVA bilatérale garantit l'inclusion de la solvabilité des deux parties, déterminant finalement le prix de la juste valeur d'un dérivé en incorporant leurs probabilités de défaut respectives.

La discussion passe ensuite aux ajustements de valorisation, collectivement appelés xVA, et souligne l'importance d'incorporer des ajustements dans la tarification des dérivés sans risque ou sans défaut. Le conférencier explique que l'ajustement de la valeur du crédit bilatéral (BCVA) est la différence entre le CVA et l'ajustement de la valeur du débit (DVA). Ils abordent la façon dont le volume CVA (VCVA) peut augmenter, entraînant une diminution de la part de CVA en raison du risque de défaut accru d'une entreprise et des défis associés à l'augmentation des évaluations. La formule de calcul de l'ajustement de la valeur de financement (FVA) est explorée, consistant en l'ajustement du coût de financement (FCA) et l'ajustement des avantages de financement (FBA). Le spread de financement (SBE) représente le coût de financement des dérivés, généralement lié aux coûts de financement du marché. La formule suppose une indépendance entre la valeur d'exposition du portefeuille, les probabilités de défaut et la partie financement. La FVA intègre deux types de financement : le financement généré par l'entreprise et le financement nécessaire pour soutenir les positions existantes, tous deux inclus dans l'ajustement de la valeur de liquidité (LVA).

La compréhension des profils de risque des transactions au sein d'un portefeuille ou d'un ensemble net est soulignée par l'orateur. La connaissance des ajustements de défaut de crédit (CDA) individuels par transaction facilite l'évaluation des contributions des transactions aux profils de risque, permettant une atténuation des risques par la vente de positions ou l'établissement de risques associés. L'objectif est de décomposer le CVA en CVA individuels pour l'exprimer comme une somme de CVA individuels, donnant un aperçu de leur rôle dans l'évaluation des CVA. Bien que la CVA incrémentielle puisse être effectuée, elle est coûteuse en calculs. Ainsi, l'objectif est de trouver une méthode de décomposition qui assure l'accord entre le CVA au niveau du portefeuille et la somme des CV VA individuels.

Pour obtenir la décomposition souhaitée de xVA ou des expositions attendues en contributeurs individuels tout en préservant la somme totale égale à l'exposition du portefeuille, l'instructeur introduit le processus d'allocation d'Euler et une fonction d'homogénéité. La fonction f est considérée comme homogène de degré k si k fois f de x est égal à la somme de tous les éléments de la dérivée de cette fonction par rapport à chaque élément individuel du vecteur fois x i. Cela permet de décomposer le CVA ou les expositions attendues en la somme des contributions individuelles, exprimées sous la forme d'une partie d'actualisation et d'une composante alpha lissée. En utilisant cette approche, les expositions attendues peuvent être évaluées et calculées à chaque instant individuel et pondérées avec des coefficients alpha pour obtenir un produit lisse.

Le conférencier souligne les avantages du calcul de la sensibilité par rapport à alpha i, car il permet de réduire les calculs lors de l'évaluation des expositions attendues pour un portefeuille. En reformulant les CVA, les CVA individuels pour chaque transaction peuvent être exprimés sous forme de ratio, et la dérivée peut être calculée à partir de l'exposition attendue sans qu'il soit nécessaire de répéter la simulation de Monte Carlo. Cette approche est avantageuse d'un point de vue numérique, mais elle repose sur l'hypothèse d'homogénéité, et la combinaison de portefeuille doit satisfaire à la condition.

La conférence aborde en outre l'extension du code pour plusieurs dimensions et swaps, ainsi que le calcul des expositions attendues pour plusieurs facteurs de risque tels que l'inflation et les actions. Le calcul du CVA englobe la prise en compte à la fois de la probabilité de défaut de la contrepartie et de notre propre probabilité de défaut, tandis que le concept de Funding Value Adjustments (FVA) est introduit. La section se termine par une discussion sur la décomposition de XVA en contributeurs et attributions de risque individuels.

Pour le devoir à la maison, les élèves sont chargés de simuler un portefeuille composé de 10 actions, 10 swaps de taux d'intérêt et 5 options d'achat. Ils sont tenus de calculer les expositions attendues, les expositions futures potentielles et d'effectuer une évaluation CVA. De plus, les étudiants sont invités à discuter de l'effet de tricotage et à suggérer des dérivés qui pourraient réduire les expositions prévues.

Le conférencier conclut en présentant des exercices visant à évaluer les profils de risque d'un portefeuille et à explorer des méthodes pour les réduire. Le premier exercice consiste à simuler les expositions attendues d'un swap et à mettre en œuvre la tarification des swaptions à l'aide d'un modèle blanc complet pour valider son équivalence à la tarification des swaptions. Le deuxième exercice sert de contrôle d'intégrité pour s'assurer de l'exactitude de la mise en œuvre. La conférence à venir portera sur la valeur à risque et utilisera les connaissances acquises lors de cette conférence.

Dans l'ensemble, la conférence a couvert les principes fondamentaux des ajustements de valeur de crédit, la simulation des expositions attendues, les expositions futures potentielles et l'utilisation des simulations de Monte Carlo et du codage Python dans le processus.

  • 00:00:00 Dans cette section du cours d'ingénierie financière, l'orateur aborde les approximations standard du marché pour estimer le CVA et aborde le problème de la symétrie avec PCVA et VCVA. Ils expliquent comment les frais des clients basés sur les probabilités de défaut peuvent différer et pourquoi cela peut empêcher les transactions d'avoir lieu sans ajustements. Le concept de DVA ou d'ajustement de la valeur de profondeur est introduit et l'application des rayons lourds pour le calcul des expositions attendues est expliquée. L'orateur aborde également la question des attributions commerciales pour le CVA et comment pondérer le CVA dans un portefeuille pour éviter les problèmes d'additivité. Enfin, ils résument le cours magistral et proposent deux exercices aux étudiants.

  • 00:05:00 Dans cette partie du cours, l'orateur explique comment intégrer le risque de tarification et considère le taux de recouvrement ou la perte en cas de défaut comme une constante. L'orateur explique ensuite que pour obtenir une approximation de la correction CVA, ils ont besoin d'une distribution conjointe, qui est une quantité stochastique corrélée avec le temps de défaut. De plus, l'orateur discute des termes « risque de mauvaise approche » et « risque de bonne approche » et de leur relation avec la corrélation entre les expositions et les probabilités de défaut des contreparties. Enfin, le conférencier explique qu'il existe des articles classiques disponibles en ligne qui fournissent une introduction aux techniques utilisées pour imposer des corrélations lors de l'hypothèse d'indépendance entre deux variables.

  • 00:10:00 Dans cette partie du cours, le professeur aborde l'approche marché de l'approximation de l'espérance conditionnelle par l'exposition attendue, soulignant qu'il s'agit là de l'intérêt principal de ce cours. Il décompose ensuite les trois éléments principaux qui composent le CVa et explique que la partie exposition attendue est la plus coûteuse. Le principal problème avec CVa est le soi-disant problème de symétrie où les prix des contreparties diffèrent en raison de leurs opinions contradictoires sur les probabilités de défaut, ce qui rend difficile la conclusion d'un accord. Pour résoudre ce problème, conclut-il, nous devons aborder l'ajustement bilatéral de la valeur du crédit (bCVA).

  • 00:15:00 la perspective de la contrepartie sera la même si nous incorporons le CVA bilatéral (ajustement de la valeur de crédit). Le CVA bilatéral prend en compte le risque associé à notre propre défaut ainsi qu'au défaut de la contrepartie. Cela signifie qu'une partie peut ne pas être d'accord avec le prix ajusté tel que calculé par l'autre partie. La valeur ajustée est calculée par l'investisseur et n'est pas l'opposé de la valeur ajustée calculée par la contrepartie. La CVA bilatérale intervient pour assurer la symétrie dans la tarification des dérivés, en tenant compte de la solvabilité des deux parties. Le prix de la juste valeur d'un dérivé est finalement déterminé par le CVA bilatéral, qui inclut les probabilités de défaut respectives des deux parties.

  • 00: 20: 00 Dans cette section, le conférencier discute des ajustements de valorisation, ou xVA, et de l'importance d'incorporer des ajustements dans la tarification du dérivé sans risque ou sans défaut. Ils expliquent comment l'ajustement de valeur de crédit bilatéral, ou BCVA, est la différence entre l'ajustement de valeur de crédit, ou CVA, et l'ajustement de valeur de débit, ou DVA. Le conférencier aborde également la façon dont la VCVA peut augmenter, ce qui entraîne une diminution de la part de la CVA en raison d'une augmentation du défaut d'une entreprise et des problèmes liés à l'augmentation des évaluations. Ils soulignent l'importance du calcul des expositions attendues car il s'agit d'un élément crucial dans le calcul de la xVA et des ajustements tels que l'ajustement de la valeur de financement ou FVA.

  • 00: 25: 00 La section explore la formule de calcul de la fva, qui se compose de deux parties - le coût de l'ajustement du financement (fca) et l'ajustement des avantages du financement (fba). Le spread de financement est le coût de financement des dérivés, exprimé par sbe, et est généralement lié au coût d'obtention du financement sur le marché. La formule suppose que la valeur d'exposition du portefeuille est indépendante de la partie financement, et que l'exposition et les probabilités de défaut sont également indépendantes. La fva est calculée sur la base des expositions attendues et des probabilités de défaut estimées du marché. De plus, fva comprend deux types de financement - le financement généré par l'entreprise et le financement qui doit être versé pour soutenir les postes existants. Ces deux types de financement sont inclus dans l'ava.

  • 00:30:00 Dans cette section, l'orateur explique l'importance de comprendre les profils de risque des transactions lorsqu'il s'agit des ajustements de valeur dans un portefeuille ou un ensemble net. Connaître les CDA individuels par transaction dans un portefeuille peut aider à évaluer quelles transactions contribuent le plus aux profils de risque, permettant l'établissement de risques associés ou même la vente de positions pour une réduction globale du risque. L'objectif est de décomposer les cva en cva individuels pour trouver un moyen de l'exprimer sous forme de sommation avec des cva individuels pour comprendre leur rôle dans l'évaluation des cv. Un cva incrémental peut également être effectué, mais il est coûteux en calcul, et l'objectif est de trouver un moyen de décomposer le cva en cva individuels de sorte qu'ils concordent à la fois au niveau du portefeuille et de la somme des cva individuels.

  • 00:35:00 Dans cette section, l'instructeur discute de la méthodologie d'utilisation du processus d'allocation euler et d'une fonction d'homogénéité pour obtenir la décomposition souhaitée de xVA, ou expositions attendues, en contributeurs individuels qui préservent la somme totale égale à l'exposition du portefeuille. La fonction f est dite homogène de degré k si k fois f de x est égal à la somme de tous les éléments de la dérivée de cette fonction à chaque élément individuel du vecteur fois x i. Cela permet de décomposer la CVA ou les expositions attendues en la somme des contributions individuelles, qui sont ensuite exprimées sous la forme d'une partie d'actualisation et d'une composante alpha lissée. Ce faisant, les expositions attendues peuvent être évaluées et calculées à chaque instant individuel et pondérées avec des coefficients alpha pour obtenir un produit lisse.

  • 00:40:00 Dans cette section, le conférencier discute des avantages du calcul de la sensibilité par rapport à alpha i et de la manière dont il permet de réduire les calculs lors de l'évaluation des expositions attendues pour un portefeuille. En utilisant une reformulation des CVA, les CVA individuels pour chaque transaction peuvent être exprimés sous forme de ratio et la dérivée peut être calculée à partir de l'exposition attendue sans qu'il soit nécessaire de refaire la simulation de Monte Carlo. Cette approche est avantageuse d'un point de vue numérique, mais elle repose toujours sur l'hypothèse d'homogénéité et la combinaison de portefeuille doit satisfaire à la condition. Dans l'ensemble, la conférence a couvert les bases des ajustements de valeur de crédit et la simulation des expositions attendues et des expositions futures potentielles, en utilisant des simulations de Monte Carlo et le codage Python.

  • 00:45:00 Dans cette section du cours d'ingénierie financière, le conférencier explique comment étendre le code pour plusieurs dimensions et swaps, ainsi que le calcul des expositions attendues pour plusieurs facteurs de risque, y compris l'inflation et les actions. Le cours couvre également le calcul du CVA, y compris l'inclusion de la contrepartie et de notre propre probabilité de défaut, et introduit les ajustements de la valeur de financement (FVA). La section se termine par une discussion sur la manière de décomposer la XVA en contributeurs et attributions de risque individuels. Les devoirs comprennent la simulation d'un portefeuille avec 10 actions, 10 swaps de taux d'intérêt et 5 options d'achat, le calcul des expositions attendues, les expositions futures potentielles et la réalisation d'une évaluation CVA. De plus, les étudiants sont invités à discuter de l'effet de tricotage et à suggérer des dérivés pour réduire les expositions prévues.

  • 00:50:00 Dans cette section de la vidéo, le conférencier aborde des exercices qui aident à évaluer les profils de risque d'un portefeuille et comment les réduire, ainsi que l'importance de couvrir une position en utilisant le moins de positions supplémentaires possible. Le premier exercice consiste à simuler les expositions attendues d'un swap et à mettre en œuvre la tarification des swaptions à l'aide d'un modèle blanc complet pour confirmer qu'elle est équivalente à la tarification d'une swaption. Le deuxième exercice est un contrôle d'intégrité pour s'assurer de l'exactitude de l'implémentation. La prochaine conférence portera sur la valeur à risque et réutilisera les connaissances acquises lors de cette conférence.
Financial Engineering Course: Lecture 12/14, part 3/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 3/3, (Valuation Adjustments- xVA)
  • 2022.04.07
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 3/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Cours d'Ingénierie Financière : Cours 13/14, partie 1/2, (Value-at-Risk and Expected Shortfall)



Cours d'Ingénierie Financière : Cours 13/14, partie 1/2, (Value-at-Risk and Expected Shortfall)

Le conférencier commence par expliquer les motivations derrière les calculs de la valeur à risque (VaR) et leur pertinence pour la gestion des risques dans le compte de résultat (P&L) d'un portefeuille. La VaR est présentée comme une mesure des pertes potentielles associées aux fluctuations du marché, visant à fournir un chiffre unique pour le scénario le plus défavorable sur une période de temps spécifiée. Cependant, il est souligné que la VaR n'est pas la seule réponse et que les institutions financières doivent disposer d'un capital suffisant pour couvrir les pertes estimées en fonction de divers facteurs environnementaux.

Le cours couvre le calcul et l'interprétation de la VaR, y compris la VaR stressée et le déficit attendu. La VaR stressée implique de prendre en compte les données historiques et les pires événements pour préparer les institutions aux mouvements extrêmes du marché. Le déficit attendu, quant à lui, calcule la perte moyenne au-delà du niveau de VaR, offrant une approche plus prudente de la gestion des risques. L'importance d'intégrer de multiples calculs de VaR et des effets de diversification lors de la prise de décisions d'investissement est soulignée.

Dans le segment suivant, les étudiants apprennent à programmer une simulation de portefeuille VaR à l'aide de Python. La conférence se concentre sur la simulation d'un portefeuille avec plusieurs produits de taux d'intérêt, le téléchargement de données de marché pour les courbes de rendement et le calcul des chocs. L'importance de la diversification et de la prise en compte de différents calculs de VaR est réitérée. Le segment se termine par un résumé et un devoir qui demande aux étudiants d'étendre le code Python pour calculer la VaR pour un portefeuille spécifique comprenant des actions et des taux d'intérêt.

La conférence aborde également l'acceptation et l'utilisation de la VaR par les institutions financières à des fins de surveillance des risques et d'adéquation des fonds propres. L'aspect réglementaire est mis en avant, la VaR étant imposée pour s'assurer que les institutions peuvent résister aux récessions ou aux ventes massives du marché. Un exemple de VaR d'un portefeuille est fourni, indiquant un niveau de confiance de 95 % que le portefeuille ne perdra pas plus d'un million de dollars en une seule journée.

En outre, la conférence explique le calcul de la VaR en utilisant la distribution des valeurs du portefeuille et des scénarios de marché possibles, en établissant des parallèles avec les calculs précédents des expositions et des expositions futures potentielles. L'enseignant insiste sur la simplicité de la VaR par rapport aux expositions attendues, qui ne considèrent que la valeur absolue du facteur de risque. Différentes approches de calcul de la VaR sont mentionnées, telles que la VaR paramétrique, la VaR historique, la simulation de Monte Carlo et la théorie des valeurs extrêmes, en mettant l'accent sur la compréhension de leurs caractéristiques et limites.

Le concept de mesures de risque cohérentes est introduit, décrivant les exigences académiques pour qu'une mesure de risque soit considérée comme bonne. La conférence reconnaît les critiques entourant ces exigences et met en évidence le point de vue des praticiens sur l'aspect pratique et les contrôles ex post. L'exigence de sous-additivité est expliquée, en soulignant que la mesure du risque d'un portefeuille diversifié doit être inférieure ou égale à la somme des mesures de risque individuelles de ses actifs. Bien que la VaR ne soit pas une mesure cohérente, elle est couramment utilisée à des fins de gestion des risques. Néanmoins, les gestionnaires de risques sont encouragés à envisager plusieurs mesures de risque pour acquérir une compréhension globale du profil de risque et de l'appétit pour le risque de leur portefeuille.

Les limites de la VaR en tant qu'outil de gestion des risques sont discutées, ce qui conduit à l'introduction du déficit attendu comme alternative plus prudente. Le manque à gagner attendu est présenté comme une mesure de risque cohérente qui considère la perte moyenne dépassant le niveau de VaR. En s'appuyant sur de multiples mesures, telles que la VaR et le manque à gagner attendu, les institutions financières peuvent améliorer leurs stratégies d'atténuation des risques et protéger efficacement leurs portefeuilles.

La conférence se termine en abordant les limites des calculs de VaR, telles que leur dépendance à la qualité et à la quantité des données. Il souligne l'importance d'une gestion pragmatique des risques, évitant tout conservatisme excessif tout en choisissant des mesures réalistes et fiables.

  • 00:00:00 Dans cette section du cours, l'instructeur couvre les motivations des calculs de valeur à risque (VaR) et leur relation avec les risques dans les profits et pertes (P&L) d'un portefeuille. La conférence comprend également une explication de la VaR stressée, du déficit attendu et de la manière dont ces mesures s'intègrent dans un plan de gestion des risques cohérent. Dans le deuxième bloc du cours, les étudiants apprennent à programmer une simulation d'un portefeuille VaR avec plusieurs produits de taux d'intérêt, à télécharger des données de marché pour les courbes de rendement et à calculer les chocs. La conférence met l'accent sur l'importance d'un portefeuille diversifié et sur la nécessité de tenir compte de plusieurs calculs de VaR lors de la prise de décisions d'investissement. Le segment se termine par un résumé et un devoir demandant aux étudiants d'étendre le code Python pour calculer la VaR pour un portefeuille spécifique composé d'actions et de taux d'intérêt.

  • 00:05:00 Dans cette section du cours sur l'ingénierie financière, l'accent est mis sur la valeur à risque (VaR) et le déficit attendu, qui sont utilisés pour mesurer les pertes potentielles associées aux fluctuations du marché. La VaR tente de fournir un chiffre unique pour le pire scénario de pertes potentielles sur une période donnée, mais il est important de noter que ce n'est pas la seule réponse. Les banques sont tenues de disposer d'un capital suffisant pour couvrir les pertes potentielles estimées, en fonction de facteurs environnementaux. La conférence explique comment la VaR est calculée à l'aide de la distribution des valeurs du portefeuille et des scénarios de marché possibles, démontrant sa similitude avec les calculs précédents des expositions et des expositions futures potentielles.

  • 00:10:00 Dans cette section de la conférence, l'importance de la Value-at-Risk (VaR) et la façon dont elle est utilisée par les institutions financières sont discutées. La VaR est utilisée pour aider à préparer les institutions financières aux pires scénarios en examinant les données historiques et les pires événements afin qu'elles disposent de suffisamment de capital pour soutenir leurs activités pendant les périodes de mouvements spectaculaires du marché. La VaR est imposée par les régulateurs pour garder un meilleur œil sur la surveillance des positions et des risques afin de garantir que les institutions financières survivent pendant les récessions ou les ventes massives. La conférence explique également comment les nombres de VaR sont calculés et interprétés, avec un exemple spécifique de la VaR d'un portefeuille indiquant qu'il existe un niveau de confiance de 95 % que le portefeuille ne perdra pas plus d'un million de dollars en une journée.

  • 00:15:00 Dans cette section, le conférencier explique l'idée derrière la méthode Value-at-Risk (VaR) de mesure du risque. La VaR consiste à observer les fluctuations quotidiennes des mouvements historiques d'un actif sous-jacent, à les appliquer à la valeur actuelle et à réévaluer le portefeuille pour déterminer la distribution des profits et des pertes. La méthode est beaucoup plus simple que les calculs effectués dans Expected Exposures, qui ne regardaient que la valeur absolue du facteur de risque. Le conférencier explique que la VaR est acceptée dans l'industrie depuis plus de 40 ans et qu'il existe différentes approches pour effectuer les calculs. Bien que la VaR fournisse une estimation du niveau de risque lié aux mouvements du marché, elle ne garantit pas la survie d'une entreprise en cas de catastrophe.

  • 00:20:00 Dans cette section, le concept de Value-at-Risk (VaR) en tant que mesure du risque est introduit. La VaR calcule le montant de capital nécessaire pour supporter un niveau de risque spécifique, et l'ajout de capital déplacera la distribution vers la droite, ce qui réduit le risque. Le niveau de confiance de la VaR est fixé par les régulateurs, et une exigence courante est un intervalle de confiance unilatéral de 99 %. Si la VaR permet d'intégrer les effets de diversification, elle peut être problématique. Des améliorations telles que les déficits attendus sont suggérées pour répondre aux limites de la VaR. De plus, les régulateurs exigent une période de détention de 10 jours pour le calcul de la VaR, mais il est également nécessaire d'envisager des mesures supplémentaires.

  • 00:25:00 Dans cette section du cours sur l'ingénierie financière, le professeur explique que plus la fenêtre d'observation est large, plus la distribution sera large pour la distribution P&L. Les régulateurs exigent une période de détention de 10 jours pour la valeur à risque et au moins un an de données historiques pour les facteurs de risque de marché. Le scénario de stress, connu sous le nom de svar, consiste à examiner les données du marché d'une période violente et volatile dans le passé. Bien que les paramètres du modèle soient standardisés, les banques n'ont pas à suivre exactement la même approche particulière pour estimer la valeur à risque. Les quatre principales méthodologies de calcul de la valeur à risque comprennent la var paramétrique, la var historique, la simulation de Monte Carlo et la théorie des valeurs extrêmes. Le professeur note qu'ils ne se concentreront pas sur la méthode paramétrique var.

  • 00:30:00 Dans cette section du cours, le conférencier discute des différentes approches de calcul de la Value-at-Risk (VaR) pour un portefeuille. La première approche mentionnée est la forme paramétrique, où une distribution est imposée aux rendements du portefeuille et des échantillons sont tirés de la distribution pour évaluer le portefeuille. Cependant, cette méthode est fortement biaisée et si la distribution n'est pas correctement calibrée ou adaptée à un facteur de risque particulier, elle peut exposer le portefeuille à un risque important. La conférence poursuit ensuite en expliquant la simulation de Monte Carlo, où les facteurs de risque tels que les taux d'intérêt sont simulés à l'aide d'une équation différentielle stochastique, puis évalués à l'aide du portefeuille. La simulation de Monte Carlo peut être effectuée de deux manières : en calibrant le modèle sur les volatilités implicites du marché ou en le calibrant sur des données historiques à l'aide d'une fenêtre mobile de chocs de marché observables.

  • 00:35:00 Dans cette section de la conférence, le concept de mesures de risque cohérentes est discuté, qui fait référence aux exigences académiques proposées pour que toute mesure de risque soit considérée comme une bonne mesure. Cependant, de nombreuses critiques entourent ces exigences, car les praticiens affirment que certaines mesures peuvent ne pas être pratiques et satisfaire aux meilleures exigences de contrôle a posteriori. L'exigence de sous-additivité est également expliquée, ce qui garantit que la mesure du risque d'un portefeuille diversifié doit être inférieure ou égale à la somme des mesures de risque individuelles de ces actifs. Bien que la valeur à risque (VaR) ne soit pas une mesure cohérente, elle est encore souvent utilisée par les praticiens à des fins de gestion des risques, mais les gestionnaires de risques sont encouragés à envisager plusieurs mesures de risque pour mieux comprendre leur profil de risque et leur appétence au risque.

  • 00:40:00 Dans cette section, les exigences d'une mesure cohérente sont discutées, la première exigence étant que la mesure doit répondre de manière monotone au risque. Cela signifie que si la valeur à risque (VaR) augmente mais que le déficit attendu (ES) diminue lors de la diversification ou de la couverture, alors il se passe quelque chose dans le portefeuille qui doit être analysé. La deuxième exigence est que si un actif a une valeur inférieure ou égale à un autre actif, alors la mesure du risque du premier doit être supérieure ou égale au second. De plus, la section explique les limites de la VaR, y compris la façon dont elle ne satisfait pas la sous-additivité, ce qui peut conduire à de mauvaises interprétations dans les solutions financières qui utilisent la VaR mais ne réalisent pas qu'elle viole une certaine additivité.

  • 00:45:00 Dans cette section, la conférence couvre les limites de l'utilisation de la valeur à risque (VAR) comme outil de gestion des risques et présente le concept de déficit attendu comme alternative plus conservatrice. Bien que la VAR soit populaire dans l'industrie, elle présente le risque potentiel de déformer le niveau de risque réel d'un portefeuille, conduisant à l'hypothèse d'un risque trop élevé ou à l'échec de la couverture si nécessaire. Le déficit attendu est une mesure de risque cohérente qui prend la VAR comme entrée et calcule la perte moyenne qui dépasse le niveau de VAR, ce qui se traduit par une approche plus prudente de la gestion des risques. En s'appuyant sur plusieurs mesures, telles que la VAR et le déficit attendu, les institutions financières peuvent mieux atténuer les risques et protéger leurs portefeuilles.

  • 00:50:00 Dans cette section, l'orateur discute des limites de la Value-at-Risk (VaR) et suggère quelques améliorations potentielles. L'orateur note que les calculs de VaR dépendent fortement de la qualité et de la quantité des données, il est donc important d'examiner attentivement les données utilisées. En outre, l'orateur met en garde contre une gestion des risques trop prudente, car cela peut conduire à des mesures irréalistes. Au lieu de cela, il faut être pragmatique et choisir des mesures réalistes et fiables.
Financial Engineering Course: Lecture 13/14, part 1/2, (Value-at-Risk and Expected Shortfall)
Financial Engineering Course: Lecture 13/14, part 1/2, (Value-at-Risk and Expected Shortfall)
  • 2022.04.14
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 13- part 1/2, Value-at-Risk and Expected Shortfall▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is ...
 

Cours d'Ingénierie Financière : Cours 13/14, partie 2/2, (Value-at-Risk and Expected Shortfall)



Cours d'Ingénierie Financière : Cours 13/14, partie 2/2, (Value-at-Risk and Expected Shortfall)

L'instructeur donne une conférence complète sur la réalisation d'une simulation Python et l'évaluation de la valeur à risque (VaR) historique à l'aide de données de marché réelles pour un portefeuille de swaps de taux d'intérêt. La conférence couvre divers sujets cruciaux, notamment la gestion des données manquantes, l'arbitrage et le concept de relecture des courbes de rendement pour intégrer les modifications des données de marché afin de générer des scénarios de VaR. La méthode de Monte Carlo pour les calculs de VaR est également expliquée, ainsi que l'utilisation du backtesting pour évaluer la performance du modèle VaR. Pour conclure le cours, un devoir est donné aux étudiants, les mettant au défi de mettre en œuvre ou d'améliorer la mise en œuvre de la VaR historique en introduisant un facteur de risque supplémentaire et en envisageant la diversification des risques dans leur portefeuille.

Le concept de Value-at-Risk (VaR) est expliqué en détail par l'instructeur. La VaR est utilisée pour prévoir ou dériver une distribution des profits et pertes potentiels (P&L) dans un portefeuille, sur la base des mouvements historiques des facteurs de risque. Pour assurer des résultats stables, le portefeuille reste constant et les évaluations historiques des facteurs de risque servent d'entrée pour les calculs de VaR. L'instructeur souligne l'importance d'inclure tous les facteurs de risque pertinents dans les calculs et mentionne que la longueur de la fenêtre temporelle et le niveau de confiance peuvent être spécifiés. De plus, l'instructeur a l'intention d'analyser l'impact de différentes longueurs de fenêtres temporelles sur la distribution du profil P&L dans une expérience Python.

Dans le segment suivant, le conférencier se penche sur l'estimation des pertes potentielles qu'un portefeuille peut rencontrer en une journée. Soulignant l'importance de facteurs de risque réalistes et utilisant des données historiques, le conférencier décrit comment les changements quotidiens des facteurs de risque peuvent être appliqués au niveau actuel pour déterminer l'éventail des résultats possibles et la distribution des pertes probables sur une période. Il est souligné qu'un contrôle et une gestion efficaces des risques sont essentiels pour la sauvegarde de l'établissement, au-delà du simple respect des conditions réglementaires. De plus, l'enseignant explique que le calcul de la VaR et la gestion d'un portefeuille de dérivés simples sont comparativement plus faciles que de traiter des produits de taux qui nécessitent la construction de courbes de taux pour chaque scénario.

Le conférencier discute ensuite des étapes de la tarification d'un portefeuille de taux d'intérêt et du calcul de la valeur à risque (VaR) et du déficit attendu. La construction d'une courbe de rendement pour chaque scénario est une tâche de calcul essentielle dans ce processus. Une expérience est décrite, où un portefeuille de swaps est évalué sur une période de 160 jours en utilisant des données historiques sur les courbes de rendement quotidiennes des bons du Trésor. En calculant les chocs quotidiens et en reconstruisant par la suite les courbes de rendement, la valeur du portefeuille, la VaR et l'Expected Shortfall peuvent être déterminés. Le conférencier mentionne que cette procédure repose sur la couverture préalable de la construction de la courbe de rendement dans un cours précédent. L'objectif de l'expérience est d'observer la distribution des pertes de profil potentielles avec des intervalles de confiance à 95 %.

Le cours couvre le calcul du quantile pour la VaR et la valeur attendue du côté gauche de ce quantile, qui correspond au manque à gagner attendu. La construction d'un portefeuille à l'aide d'obligations à coupon zéro et l'évaluation de swaps avec différentes configurations, taux, notionnels et paramètres sont également abordés. En outre, la conférence aborde le calcul de la courbe de rendement sur la base de données historiques et le processus itératif d'obtention des chocs requis pour les ajustements de la courbe de rendement dans tous les scénarios.

L'orateur poursuit en expliquant l'utilisation des données historiques pour estimer les mouvements potentiels de la courbe des taux. Cette estimation des scénarios possibles est précieuse pour la gestion des risques lorsque d'autres informations ne sont pas disponibles. Les scénarios peuvent également être spécifiés manuellement, par exemple par un régulateur. L'orateur se penche également sur l'examen des profils de risque sur la base de données historiques et sur la gestion de cas particuliers lors du changement d'instruments. Le processus de choc des valeurs de marché et de reconstruction des courbes de rendement pour chaque scénario est expliqué, suivi de l'évaluation du portefeuille pour chaque courbe construite. Enfin, l'orateur décrit la méthodologie d'estimation du déficit attendu sur la base des observations de la fin de la distribution.

L'orateur donne un aperçu des résultats obtenus à partir du code d'exécution pour calculer la distribution des profits et des pertes (P&L), ainsi que la valeur à risque (VaR) et le manque à gagner attendu. La distribution des P&L présente une forme familière avec des queues aux deux extrémités et la majorité des valeurs centrées autour de dix mille. La VaR est calculée à moins sept mille, indiquant une probabilité de cinq pour cent que les pertes de demain dépasseront ce montant. D'autre part, le manque à gagner attendu est déterminé à moins seize mille, soit près du double de l'impact du calcul de la VaR. Le conférencier souligne l'importance de données de marché cohérentes et de haute qualité pour effectuer des calculs de VaR historiques précis. Le devoir consiste à étendre la fonction pour incorporer des facteurs de risque supplémentaires comme les actions et à reproduire la même expérience.

Le conférencier explique également comment gérer les données de marché manquantes dans les calculs financiers, en particulier lorsqu'il s'agit d'instruments sans négociation active ou valeurs implicites du marché. Le processus implique la construction d'une courbe pour interpoler les données manquantes sur la base des instruments disponibles, tout en tenant compte des contraintes delta et des volatilités. Le conférencier souligne l'importance d'utiliser les instruments disponibles sur le marché dans la gestion des risques et d'établir des normes de qualité des données pour la VaR et les calculs de déficit attendu. En outre, la question des volatilités négatives est abordée, ainsi que des informations sur les méthodologies permettant de gérer de tels événements.

Deux types d'arbitrage, à savoir l'arbitrage calendaire et l'arbitrage papillon, sont abordés par l'orateur. L'arbitrage calendaire se produit dans la dimension temporelle, tandis que l'arbitrage papillon concerne les grèves. L'orateur explique comment la stratégie papillon se rapproche de la dérivée de second ordre d'une option d'achat par rapport au prix d'exercice, qui correspond à la densité d'un titre. Cependant, l'application de chocs incohérents à la surface de volatilité d'aujourd'hui peut introduire des opportunités d'arbitrage et une volatilité négative, ce qui présente des risques. L'interpolation des volatilités présente également des défis, en particulier dans le contexte des calculs de VaR. Le conférencier présente les calculs de VaR basés sur la simulation de Monte Carlo, qui peuvent être calibrés sur des données historiques ou des instruments de marché. La simulation est effectuée à l'aide de Monte Carlo et le modèle est associé à la mesure P ou Q, selon qu'il est calibré sur des données historiques ou des instruments de marché.

Le conférencier explique en outre comment la simulation de Monte Carlo peut être utilisée pour évaluer un portefeuille. En simulant des scénarios pour un modèle de taux courts et en appliquant des chocs ou des différences sur une base quotidienne ou sur 10 jours, le portefeuille peut être évalué à travers différents scénarios. La simulation de Monte Carlo offre plus de degrés de liberté et une plus large gamme de scénarios par rapport à l'utilisation exclusive de données historiques. Générer un grand nombre de scénarios possibles est crucial pour améliorer la gestion des risques. L'orateur reconnaît que certains choix au sein de la méthodologie nécessitent encore une exploration plus approfondie, mais dans l'ensemble, l'approche sert de moyen simple pour illustrer la simulation de Monte Carlo.

Le conférencier souligne que la réévaluation d'un portefeuille dans chaque scénario peut être exigeante en termes de calcul, en particulier pour les grands portefeuilles composés de titres dérivés complexes. Ce processus devient le facteur déterminant du nombre de scénarios pouvant être générés, ce qui réduit le nombre de scénarios pour les portefeuilles plus importants. Pour illustrer l'évaluation de la valeur à risque (VaR) quotidienne, l'orateur démontre en prenant une différence de 10 jours entre les taux d'intérêt, en calculant le portefeuille, en stockant les résultats dans une matrice et en estimant le quantile et le déficit attendu pour un alpha donné. de 0,05. Les résultats indiquent que le manque à gagner attendu est deux fois plus important que la VaR, ce qui souligne l'importance d'une gestion efficace des risques pour atténuer des pertes substantielles.

La conférence se penche sur le sujet du backtesting pour la valeur à risque (VaR). Le backtesting consiste à comparer les pertes prévues de la VaR aux profits et pertes réalisés (P&L) dérivés des données réelles du marché. En effectuant cette analyse quotidiennement sur une période spécifique, généralement un an ou 250 jours ouvrables, la qualité du modèle VaR peut être évaluée et des problèmes potentiels tels que des facteurs de risque manquants ou des modèles mal calibrés peuvent être identifiés. Cependant, il convient de noter que le backtesting est une mesure rétrospective et peut ne pas prédire avec précision des événements volatils dans des situations prospectives. Pour améliorer la qualité du backtesting, l'utilisation de simulations Monte Carlo et d'un calibrage avec des données de marché peut être envisagée.

La vidéo souligne l'importance d'équilibrer plusieurs modèles lors de l'estimation de la valeur à risque (VaR) et discute du choix entre l'utilisation de données historiques par rapport à des processus stochastiques. Le calibrage du modèle sur le marché peut fournir des informations supplémentaires au-delà de ce qui est uniquement dérivé des données historiques. Le conférencier explique également comment les résultats du backtesting jouent un rôle crucial dans l'évaluation de la performance d'un modèle. En comparant les prédictions du modèle à un certain niveau de signification, on peut déterminer si le modèle fonctionne bien ou mal. La conférence se termine en résumant les principaux points de la discussion sur la VaR et en soulignant l'importance de considérer le manque à gagner attendu par rapport à la VaR.

En outre, l'orateur fournit un résumé de la deuxième partie de la conférence, qui s'est concentrée sur des questions pratiques telles que la gestion des données manquantes, l'arbitrage et l'utilisation de la simulation Monte Carlo pour le calcul de la VaR. Le conférencier souligne l'importance d'acquérir une compréhension globale des différentes mesures de VaR pour surveiller efficacement la santé et l'état d'un portefeuille. Le devoir donné demande aux étudiants d'étendre un portefeuille en utilisant des calculs d'intérêts sur la valeur historique, d'incorporer un facteur de risque supplémentaire tel qu'une action ou une devise étrangère et d'envisager de diversifier les dérivés pour réduire la variance. Le conférencier conclut la conférence en résumant les principaux points à retenir, y compris le calcul de la VaR et les différentes mesures de VaR utilisées pour estimer les risques associés aux mouvements potentiels du marché.

La conférence fournit des informations précieuses sur la réalisation de simulations Python et l'évaluation de la valeur à risque (VaR) historique basée sur des données de marché réelles pour un portefeuille. Il couvre des sujets importants tels que la gestion des données manquantes, l'arbitrage, la relecture des courbes de rendement et l'utilisation de la simulation Monte Carlo pour les calculs de VaR. La conférence souligne également l'importance du backtesting pour valider les modèles de VaR et l'importance de considérer le manque à gagner attendu en plus de la VaR. En explorant ces concepts et en accomplissant les tâches assignées, les étudiants peuvent développer une compréhension globale de la gestion des risques et de l'évaluation de portefeuille dans des contextes financiers.

  • 00:00:00 Dans cette section du cours d'ingénierie financière, l'instructeur explique comment effectuer une simulation Python et évaluer la valeur à risque (VaR) historique basée sur des données de marché réelles pour un portefeuille de swaps de taux d'intérêt. La conférence couvre la gestion des données manquantes, l'arbitrage et les concepts de relecture des courbes de rendement dans le contexte des changements de données de marché pour générer des scénarios pour les calculs de VaR. La méthode de Monte Carlo pour les calculs de VaR est également abordée, ainsi que le backtesting pour la vérification des performances du modèle VaR. Le cours se termine par un devoir qui demande aux étudiants de mettre en œuvre ou d'étendre la mise en œuvre de la VaR historique avec un facteur de risque supplémentaire et de réfléchir à la diversification des risques dans leur portefeuille.

  • 00:05:00 Dans cette section, l'instructeur explique le concept de valeur à risque (VaR) et comment il est utilisé pour prévoir ou donner une distribution des profits et pertes potentiels (P&L) dans un portefeuille, sur la base d'éventuelles mouvements historiques des facteurs de risque. Le portefeuille est maintenu constant afin d'obtenir des résultats stables, et les évaluations historiques des facteurs de risque sont utilisées comme données d'entrée pour la VaR. L'instructeur insiste sur l'importance d'inclure tous les facteurs de risque pertinents dans les calculs de VaR. La durée de la fenêtre temporelle et le niveau de confiance peuvent également être spécifiés. L'instructeur prévoit d'analyser l'impact de la longueur de la fenêtre temporelle sur la distribution du profil P&L dans l'expérience Python.

  • 00:10:00 Dans cette section, le conférencier discute du processus d'estimation des pertes potentielles qu'un portefeuille peut rencontrer en une journée. Le conférencier souligne l'importance d'avoir des facteurs de risque réalistes dans le portefeuille et d'utiliser des données historiques pour imposer des changements quotidiens au niveau actuel des facteurs de risque. En appliquant ces modifications, il devient possible de déterminer ce qui est possible, ainsi que la distribution des probabilités offertes et la distribution des pertes sur une période. L'enseignant souligne qu'il est essentiel de contrôler et de gérer les risques et de protéger l'institution, plutôt que de se contenter de respecter les conditions réglementaires. Enfin, la conférence explique comment un portefeuille composé de dérivés simples est beaucoup plus facile à calculer par rapport aux produits de taux d'intérêt qui nécessitent la construction de courbes de rendement complètes pour chaque scénario.

  • 00:15:00 Dans cette section de la vidéo, le conférencier discute des étapes nécessaires pour évaluer un portefeuille de taux d'intérêt et calculer la valeur à risque (VaR) et le déficit attendu. Pour ce faire, une courbe de rendement doit être construite pour chaque scénario, ce qui peut nécessiter beaucoup de calculs. Le conférencier décrit ensuite une expérience où ils évaluent un portefeuille de swaps sur une période de 160 jours en utilisant des données historiques sur les courbes de rendement quotidiennes des bons du Trésor. En calculant les chocs quotidiens puis en reconstruisant les courbes de rendement, ils peuvent évaluer le portefeuille et calculer la VaR et le manque à gagner attendu. L'enseignant note que ce processus repose sur la construction d'une courbe de rendement, qui a été abordée dans un cours précédent. Le but de l'expérience est de voir la distribution des pertes de profil possibles avec des intervalles de confiance à 95 %.

  • 00:20:00 Dans cette section du cours d'ingénierie financière, le sujet de la valeur à risque et du manque à gagner attendu est abordé. Le cours couvre le calcul du quantile pour VAR, puis la valeur attendue du côté gauche de ce quantile, qui sera la perte du déficit attendu. La conférence couvre également la construction d'un portefeuille à l'aide d'obligations à coupon zéro et l'évaluation de swaps avec différentes configurations, taux, notionnels et paramètres. De plus, la conférence traite du calcul de la courbe de rendement sur la base de données historiques et de l'itération sur tous les scénarios pour obtenir les chocs qui doivent être appliqués à la courbe de rendement.

  • 00:25:00 Dans cette section, l'orateur explique comment utiliser les données historiques pour estimer les mouvements possibles d'une courbe de rendement. Cette estimation des scénarios possibles est une valeur ajoutée pour gérer les risques sans aucune autre information disponible. Les scénarios peuvent également être spécifiés à la main, par exemple par un régulateur. L'orateur explique également comment gérer différentes mesures en examinant les profils de risque sur la base de données historiques et comment gérer les cas particuliers lors du changement d'instruments. Le processus de choc des valeurs de marché et de reconstruction des courbes de rendement pour chaque scénario est expliqué, suivi de l'évaluation du portefeuille pour chaque courbe précédemment construite. Enfin, l'orateur explique la méthodologie derrière l'estimation du déficit attendu sur la base des observations de la fin de la distribution.

  • 00:30:00 Dans cette section du cours d'ingénierie financière, l'orateur discute des résultats de l'exécution d'un code pour calculer la distribution des P&L et la valeur à risque (VaR) et le déficit attendu. La distribution des P&L montre une forme familière avec des queues à chaque extrémité et le milieu à dix mille. La VaR est calculée à moins sept mille avec une probabilité de cinq pour cent que les pertes de demain seront plus importantes que cela. Le manque à gagner attendu est de moins seize mille, soit presque le double de l'impact du calcul de la VaR. Le conférencier souligne également l'importance de disposer de données de marché cohérentes et de qualité lors du calcul de la VaR historique. Les devoirs consistent à étendre la fonction pour ajouter des facteurs de risque supplémentaires tels que les actions et à effectuer la même expérience.

  • 00:35:00 Dans cette section, le conférencier explique comment traiter les données de marché manquantes dans les calculs financiers, en particulier dans le cas d'instruments qui ne sont pas activement négociés ou impliqués par le marché. Le processus de création d'une courbe peut être utilisé pour interpoler les données manquantes en fonction des instruments disponibles, mais des critères supplémentaires tels que les contraintes delta et les volatilités doivent être pris en compte. Le conférencier note également l'importance d'utiliser des instruments disponibles sur le marché dans la gestion des risques et d'établir des normes de qualité des données pour les calculs de var et de déficit attendu. De plus, il aborde la question des volatilités négatives et donne un aperçu des méthodologies permettant de gérer de tels événements.

  • 00:40:00 Dans cette section, l'orateur discute de deux types d'arbitrage - l'un dans le sens du temps appelé arbitrage calendaire et l'autre dans le sens des grèves appelé arbitrage papillon. Ils expliquent comment la stratégie papillon se rapproche de la dérivée de second ordre d'une option d'achat par rapport à la grève, qui équivaut à la densité d'un stock. Cependant, l'application de chocs incohérents à la surface de volatilité actuelle peut introduire un arbitrage et une volatilité négative, ce qui peut être risqué. L'interpolation des volatilités est également difficile et nécessite une attention particulière, en particulier dans le cas des calculs VAR. Le conférencier présente ensuite les calculs VAR basés sur la simulation de Monte Carlo, qui peuvent être calibrés sur des données historiques ou des instruments de marché. La simulation est effectuée avec Monte Carlo et le modèle est associé à la mesure P ou Q, selon qu'il est calibré sur des données historiques ou des instruments de marché.

  • 00:45:00 Dans cette section de la conférence sur l'ingénierie financière, l'orateur discute de l'utilisation de la simulation de Monte Carlo pour évaluer un portefeuille. En simulant des scénarios pour un modèle de taux court et en appliquant des chocs ou des différences sur une base quotidienne ou sur 10 jours, le portefeuille peut être évalué sur la base de différents scénarios. En utilisant la simulation de Monte Carlo, il y a plus de degrés de liberté et plus de scénarios disponibles qu'avec des données historiques. Il est important de générer autant de scénarios possibles que possible pour améliorer la gestion des risques. L'orateur explique qu'il existe encore de nombreux points d'interrogation concernant des choix spécifiques, mais dans l'ensemble, la méthodologie est une approche simple pour illustrer la simulation de Monte Carlo.

  • 00:50:00 Dans cette section, l'orateur explique que la réévaluation d'un portefeuille dans chaque scénario est coûteuse en calcul, en particulier pour les grands portefeuilles composés de titres dérivés complexes. Ce processus devient le facteur limitant pour déterminer le nombre de scénarios qui peuvent être générés et, par conséquent, moins de scénarios peuvent être générés pour des portefeuilles plus importants. Le conférencier démontre également le processus d'évaluation de la valeur à risque (VaR) quotidienne en prenant une différence de 10 jours entre les taux d'intérêt. Ils calculent ensuite le portefeuille, le stockent dans une matrice et estiment le quantile et le déficit attendu pour alpha 0,05. Les résultats montrent que le manque à gagner attendu est deux fois plus important que la VaR, ce qui démontre l'importance de la gestion des risques dans la réduction des pertes importantes.

  • 00:55:00 Dans cette section de la conférence, le sujet du back testing pour la valeur à risque (VaR) est abordé. L'idée principale du back testing est de vérifier si votre modèle VaR prédit avec précision les pertes en comparant les pertes prévues de la VaR aux profits et pertes (P&L) réalisés à partir des données réelles du marché. Cela se fait quotidiennement sur une certaine période de temps, généralement un an ou 250 jours ouvrables. Les tests rétroactifs peuvent aider à évaluer la qualité du modèle VaR et à identifier les problèmes potentiels tels que des facteurs de risque manquants ou des modèles mal calibrés. Cependant, le back testing est une mesure rétrospective et ne prédit pas les événements volatils dans les situations prospectives. L'utilisation de simulations de Monte Carlo et l'étalonnage avec des données de marché peuvent potentiellement améliorer la qualité des tests ex post.

  • 01:00:00 Dans cette section, la vidéo traite de l'importance d'équilibrer plusieurs modèles lorsqu'il s'agit d'estimer la valeur à risque (VaR) et d'utiliser des données historiques par rapport à des processus stochastiques. En calibrant sur le marché, on peut recevoir plus d'informations que des prévisions basées uniquement sur des données historiques. La vidéo explique également les résultats des tests rétroactifs et comment ils peuvent aider à indiquer si un modèle fonctionne mal ou bien en dépassant un certain niveau de signification. Enfin, la conférence résume les principaux points de la discussion sur la VaR et mentionne l'importance de considérer le manque à gagner attendu par rapport à la VaR.

  • 01:05:00 Dans cette section, l'orateur résume la deuxième partie de la conférence qui s'est concentrée sur des questions pratiques telles que les données manquantes, l'arbitrage et la simulation Monte Carlo pour le calcul VAR. Le conférencier souligne également l'importance d'avoir une bonne vue d'ensemble des différentes mesures VAR pour surveiller la santé et l'état d'un portefeuille. Le devoir donné nécessite l'extension d'un portefeuille à l'aide de calculs d'intérêts sur la valeur historique et l'ajout d'un facteur de risque tel qu'une action ou une devise. L'affectation nécessite également l'examen de la diversification des produits dérivés pour réduire la variance. L'orateur conclut la conférence en résumant les principaux points à retenir, y compris la façon de calculer la VAR et les différentes mesures VAR utilisées pour estimer les risques associés aux mouvements possibles du marché.
Financial Engineering Course: Lecture 13/14, part 2/2, (Value-at-Risk and Expected Shortfall)
Financial Engineering Course: Lecture 13/14, part 2/2, (Value-at-Risk and Expected Shortfall)
  • 2022.04.28
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 13- part 2/2, Value-at-Risk and Expected Shortfall▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is ...
 

Cours d'ingénierie financière : Cours 14/14, (Le résumé du cours)



Cours d'ingénierie financière : Cours 14/14, (Le résumé du cours)

L'orateur conclut le cours d'ingénierie financière en récapitulant les 14 conférences qui ont couvert un large éventail de sujets. Ces sujets comprenaient les filtres et les changements de mesure, les modèles de taux d'intérêt, la dynamique de la courbe de rendement, la tarification des swaptions, les hypothèques et les remboursements anticipés, les équations différentielles stochastiques, les modèles de marché et l'évaluation et les ajustements VAR historiques. Le cours visait à fournir aux apprenants une compréhension globale de l'ingénierie financière et à les doter des compétences nécessaires pour mettre en œuvre leurs propres portefeuilles de produits dérivés.

Au cours de la conférence, le conférencier souligne l'importance de comprendre les filtrations et les mesures, ainsi que d'effectuer des simulations pour l'évaluation de portefeuille et la gestion des risques. Les avantages des attentes conditionnelles dans la tarification des options et la réduction de la complexité du modèle sont discutés, ainsi que le concept de changement des mesures et des techniques de réduction de dimension. La conférence couvre également le cadre AJM des modèles de taux courts sans arbitrage et deux modèles dérivés, HJM et Hull-White, avec des simulations pour comparer les courbes de rendement utilisées comme entrée et sortie du modèle. De plus, la dynamique de la courbe de rendement sous taux court et l'observation du taux des fonds fédéraux dans des expériences sont explorées.

Dans un autre segment, le conférencier se concentre sur la relation entre la dynamique de la courbe de rendement et les modèles de taux courts dans les simulations Python. Il se penche sur la motivation derrière le développement d'un modèle complet à deux facteurs en tant qu'extension du modèle à facteur unique pour capturer la dynamique de la courbe de rendement. Les produits de taux d'intérêt tels que les swaps, les accords commerciaux à terme et les produits de volatilité sont discutés, soulignant leur importance pour l'étalonnage des données du marché. La conférence couvre également la construction de la courbe de rendement, y compris les routines d'interpolation et les multi-courbes, et comment ces facteurs influent sur la couverture et le risque du portefeuille. La tarification des swaptions et les défis posés par les taux d'intérêt négatifs sont également abordés.

Les dernières conférences du cours sont résumées, couvrant des sujets tels que la tarification des options à l'aide de l'astuce de Jamshidian, les taux d'intérêt négatifs et la volatilité implicite décalée normale de type shift. Des discussions sur les prêts hypothécaires, les modèles hybrides, les risques de remboursement anticipé, les simulations à grands pas de temps, les devises et l'inflation sont également incluses. L'importance de relier les mesures neutres au risque et du monde réel, les quantités de marché observées et l'étalonnage des paramètres du modèle est soulignée.

En outre, l'application de l'ingénierie financière à plusieurs classes d'actifs est explorée, y compris les taux d'intérêt, les actions, les devises et l'inflation. Les défis associés à des modèles comme le modèle Heston, les corrections de convexité et le modèle du marché du travail pour la tarification des dérivés exotiques sont discutés. Le cours se concentre également sur les mesures de changement et étend le modèle standard du marché de la diffamation normale pour incorporer la volatilité stochastique. L'objectif principal est de calculer xVA et la valeur à risque, en tenant compte du calcul de l'exposition, de la construction du portefeuille et du codage Python pour évaluer le profit d'exposition dans un portefeuille de swaps. L'orateur mentionne également l'importance de l'ajustement de l'évaluation de crédit (CVA) basé sur la probabilité de défaut de la contrepartie et les applications pratiques de xVA.

Dans le récapitulatif final, le conférencier revient sur le cours consacré à la valeur à risque. La valeur à risque historique, la valeur à risque de stress, la valeur à risque basée sur Monte Carlo et les déficits attendus ont été discutés, à la fois d'un point de vue théorique et à travers des expériences pratiques impliquant des données de marché et des calculs de Monte Carlo. La conférence a également abordé le concept de backtesting pour évaluer la qualité des calculs de la valeur à risque. Le conférencier exprime sa satisfaction à l'égard du cours et félicite les téléspectateurs de l'avoir terminé, reconnaissant le caractère pratique et enrichissant de la matière abordée.

  • 00:00:00 Dans cette section, l'orateur récapitule l'ensemble du cours d'ingénierie financière composé de 14 conférences. Le cours a couvert divers sujets, notamment les filtres et les changements de mesure, les modèles de taux d'intérêt, la dynamique de la courbe de rendement, la tarification des swaptions, les hypothèques et les remboursements anticipés, les équations différentielles stochastiques, les modèles de marché et l'évaluation et les ajustements VAR historiques. Le conférencier souligne l'importance de comprendre les filtrages et les mesures, d'effectuer des simulations et de mettre en œuvre des techniques de gestion des risques pour l'évaluation des portefeuilles. Dans l'ensemble, le cours a permis aux apprenants de mettre en œuvre leurs propres portefeuilles dérivés.

  • 00:05:00 Dans cette section, l'intervenant évoque l'importance de comprendre la composition et les risques d'un portefeuille à un instant donné grâce à des mesures de filtration et des simulations. La conférence couvre les avantages des attentes conditionnelles dans la tarification des options et la réduction de la complexité du modèle, ainsi que la modification des mesures et des techniques de réduction de dimension. Le cours couvre également le cadre AJM des modèles de taux courts sans arbitrage et deux modèles dérivés, HJM et Hull-White, avec des simulations pour comparer les courbes de rendement utilisées comme entrée et sortie du modèle. De plus, la conférence couvre la dynamique de la courbe des taux sous taux courts et l'observation du taux des fonds fédéraux dans des expériences.

  • 00:10:00 Dans cette section, l'orateur discute de la relation entre la dynamique de la courbe de rendement et les modèles de taux courts dans les simulations Python. Ils explorent la motivation derrière le développement d'un modèle complet à deux facteurs en tant qu'extension du modèle à facteur unique pour capturer la dynamique de la courbe de rendement. Ils couvrent également les produits de taux d'intérêt tels que les swaps, les accords commerciaux à terme et les produits de volatilité, qui sont cruciaux pour l'étalonnage aux données du marché. De plus, ils approfondissent la construction de la courbe de rendement, y compris les routines d'interpolation et les courbes multiples, et leur impact sur la couverture et le risque de portefeuille. L'orateur termine cette conférence en discutant du concept de tarification des swaptions et du problème des taux d'intérêt négatifs.

  • 00:15:00 Dans cette section, l'orateur résume les dernières conférences du cours d'ingénierie financière, qui couvraient des sujets tels que la tarification des options et l'application de l'astuce de Jamshidian, les taux d'intérêt négatifs et la volatilité implicite décalée normale. Les conférences 8 et 9 portaient respectivement sur les prêts hypothécaires et les modèles hybrides, et comprenaient des discussions sur les risques de remboursement anticipé et des simulations à grands pas de temps. La 10e et dernière conférence portait sur les changes et l'inflation et incluait des concepts tels que les swaps de devises et la tarification des options de change. Les conférences ont fourni des informations sur les liens entre les mesures neutres au risque et réelles, les quantités observées sur le marché et l'importance de l'étalonnage des paramètres du modèle.

  • 00:20:00 Dans cette section, l'orateur discute de l'application de l'ingénierie financière pour couvrir plusieurs classes d'actifs, notamment les taux d'intérêt, les actions, les devises et l'inflation. Ils examinent également les défis qui découlent du modèle Heston, de l'inclusion de corrections de convexité et du modèle du marché du travail, qui est utile pour évaluer les dérivés exotiques. Tout au long du cours, les étudiants ont exploré les mesures de changement, telles que la différence entre Tamriel et les mesures ponctuelles, et ont étendu le modèle standard du marché de la diffamation normale pour incorporer la volatilité stochastique. L'objectif principal du cours est le calcul de la xVA et de la valeur à risque. L'orateur examine le calcul de l'exposition, la construction de portefeuilles et le codage en Python pour évaluer le profit d'exposition pour un profil de swaps. L'objectif ultime est de dériver l'ajustement de l'évaluation de crédit (CVA) sur la base de la probabilité de défaut d'une contrepartie et d'explorer les applications pratiques de xVA.

  • 00:25:00 Dans cette section de la transcription, le conférencier récapitule la dernière conférence du cours d'ingénierie financière, qui portait sur la valeur à risque. La conférence a couvert la valeur à risque historique, la valeur à risque de stress, la valeur à risque basée sur Monte Carlo et les déficits attendus. Les aspects théoriques et la motivation derrière ces techniques ont été discutés dans le premier bloc de la conférence, tandis que la deuxième partie impliquait un certain nombre d'expériences, y compris des calculs de var historiques pour les données de marché et des calculs de var de Monte Carlo. La conférence a également abordé le back testing, qui est utilisé pour mesurer la qualité des calculs avar. Dans l'ensemble, le conférencier conclut que le cours a été enrichissant et pratique, et félicite les téléspectateurs de l'avoir suivi.
Financial Engineering Course: Lecture 14/14, (The Summary of the Course)
Financial Engineering Course: Lecture 14/14, (The Summary of the Course)
  • 2022.05.20
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 14, The Summary of the Course▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is based on the book:"Ma...
 

Questions et réponses sur la finance computationnelle, volume 1, introduction



Questions et réponses sur la finance computationnelle, volume 1, introduction

Bienvenue sur cette chaîne ! Dans cette série de vidéos, je vous propose un ensemble de 30 questions-réponses basées sur le cours de Computational Finance. Les questions de ce cours ne sont pas seulement utiles en tant que questions d'examen, mais également en tant que questions d'entretien potentielles pour les emplois de type Quant. Les diapositives et le matériel de cours pour ce cours se trouvent dans les liens fournis dans la description de ces vidéos. Le cours se compose de 14 conférences, couvrant des sujets tels que les actions, la stochastique, la tarification des options, les volatilités implicites, les sauts, les modèles de diffusion fine, la volatilité stochastique et la tarification des dérivés exotiques.

Pour chaque conférence, j'ai préparé deux à quatre questions, et pour chaque question, je vous fournirai une réponse détaillée. Ces réponses peuvent durer de 2 à 15 minutes selon la complexité de la question. Les questions que j'ai préparées couvrent une variété de sujets, des questions globales sur différentes classes d'actifs à des questions plus spécifiques sur le modèle Heston et les paramètres dépendant du temps.

Dans la leçon 1, nous commençons par des questions simples sur les modèles de tarification pour différentes classes d'actifs et la relation entre les comptes d'épargne et les obligations à coupon zéro. Le cours 2 couvre la volatilité implicite, la tarification des options à l'aide du mouvement brownien arithmétique et la différence entre les processus stochastiques et les variables aléatoires. La conférence 3 se concentre sur la formule de Feynman-Kac, une formule célèbre en finance informatique, et sur la manière d'effectuer des vérifications d'intégrité sur des actions simulées. La conférence 4 se penche sur les structures de terme de volatilité implicite, les lacunes du modèle Black-Scholes et les solutions potentielles à ces lacunes.

Le cours 5 couvre les processus de saut, y compris la table d'Eto et sa relation avec les processus de Poisson, la volatilité et les sauts implicites, et les fonctions caractéristiques pour les modèles avec sauts. Enfin, le cours 6 couvre les modèles de volatilité stochastique, y compris le modèle de Heston et les paramètres dépendant du temps.

Si vous souhaitez en savoir plus sur ces sujets, consultez la liste de lecture des conférences disponibles sur cette chaîne.

Computational Finance Q&A, Volume 1, Introduction
Computational Finance Q&A, Volume 1, Introduction
  • 2023.01.03
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 0/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online course...
 

Pouvons-nous utiliser les mêmes modèles de tarification pour différentes classes d'actifs ?



Pouvons-nous utiliser les mêmes modèles de tarification pour différentes classes d'actifs ?

Le cours de finance informatique d'aujourd'hui a abordé la question de savoir si les mêmes modèles de tarification peuvent être utilisés pour différentes classes d'actifs. La question demande essentiellement si une équation différentielle stochastique qui a été appliquée avec succès à une classe d'actifs, comme les actions, peut également être utilisée pour modéliser d'autres classes d'actifs. Au cours du cours, nous avons exploré diverses classes d'actifs, notamment les actions, les options, les taux d'intérêt, les matières premières négociées en bourse, les marchés de l'électricité de gré à gré, etc. L'objectif était de déterminer si les modèles développés pour une classe d'actifs peuvent être effectivement appliqués à d'autres.

La réponse courte à cette question est qu'il est généralement possible d'utiliser le même modèle de tarification sur différentes classes d'actifs, mais ce n'est pas toujours le cas. Plusieurs critères doivent être pris en compte pour décider si un modèle peut être appliqué à une autre classe d'actifs. Le premier et le plus important critère est de savoir si la dynamique du modèle s'aligne sur les propriétés physiques de l'actif d'intérêt. Par exemple, si un modèle suppose des valeurs positives, il peut ne pas convenir à des actifs comme les taux d'intérêt qui peuvent être négatifs.

Un autre critère est la façon dont les paramètres du modèle peuvent être estimés. Existe-t-il des marchés d'options ou des données historiques disponibles pour l'étalonnage ? Il est important de noter que même si un modèle a un marché d'options, tel que le modèle Black-Scholes, il peut ne pas toujours bien cadrer avec le sourire ou le biais de volatilité implicite du marché. Il est donc crucial d'évaluer si le modèle s'aligne sur la classe d'actifs et les exigences de tarification spécifiques. Par exemple, si la tarification d'une option européenne avec un prix d'exercice et une échéance uniques, un modèle plus simple comme Black-Scholes peut suffire, tandis que des modèles plus complexes avec une volatilité stochastique peuvent être nécessaires pour d'autres scénarios.

L'existence d'un marché d'options, en particulier la présence de sourires ou de surfaces de volatilité implicite, est un autre facteur à considérer. Si des modèles de volatilité implicite sont observés sur le marché, les modèles à volatilité stochastique pourraient être plus appropriés. Cependant, si de tels schémas sont absents, des modèles plus simples avec une dynamique moins complexe peuvent être préférables.

De plus, comprendre les pratiques du marché en matière de modélisation est essentiel. Existe-t-il un consensus établi sur le marché ? Y a-t-il de la documentation et des lignes directrices disponibles auprès d'échanges ou d'autres sources ? Il est crucial de passer en revue la littérature existante et d'acquérir une compréhension globale de la classe d'actifs avant de sélectionner un processus stochastique. Essayer d'adapter une équation différentielle stochastique à une classe d'actifs sans une bonne connaissance de ses propriétés conduit souvent à des résultats sous-optimaux.

Dans le cours, nous avons couvert divers modèles, y compris ceux impliquant des sauts et des équations différentielles multiples. Deux exemples spécifiques ont été discutés pour illustrer la différence de dynamique : le mouvement brownien géométrique et les processus Ornstein-Uhlenbeck de retour à la moyenne. Les trajectoires et les réalisations de ces processus diffèrent considérablement, et il est important de choisir un modèle qui s'aligne sur les caractéristiques spécifiques de la classe d'actifs. Le mouvement brownien géométrique est toujours positif, ce qui le rend inadapté à la modélisation des taux d'intérêt, qui peuvent être négatifs. De même, un processus Ornstein-Uhlenbeck peut ne pas être approprié pour modéliser les stocks, qui peuvent également présenter un comportement négatif.

Bien qu'il existe de nombreux modèles disponibles, tels que le modèle Heston, les modèles de volatilité locale ou les modèles hybrides, il est crucial de commencer par une bonne compréhension de la classe d'actifs et de ses objectifs. Différents modèles ont des forces et des faiblesses différentes, et leur applicabilité dépend des exigences et des contraintes spécifiques du marché.

En conclusion, il est généralement possible d'utiliser les mêmes modèles de tarification dans différentes classes d'actifs, mais il n'est pas garanti qu'il réussisse dans tous les cas. La décision d'appliquer un modèle particulier doit être fondée sur une compréhension approfondie de la classe d'actifs, de sa dynamique et des exigences spécifiques en matière de tarification. En tenant compte des critères mentionnés précédemment et en effectuant une étude de la littérature, on peut prendre des décisions éclairées concernant la sélection et l'application du modèle.

Can we use the same pricing models for different asset classes?
Can we use the same pricing models for different asset classes?
  • 2023.01.05
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 1/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online course...
Raison: