Trading Quantitatif - page 19

 

Quel est l'impact des sauts sur la volatilité implicite ?



Quel est l'impact des sauts sur la volatilité implicite ?

Bienvenue dans la série Questions et réponses sur la finance computationnelle. Aujourd'hui, nous avons la question numéro 12 sur 30, qui est basée sur le matériel de la conférence numéro cinq. La question du jour est : quel est l'impact des sauts sur la volatilité implicite ?

Considérons un simple modèle de Black-Scholes ou un mouvement brownien géométrique pour notre actif. Initialement, sans sauts, la volatilité des entrées est constante, ce qui donne une courbe de volatilité implicite plate. Cependant, lorsque nous introduisons des sauts, nous observons des changements dans la courbe de volatilité implicite, ce qui nous amène à la question posée.

Pour analyser l'impact des sauts sur la volatilité implicite, nous explorerons le modèle de Merton, une extension du cadre Black-Scholes qui intègre une composante de saut. Dans le modèle de Merton, la dynamique du stock comprend une partie qui correspond à des sauts et une partie liée à un générateur de sauts.

Le générateur de sauts est représenté par un processus de Poisson, qui détermine si un saut s'est produit ou non. Le composant multiplicateur indique la direction et l'amplitude du saut. De plus, il existe une composante déterministe dans la dérive, qui découle de la compensation ou du compensateur de martingale du processus de Poisson.

La relation entre l'ampleur du saut et la dynamique du stock peut être comprise en examinant la transformation logarithmique. Sous cette transformation, nous observons un chemin continu entraîné par le mouvement brownien jusqu'à ce qu'un saut se produise. Après la transformation, le composant de saut est modifié en conséquence.

L'introduction de sauts impacte la réalisation et les trajectoires du processus stochastique. Les chemins présentent des sauts à la fois vers le haut et vers le bas, selon la réalisation de la distribution normale qui régit les sauts. Les trajectoires de stock restent continues mais avec des sauts intermittents, déterminés par le processus de Poisson.

Concentrons-nous maintenant sur l'impact de ces paramètres de modèle sur les volatilités implicites. Dans le cas du modèle de Merton, où la magnitude du saut suit une loi normale de moyenne (μ) et d'écart type (σ), on dispose de trois paramètres supplémentaires : l'intensité du processus de Poisson, la volatilité (σJ) de la composante saut, et la moyenne (μJ) de la distribution normale, qui détermine la prévalence des sauts positifs ou négatifs.

En analysant l'impact des paramètres sur les volatilités implicites, on observe les tendances suivantes :

  1. Sigma J (volatilité de la composante de saut) : L'augmentation de Sigma J introduit plus d'incertitude et de volatilité, ce qui entraîne une modification du niveau de volatilité implicite et l'introduction d'un effet de sourire. Pour de petites valeurs de J, la courbe de volatilité implicite reste plate, ressemblant au cas Black-Scholes.

  2. Intensité des sauts : Le contrôle de l'intensité des sauts influence le niveau global de volatilité. L'augmentation de l'intensité conduit à une volatilité plus élevée mais n'affecte pas de manière significative le biais ou le sourire de la courbe de volatilité implicite. L'impact est principalement un déplacement parallèle des volatilités.

  3. Mu J (moyenne de la distribution normale pour l'amplitude du saut) : Faire varier Mu J nous permet d'introduire une asymétrie dans le modèle. Les valeurs négatives de Mu J entraînent un biais plus négatif, tandis que les valeurs positives augmentent la prévalence des sauts positifs. En ajustant Mu J, ainsi que d'autres paramètres tels que Psi (échelle), nous pouvons obtenir un meilleur calibrage du biais de volatilité implicite tout en gardant le niveau à parité calibré.

Il est important de noter que l'étalonnage doit toujours donner la priorité au niveau à parité pour garantir un ajustement précis. En présence d'un biais important sur le marché, l'ajustement de Mu J peut aider à aligner le biais de volatilité implicite du modèle sur le biais du marché. De plus, avec le temps, les effets de sourire et d'inclinaison introduits par les sauts ont tendance à s'aplatir. Les options à échéance courte présentent l'impact le plus prononcé des sauts sur la volatilité implicite, tandis que pour des durées plus longues, cet impact diminue.

En résumé, en incorporant des sauts dans le modèle, nous pouvons introduire à la fois des effets de biais et de sourire dans la courbe de volatilité implicite. Cependant, l'effet de biais est plus prononcé que l'effet de sourire. Les paramètres qui ont l'impact le plus significatif sur les volatilités implicites dans le modèle de Merton sont Sigma J (volatilité de la composante de saut), l'intensité des sauts et Mu J (moyenne de la distribution de l'amplitude des sauts).

L'augmentation de Sigma J introduit plus de volatilité et d'incertitude, entraînant des changements dans le niveau de volatilité implicite et l'introduction d'un effet de sourire. Des intensités plus élevées de sauts entraînent des volatilités globales plus élevées, mais l'impact sur le biais et le sourire est minime, entraînant un déplacement parallèle de la courbe de volatilité implicite.

L'ajustement de Mu J nous permet de contrôler l'asymétrie du modèle. Les valeurs négatives de Mu J augmentent le biais négatif, tandis que les valeurs positives augmentent la prévalence des sauts positifs. En affinant Mu J et d'autres paramètres comme Psi, nous pouvons calibrer le modèle pour qu'il corresponde au biais de volatilité implicite observé sur le marché. Il est crucial de s'assurer que l'étalonnage prend en compte non seulement le biais, mais également le niveau à parité.

Au fil du temps, les effets de sourire et d'inclinaison introduits par les sauts ont tendance à s'aplatir. Les options à échéance courte présentent l'impact le plus important des sauts sur la volatilité implicite, tandis que pour les échéances plus longues, l'impact diminue.

En conclusion, l'incorporation de sauts dans le modèle nous permet de capter le biais et, dans une certaine mesure, le sourire des courbes de volatilité implicite. Les paramètres Sigma J, intensité des sauts et Mu J jouent un rôle crucial dans la détermination de l'impact sur les volatilités implicites. En comprenant ces relations, nous pouvons analyser et calibrer le modèle pour mieux correspondre aux observations du marché.

What is the impact of jumps on implied volatility?
What is the impact of jumps on implied volatility?
  • 2023.02.09
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 12/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Comment dériver une fonction caractéristique pour un modèle avec des sauts ?



Comment dériver une fonction caractéristique pour un modèle avec des sauts ?

Bienvenue à la session de questions-réponses sur la finance computationnelle. Aujourd'hui, nous avons la question numéro 13, qui est basée sur la conférence numéro cinq. La question est, "Comment dériver une fonction caractéristique pour un modèle avec des sauts?" Commençons par discuter du célèbre modèle de diffusion par sauts de Merton, qui est défini comme une combinaison d'une partie déterministe, d'un mouvement brownien et d'un processus de Poisson représentant les sauts.

Dans ce modèle, la valeur du chemin à l'instant t (X_t) est égale à X_0 (la valeur initiale) plus un terme de dérive déterministe. Il comprend également une composante de mouvement brownien à volatilité constante. Cependant, l'élément clé de ce modèle est le processus de Poisson représentant les sauts. Les sauts sont définis comme une somme des tailles de sauts (J_k) pour k allant de 1 à X_p(t), où X_p(t) est le processus de Poisson.

Chaque taille de saut (J_k) dans le modèle de Merton est considérée comme une variable aléatoire et est indépendante des autres. Cette hypothèse simplifie l'analyse puisque les sauts se produisent indépendamment et suivent des distributions identiques. C'est le cas standard considéré en pratique, car l'intégration de la corrélation entre le processus de Poisson et le mouvement brownien peut être plus complexe.

Pour dériver la fonction caractéristique de ce modèle, regardons les étapes impliquées. Tout d'abord, nous substituons l'expression pour X_t dans la définition de la fonction caractéristique, qui implique l'espérance de e^(i u X_t). Puisque les sauts et le mouvement brownien sont indépendants, nous pouvons factoriser l'espérance comme un produit des espérances pour chaque composante.

Ensuite, nous nous concentrons sur l'espérance des sauts (J_k). Puisque les tailles de saut sont indépendantes et distribuées de manière identique, nous pouvons réécrire l'espérance comme le produit des attentes pour chaque taille de saut élevée à la puissance n. Cela simplifie l'expression et nous permet de passer d'une sommation à un exposant.

Pour calculer l'espérance des sauts, nous utilisons le concept d'espérance conditionnelle. Nous conditionnons les sauts sur la réalisation du processus de Poisson (X_p(t)) et calculons l'espérance en sommant sur toutes les réalisations possibles du processus de Poisson. L'expression résultante implique une intégrale sur la distribution de la taille des sauts, qui représente l'espérance de e^(i u J_k).

En appliquant ces étapes, nous pouvons transformer l'expression complexe impliquant le processus de Poisson et les tailles de saut en une forme plus concise. La fonction caractéristique devient un exposant d'une fonction impliquant la partie déterministe, le mouvement brownien et l'intégrale de la distribution de la taille des sauts. Le terme d'espérance dans l'intégrale dépend de la distribution des tailles de saut.

La détermination analytique de cette attente peut être difficile et dépend de la distribution spécifique choisie pour les tailles de saut. Cependant, comprendre les étapes impliquées dans la dérivation de la fonction caractéristique nous permet de saisir les principes fondamentaux qui la sous-tendent. Cette fonction caractéristique est cruciale pour divers calculs, y compris les transformations de Fourier, et joue un rôle important dans l'étalonnage du modèle.

How to derive a characteristic function for a model with jumps?
How to derive a characteristic function for a model with jumps?
  • 2023.02.13
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 13/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Le modèle de Heston avec des paramètres dépendant du temps est-il affine ?



Le modèle de Heston avec des paramètres dépendant du temps est-il affine ?

Bienvenue dans cette série de questions et réponses basées sur le cours de finance computationnelle. Aujourd'hui, nous avons la question numéro 14, qui est basée sur les conférences numéros six et sept. La question est la suivante :

Le modèle de Heston avec des paramètres dépendant du temps est-il affine ?

Pour comprendre le but de créer des modèles avec des paramètres dépendant du temps, discutons d'abord du modèle Heston original, qui avait des paramètres constants. Dans le modèle original, il y avait cinq paramètres, offrant cinq degrés de liberté pour l'étalonnage à la surface de volatilité implicite. En introduisant une dépendance temporelle à ces paramètres, nous élargissons le champ des possibilités et améliorons potentiellement l'étalonnage des cotations du marché.

Cependant, il est important de considérer le coût associé aux paramètres dépendant du temps. Bien que le fait d'avoir plus de paramètres et de les rendre dépendants du temps puisse rendre le modèle plus flexible, cela augmente également la complexité de l'étalonnage. Mais concentrons-nous sur la question de savoir si le modèle reste affine et si nous pouvons toujours trouver la fonction caractéristique correspondante.

Les modèles affines sont caractérisés par la linéarité des variables d'état. Si nous avons un système d'équations différentielles stochastiques (EDS) pour les variables d'état Xt, nous devons satisfaire des conditions de linéarité. Cela implique d'avoir une constante fois un vecteur de variables d'état dans le terme de dérive et une matrice de covariance instantanée dans le terme de diffusion. La partie difficile est d'assurer la linéarité de la covariance car cela nécessite de considérer les carrés de la volatilité.

De plus, les mêmes conditions de linéarité doivent s'appliquer aux taux d'intérêt. Une fois la condition d'affinité satisfaite, nous pouvons trouver la fonction caractéristique correspondante en utilisant les concepts expliqués dans les leçons six et sept. Cette fonction caractéristique est donnée par les fonctions récursives A et B, solutions des équations différentielles ordinaires (ODE) de type Riccati. La forme de la fonction caractéristique implique des fonctions exponentielles de A et B.

Il convient de mentionner que les paramètres du modèle doivent d'abord subir une transformation logarithmique pour assurer l'affinité. Le modèle Heston se compose de deux dimensions : la dimension stock et le processus de variance. Si nous considérons le modèle original non transformé en log, la matrice de covariance n'est pas affine en raison des termes au carré. Cependant, après avoir effectué la transformation du journal, le modèle Heston devient affine dans l'espace du journal.

Abordons maintenant la question des paramètres dépendant du temps dans le modèle de Heston. Si nous introduisons une dépendance temporelle aux paramètres, nous nous retrouvons avec une expression plus complexe pour la matrice de covariance. Néanmoins, la partie déterministe des paramètres n'affecte pas la condition d'affinité puisque l'accent est mis sur la linéarité des variables d'état. En conséquence, le modèle de Heston reste affine même avec des paramètres dépendant du temps.

Cependant, le défi se pose lors de la résolution des ODE de type Riccati correspondants avec des paramètres dépendant du temps. Dans les cas génériques, où les paramètres dépendent entièrement du temps, nous manquons de solutions analytiques pour ces ODE. Cela signifie que pour chaque argument U dans la fonction caractéristique, nous devons effectuer une intégration temporelle, ce qui peut être coûteux en calcul.

D'autre part, si nous considérons des paramètres constants par morceaux, où les paramètres sont constants dans des intervalles spécifiques, nous pouvons toujours trouver la fonction caractéristique correspondante sous une forme analytique. Cependant, cette fonction caractéristique devient récursive et plusieurs fonctions caractéristiques dépendent les unes des autres si nous avons plusieurs intervalles pour les paramètres dépendant du temps.

J'espère que cette explication clarifie le concept. À la prochaine!

Is the Heston model with time-dependent parameters affine?
Is the Heston model with time-dependent parameters affine?
  • 2023.02.16
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 14/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Pourquoi ajouter de plus en plus de facteurs aux modèles de tarification n'est-il pas la meilleure idée ?



Pourquoi ajouter de plus en plus de facteurs aux modèles de tarification n'est-il pas la meilleure idée ?

Bienvenue dans la série de questions et réponses basée sur le cours "Computational Finance". Aujourd'hui, nous avons la question numéro 15 sur 30, qui est basée sur la conférence numéro six. La question est la suivante : pourquoi ajouter plus de facteurs au modèle de tarification n'est-il pas la meilleure idée ?

Lorsque nous voulons augmenter la flexibilité d'un modèle de tarification, la tendance naturelle est d'introduire des facteurs stochastiques supplémentaires. Par exemple, en rendant les paramètres stochastiques. Cependant, il y a plusieurs considérations à prendre en compte avant de rendre le modèle plus complexe.

Le premier point critique est la question du surajustement. En statistiques, nous apprenons que l'augmentation du nombre de facteurs dans un modèle peut améliorer son ajustement aux données historiques. Cependant, le pouvoir prédictif d'un tel modèle devient limité et il peut ne pas fonctionner correctement avec de nouvelles données. En finance, cela est particulièrement problématique car les données du marché peuvent changer et un modèle qui convient parfaitement aujourd'hui peut mal performer demain. Par conséquent, le surajustement doit être évité.

Une autre considération est l'homogénéité des paramètres. Un modèle bien calibré devrait idéalement avoir des paramètres stables dans le temps. Si un modèle correspond parfaitement aux données historiques mais ne parvient pas à capturer l'évolution des données de marché, il manque d'homogénéité. Les traders ont besoin de modèles avec des paramètres stables pour couvrir efficacement leurs positions, donc trop de flexibilité dans le modèle peut être préjudiciable.

De plus, la question de l'efficacité des calculs se pose lors de l'ajout de facteurs supplémentaires. En finance, les modèles sont souvent calibrés en évaluant plusieurs fois les options européennes et en les comparant aux prix du marché. L'évaluation efficace de la fonction caractéristique devient cruciale dans ce processus. Les modèles de dimension supérieure peuvent ne pas répondre aux conditions d'affinité strictes requises pour une évaluation efficace. De plus, les processus de volatilité, qui sont importants pour la valorisation des options, ont une flexibilité limitée pour introduire des paramètres stochastiques. Il est donc difficile d'ajouter des facteurs supplémentaires sans sacrifier la précision de l'étalonnage.

Compte tenu de la couverture des paramètres, l'ajout de facteurs supplémentaires peut compliquer le processus d'étalonnage et augmenter la complexité des calculs. Si la simulation de Monte Carlo est utilisée pour la tarification ou l'analyse de sensibilité, les modèles de dimension supérieure nécessitent davantage de ressources de calcul et un étalonnage plus lent. Par conséquent, le compromis entre la complexité du modèle et l'efficacité de calcul doit être soigneusement évalué.


Il est essentiel d'analyser l'impact réel et les avantages de l'introduction de la stochasticité dans le modèle. Le simple fait de rendre les paramètres stochastiques peut ne pas améliorer de manière significative les formes de volatilité implicites ou fournir la flexibilité souhaitée dans la tarification des dérivés complexes. Il est crucial d'évaluer l'impact global des facteurs ajoutés sur la sortie du modèle et d'évaluer si les objectifs du modèle justifient le coût de la complexité.

Cependant, il existe des cas où l'ajout de facteurs supplémentaires est nécessaire ou bénéfique. Les modèles hybrides, tels que ceux impliquant des taux d'intérêt stochastiques et des actions, peuvent nécessiter une stochasticité supplémentaire pour évaluer avec précision les dérivés exotiques impliquant plusieurs classes d'actifs. La décision d'ajouter des facteurs supplémentaires dépend des objectifs et des exigences spécifiques des dérivés dont le prix est évalué.

En conclusion, bien que l'ajout de facteurs supplémentaires à un modèle de tarification puisse offrir une flexibilité accrue, ce n'est pas toujours la meilleure approche. Le surajustement, le manque d'homogénéité, la complexité des calculs et les avantages limités doivent être soigneusement pris en compte. La décision d'ajouter des facteurs supplémentaires doit s'aligner sur les objectifs et les exigences des dérivés dont le prix est évalué.

Why is adding more and more factors to the pricing models not the best idea?
Why is adding more and more factors to the pricing models not the best idea?
  • 2023.02.20
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 15/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Pouvez-vous interpréter les paramètres du modèle Heston et leur impact sur la surface de volatilité ?



Pouvez-vous interpréter les paramètres du modèle Heston et leur impact sur la surface de volatilité ?

Bienvenue à la séance de questions-réponses d'aujourd'hui sur le thème de la finance computationnelle. La question d'aujourd'hui, numéro 16, porte sur l'interprétation des paramètres du modèle Heston et leur impact sur la surface de volatilité. Le modèle Heston est une extension du modèle Black-Scholes, où la volatilité est supposée constante. Cependant, dans le modèle Heston personnalisé, la volatilité est régie par un processus stochastique, ce qui permet un biais et un sourire de volatilité basés sur les paramètres du modèle.

En finance, il est crucial que les paramètres du modèle aient des impacts indépendants sur la surface de volatilité implicite. Cela signifie que chaque paramètre doit jouer un rôle distinct dans le calibrage et la génération des volatilités implicites. Le modèle Heston y parvient car chaque paramètre a un impact différent sur les volatilités implicites.

Explorons les formes et impacts possibles de ces paramètres sur la surface de volatilité implicite. Dans les deux premiers graphiques, nous considérons le paramètre de réversion moyenne, Kappa, qui représente la vitesse de réversion moyenne pour le processus de variance. L'augmentation du paramètre de réversion moyenne introduit un certain biais et modifie le niveau de volatilité implicite, bien que l'impact sur le biais soit limité. En pratique, le paramètre de réversion moyenne est souvent pré-calibré ou fixe, car il joue un petit rôle de compensation par rapport à la corrélation.

Ensuite, nous avons la moyenne à long terme et les paramètres du point initial. Ces paramètres affectent principalement le niveau de volatilité à long terme et n'ont pas d'impact significatif sur le skew ou le smile.

Le paramètre le plus intéressant du modèle Heston est le paramètre de corrélation. Les corrélations négatives sont recommandées dans le modèle de Heston car elles contrôlent l'asymétrie. Des corrélations négatives plus fortes entraînent plus de biais dans le modèle. Des corrélations positives peuvent causer des problèmes numériques et conduire à des moments explosifs dans le modèle de Heston. En pratique, on s'attendrait à une corrélation négative entre le prix des actifs et la volatilité, ce qui signifie que lorsque la volatilité augmente, le prix des actifs diminue, et vice versa.

En examinant la surface de volatilité, nous observons qu'une corrélation plus faible conduit à plus de sourire dans les volatilités implicites, tandis qu'une corrélation plus élevée introduit plus de biais.

Il est important de noter que le modèle Heston a des limites. Pour les échéances courtes, le biais dans le modèle Heston peut être insuffisant, et des modèles supplémentaires comme le modèle Bates, qui intègre des sauts, peuvent être envisagés pour capturer le biais extrême dans les options à court terme.

Comprendre les relations entre les différents paramètres et leurs impacts sur la surface de volatilité implicite est crucial dans le calibrage et l'application du modèle de Heston. Pour des informations plus détaillées sur les paramètres du modèle Heston, les volatilités implicites et l'étalonnage, je recommande de revoir la septième conférence.

J'espère que cette explication clarifie l'interprétation des paramètres du modèle Heston et leurs effets sur les volatilités implicites. Si vous avez d'autres questions, n'hésitez pas à les poser. À la prochaine!

Can you interpret the Heston model parameters and their impact on the volatility surface?
Can you interpret the Heston model parameters and their impact on the volatility surface?
  • 2023.02.23
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 16/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Peut-on modéliser la volatilité avec le processus Arithmetic Brownian Motion ?



Peut-on modéliser la volatilité avec le processus Arithmetic Brownian Motion ?

Bienvenue à la session de questions-réponses du cours Computational Finance !

La question d'aujourd'hui, numéro 17, concerne le matériel couvert dans la leçon 7. La question est de savoir si nous pouvons modéliser la volatilité à l'aide d'un processus de mouvement brownien arithmétique.

Tout au long du cours, nous avons étudié de manière approfondie les modèles de volatilité stochastique, tels que le modèle Heston. Nous avons appris l'impact de divers paramètres de modèle sur les surfaces de volatilité implicite et les avantages de l'utilisation d'un processus de type Cox-Ingersoll-Ross (CIR) pour la volatilité dans le modèle Heston.

Cependant, la question ici explore la possibilité d'utiliser une approche beaucoup plus simple en spécifiant le processus de volatilité comme un processus normalement distribué, sans la complexité du modèle CIR. Cette idée a déjà été abordée dans la littérature et est connue sous le nom de modèle Shobel-Zoo.

Dans le modèle Shobel-Zoo, le processus de volatilité est piloté par un processus Ornstein-Uhlenbeck (OU), qui est un processus normalement distribué caractérisé par un paramètre de retour à la moyenne (Kappa), une volatilité à long terme (barre Sigma) et une volatilité de volatilité (gamma).

Bien que le modèle Shobel-Zoo semble plus simple que le modèle Heston, il n'est pas sans complexités. Un défi se pose lorsque nous effectuons une transformation logarithmique sur la structure du modèle. Cette transformation introduit un terme de covariance qui viole la condition affine requise pour qu'un modèle soit classé comme affine. Les modèles affines devraient être linéaires dans toutes les variables d'état, mais la présence de ce terme de covariance rend le modèle Shobel-Zoo non affine.

Pour résoudre ce problème, le modèle Shobel-Zoo définit une nouvelle variable, VT (égale à B Sigma au carré T), qui permet d'exprimer la dynamique du modèle sous une forme affine. Cependant, cette expansion des variables d'état conduit à trois équations différentielles stochastiques, rendant le modèle plus impliqué par rapport au modèle de Heston.

De plus, l'interprétation des paramètres du modèle et de leur impact sur la volatilité implicite devient plus compliquée dans le modèle Shobel-Zoo. La dynamique du processus VT ne présente pas un comportement propre de retour à la moyenne comme observé dans le modèle Heston. Par conséquent, l'étalonnage du modèle aux données du marché devient plus difficile en raison de l'interaction entre les différents paramètres du modèle. Le manque de flexibilité dans la structure du modèle complique davantage le processus d'étalonnage.

En résumé, il est possible de considérer un modèle avec un mouvement brownien arithmétique pour la volatilité, comme le montre le modèle Shobel-Zoo. Cependant, cette approche peut poser des défis, notamment en termes de calibrage du modèle aux données du marché. La complexité globale et l'interprétabilité du modèle peuvent être plus alambiquées par rapport au modèle Heston apparemment plus compliqué. Par conséquent, bien que possible, l'utilisation d'un processus de mouvement brownien arithmétique pour la volatilité n'est pas toujours souhaitable.

Nous espérons que cette explication clarifie la question. Merci, et à la prochaine !

Can we model volatility with the Arithmetic Brownian Motion process?
Can we model volatility with the Arithmetic Brownian Motion process?
  • 2023.02.27
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 17/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Quels sont les avantages de la FFT par rapport à une intégration « force brute » ?



Quels sont les avantages de la FFT par rapport à une intégration « force brute » ?

Bienvenue à la séance de questions et réponses d'aujourd'hui, axée sur le thème de la finance computationnelle. Aujourd'hui, nous discuterons de la question numéro 18, qui est basée sur les matériaux couverts dans la conférence numéro huit. La question d'aujourd'hui est : quels sont les avantages de l'utilisation de la transformée de Fourier rapide (FFT) par rapport à l'intégration de la force brute en ce qui concerne la tarification des dérivés ?

Dans le contexte de la tarification des produits dérivés, en particulier des options, la FFT fait référence aux transformées de Fourier utilisées pour la tarification des options. Des exemples de méthodes qui utilisent la FFT comprennent l'approche de Karhunen-Loève et la méthode COS. La question vise à explorer si ces méthodes sont toujours nécessaires pour les options de tarification et les avantages qu'elles offrent.

L'un des avantages significatifs des méthodes basées sur la FFT est leur rapidité. Ils sont non seulement rapides dans la tarification des options individuelles pour un prix d'exercice donné, mais ils nous permettent également de fixer le prix de plusieurs prix d'exercice simultanément par le biais de manipulations matricielles ou d'interpolations. Cela devient particulièrement avantageux lorsque nous devons calculer des options pour diverses grèves, ce qui est souvent le cas dans les applications pratiques.

Cependant, il est important de noter que si nous disposons d'une formule de tarification analytique, les méthodes numériques telles que la FFT peuvent ne pas être nécessaires. Dans de tels cas, nous pouvons évaluer directement les options en utilisant la formule analytique, qui est une approche simple. Malheureusement, il n'y a que quelques modèles pour lesquels nous avons des formules de tarification analytiques. Des modèles comme le modèle Heston ou le modèle SABR, qui n'appartiennent pas à la classe affine des processus, manquent souvent de solution analytique. Par conséquent, le niveau de complexité suivant consiste à trouver des fonctions caractéristiques et à appliquer des méthodes basées sur Fourier pour la tarification.

Lorsque l'on considère le besoin de méthodes basées sur la FFT, il est crucial de déterminer si des solutions explicites existent. Si une solution explicite est disponible, il n'y a pas besoin de méthodes numériques. Cependant, lorsque les solutions explicites ne sont pas disponibles, mais que les fonctions caractéristiques sont connues, les méthodes comme la FFT deviennent utiles pour les calculs numériques.

Pour illustrer les limites de l'intégration par force brute, considérons un cas simple avec des taux d'intérêt constants. Dans ce cas, l'équation de tarification utilisant les flux de trésorerie actualisés se résume à l'attente du gain futur actualisé par rapport au présent. L'exprimer sous forme intégrale permet de voir explicitement la densité du stock à l'instant de maturité T. Si cette densité était explicitement donnée, nous pourrions effectuer une intégration par force brute pour calculer le prix de l'option. Cependant, lorsqu'il s'agit de frappes multiples, l'évaluation de l'intégrale pour chaque frappe individuellement devient fastidieuse.

De plus, le calcul de cette densité nécessite souvent plusieurs intégrations. Par exemple, si nous discrétisons la plage des prix des actions de 0 à une certaine valeur (notée s_star), nous devons calculer l'intégrale pour chaque prix d'action individuel. Cela conduit à un grand nombre d'intégrales, ce qui rend l'intégration de la force brute impraticable.

Le principal avantage de l'utilisation des transformées de Fourier, telles que la FFT, est leur capacité à calculer efficacement les prix des options pour plusieurs exercices. Ces méthodes sont particulièrement utiles lors de l'étalonnage d'un modèle par rapport aux données du marché, car nous devons calculer les prix des options pour une gamme de prix d'exercice. Les méthodes basées sur Fourier nous permettent d'obtenir des prix d'options pour plusieurs grèves simultanément, réduisant considérablement le coût de calcul par rapport à l'intégration de la force brute.

En résumé, les avantages des méthodes basées sur la FFT résident dans leur rapidité et leur capacité à évaluer efficacement les options pour plusieurs grèves. Ces méthodes sont préférées pour évaluer les dérivés exotiques sur le marché, car elles permettent le calibrage du modèle. En revanche, si des formules de tarification explicites sont disponibles, les méthodes numériques peuvent ne pas être nécessaires. Comprendre les objectifs du modèle et les exigences d'intégration peut aider à déterminer la technique de tarification la plus appropriée.

Nous espérons que cette explication mettra en lumière les avantages de l'utilisation de Fast Fourier Transform par rapport à l'intégration de Brute Force dans la tarification des produits dérivés. Si vous avez d'autres questions, n'hésitez pas à les poser. À la prochaine!

What are the benefits of FFT compared to a “brute force” integration?
What are the benefits of FFT compared to a “brute force” integration?
  • 2023.03.02
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 18/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Que faire si la méthode FFT/COS ne converge pas pour des termes de développement croissants ?



Que faire si la méthode FFT/COS ne converge pas pour des termes de développement croissants ?

Bienvenue à la session d'aujourd'hui sur la finance computationnelle, où nous discuterons de la question numéro 19. Cette question est basée sur les matériaux couverts dans la conférence 8, en se concentrant sur ce qu'il faut faire lorsque la transformée de Fourier rapide (FFT) ou la méthode des coûts ne parvient pas à converger pour augmenter termes d'expansion.

L'un des aspects les plus frustrants des méthodes basées sur Fourier est lorsque les outils de tarification mis en œuvre ne parviennent pas à converger ou produisent des résultats inexacts. Il est crucial d'aborder cette question pour garantir des évaluations de prix fiables. En cas de problèmes de convergence, le graphique résultant du prix de l'option d'achat peut s'écarter du comportement attendu, présenter un comportement erratique ou même des valeurs négatives. Ces problèmes peuvent être attribués à divers facteurs, tels que des erreurs de codage ou une attention insuffisante à certains aspects de la mise en œuvre tels que les domaines d'intégration dans l'espace de Fourier.

Pour résoudre ces problèmes, je vais vous fournir quelques idées et suggestions sur où rechercher les problèmes potentiels et quels paramètres modifier pour parvenir à la convergence. Pour commencer, examinons deux expériences que j'ai préparées pour illustrer le comportement de convergence.

Dans la première expérience, nous nous concentrons sur la récupération d'une fonction de densité de probabilité (PDF) normale en utilisant la méthode des coûts. En faisant varier le nombre de termes, on observe le comportement de la densité. Pour un faible nombre de termes, le PDF récupéré peut ne pas ressembler à la distribution normale. Cependant, à mesure que nous augmentons le nombre de termes, la forme de la densité s'améliore. Il est important de noter que l'augmentation significative du nombre de termes peut conduire à une densité négative, ce qui n'est pas souhaitable. De plus, dans les cas où la densité est très élevée ou présente une dynamique inhabituelle, l'augmentation du nombre de termes peut ne pas entraîner une meilleure convergence. Cela suggère qu'il pourrait y avoir des problèmes avec d'autres réglages ou paramètres qui nécessitent une réévaluation.

La deuxième expérience consiste à comparer deux distributions différentes : une distribution normale et une distribution log-normale. Nous observons à nouveau le comportement de convergence en faisant varier le nombre de termes. Dans ce cas, on voit que pour un nombre de termes inférieur, la convergence n'est pas satisfaisante pour les deux distributions. Cependant, en augmentant le nombre de termes, on obtient une meilleure convergence. Cela démontre l'importance de trouver le bon équilibre et la bonne sélection des paramètres pour chaque distribution.

Pour mieux comprendre le comportement de convergence, il peut être utile de visualiser la fonction caractéristique dans le domaine de Fourier. Bien qu'il puisse être difficile d'imaginer à quoi ressemble la fonction dans ce domaine, son tracé peut fournir des informations précieuses sur les plages d'intégration et les modifications potentielles nécessaires. Par exemple, le tracé de la fonction caractéristique du modèle Black-Scholes révèle un motif en spirale oscillatoire qui converge vers zéro. Cela indique que la plupart des informations pertinentes sont concentrées dans une certaine plage de l'espace de Fourier, nous guidant pour concentrer nos efforts d'intégration en conséquence.

Continuons avec la discussion sur le dépannage des problèmes de convergence lors de l'utilisation de la transformée de Fourier rapide (FFT) ou de la méthode des coûts dans les calculs financiers.

Comme mentionné précédemment, il est crucial de trouver un équilibre et de ne pas compter uniquement sur l'ajustement du paramètre "L" pour la plage d'intégration. Au lieu de cela, une solution plus robuste consiste à utiliser des cumulants, qui sont liés aux moments, pour déterminer la plage d'intégration appropriée. Les cumulants peuvent être dérivés de la fonction caractéristique et fournir des informations précieuses sur le comportement de la distribution.

Pour calculer la plage d'intégration basée sur les cumulants, vous devez effectuer une différenciation et appliquer des formules mathématiques spécifiques aux cumulants de la distribution. Ce processus peut être plus complexe que le simple ajustement du paramètre "L", mais il offre une approche plus précise et systématique.

En considérant les cumulants, vous pouvez déterminer la plage appropriée pour l'intégration qui capture les informations significatives de la distribution. Cette approche prend en compte les spécificités de la distribution et assure que l'intégration s'effectue sur les régions concernées. Cela permet d'éviter les calculs inutiles et améliore la convergence.

Un autre aspect à prendre en compte est la sélection du nombre de termes (également appelés termes d'expansion) lors de l'utilisation de la FFT ou de la méthode des coûts. Le nombre de termes doit être choisi avec soin en fonction de la complexité et du comportement de la distribution modélisée. L'augmentation du nombre de termes permet une représentation plus précise de la distribution, mais augmente également la charge de calcul. Par conséquent, il est essentiel de trouver un équilibre entre précision et efficacité de calcul.

Dans certains cas, doubler le nombre de termes peut améliorer considérablement la convergence. Cependant, pour des distributions plus complexes qui présentent une accumulation autour de points spécifiques, l'augmentation du nombre de termes peut ne pas être suffisante pour obtenir une convergence satisfaisante. Cela indique que d'autres ajustements ou modifications au sein de la méthode doivent être explorés.

De plus, il peut être utile de visualiser la fonction caractéristique dans le domaine de Fourier pour mieux comprendre le comportement de convergence. Le tracé de la fonction caractéristique peut fournir des informations sur la distribution des valeurs dans l'espace de Fourier et guider la sélection des plages d'intégration. Par exemple, si la fonction caractéristique présente un motif en spirale oscillatoire qui converge vers zéro, cela suggère que la plupart des informations pertinentes sont concentrées dans une certaine plage de l'espace de Fourier. Cette information peut aider à concentrer les efforts d'intégration et à affiner le choix des plages d'intégration.

Enfin, il convient de mentionner qu'il existe divers documents de recherche et articles disponibles qui approfondissent le sujet de la sélection de la plage de troncature et de l'amélioration de la convergence dans la finance informatique. L'exploration de ces ressources peut fournir des informations précieuses et des approches alternatives pour résoudre les problèmes de convergence spécifiques à votre domaine d'application ou de problème.

N'oubliez pas que la résolution des problèmes de convergence dans les calculs financiers nécessite une combinaison de sélection minutieuse des paramètres, de compréhension des caractéristiques de la distribution modélisée et d'utilisation de techniques mathématiques telles que les cumulants pour déterminer les plages d'intégration appropriées.

What to do if the FFT/COS method does not converge for increasing expansion terms?
What to do if the FFT/COS method does not converge for increasing expansion terms?
  • 2023.03.06
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 19/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Qu'est-ce qu'une erreur standard ? Comment l'interpréter ?



Qu'est-ce qu'une erreur standard ? Comment l'interpréter ?

Bienvenue à la session de questions-réponses sur la finance computationnelle !

Aujourd'hui, nous avons la question numéro 20, qui concerne la simulation de Monte Carlo dans le contexte de la tarification. La question porte spécifiquement sur la compréhension du concept d'erreur standard et sur la manière de l'interpréter. Cette question est pertinente dans les situations où nous discrétisons un modèle stochastique, effectuons des calculs de tarification et observons de légères variations dans les résultats lors de la répétition de la simulation.

La différence de prix observée lors de la répétition de l'expérience peut être quantifiée par l'erreur standard, qui mesure l'ampleur de cette différence ou l'écart type des prix sur plusieurs simulations. Il est crucial de choisir avec précision le nombre de scénarios simulés pour garantir des résultats stables et cohérents. Des fluctuations de prix importantes entre les expériences peuvent conduire à des conclusions peu fiables et affecter des calculs tels que la couverture et l'analyse de sensibilité.

L'interprétation de l'erreur type est liée au caractère stochastique du calcul des moyennes. Dans le cadre d'un échantillonnage ou d'une simulation, la moyenne devient elle-même une quantité stochastique qui peut changer selon les échantillons utilisés. Par conséquent, il est essentiel de comprendre la variance de cette attente, où le concept d'erreur standard entre en jeu.

L'erreur type est définie comme la racine carrée de la variance de l'estimateur utilisé pour approximer la valeur réelle. Dans les simulations de Monte Carlo, nous commençons généralement avec une grille de discrétisation qui s'étend du temps initial (t0) à la maturité de l'option. En simulant des trajectoires au sein de cette grille, nous pouvons approximer la distribution de l'actif sous-jacent à l'échéance souhaitée (T). Cette distribution simulée nous permet d'évaluer le gain pour chaque chemin, puis de calculer la moyenne ou l'espérance.

Pour estimer le prix de l'option, nous incluons le gain futur actualisé dans le calcul. L'erreur standard se rapporte à la valeur obtenue à partir de ce processus. Il quantifie la variabilité ou l'incertitude de l'estimateur en fonction du nombre de trajets simulés. La détermination de la relation entre le nombre de chemins et la variance de l'estimateur nous aide à comprendre comment la précision de l'estimation s'améliore à mesure que nous augmentons le nombre de chemins.

Selon la loi des grands nombres, lorsque le nombre de chemins tend vers l'infini, la moyenne de l'estimateur convergera vers l'espérance théorique avec probabilité un. Cependant, nous voulons également examiner la variance de l'estimateur. En analysant la variance en termes de nombre de chemins, nous pouvons déterminer comment la variabilité de l'estimateur diminue à mesure que nous augmentons le nombre de chemins.

La variance est inversement proportionnelle au carré du nombre de chemins (1/N^2), où N représente le nombre de chemins. Nous supposons l'indépendance entre les échantillons, ce qui signifie qu'il n'y a pas de termes croisés impliqués. La variance elle-même est estimée à l'aide d'un estimateur sans biais basé sur les échantillons obtenus. En substituant cette estimation dans la formule, nous arrivons à la variance divisée par N, qui représente l'erreur type.

L'interprétation de l'erreur standard implique de comprendre la relation entre la variance de la distribution et le nombre de chemins. Si nous multiplions par quatre le nombre de chemins, l'erreur ne sera réduite que d'un facteur deux en raison de la racine carrée. Par conséquent, il est important de garder à l'esprit que doubler le nombre de chemins ne réduit pas de moitié l'erreur, mais ne fournit qu'une réduction modeste.

Concrètement, lors de la réalisation de simulations de Monte Carlo, il est crucial de contrôler la stabilité des résultats par rapport au nombre de trajets. Si l'augmentation du nombre de chemins ne conduit pas à la convergence ou si des différences significatives persistent, cela suggère la nécessité d'analyser plus avant la convergence de la simulation. Ceci est particulièrement important pour les gains complexes, tels que les options remboursables, les dérivés numériques et les dérivés exotiques comme les options américaines. Ces types de gains peuvent nécessiter un grand nombre de simulations de Monte Carlo pour obtenir des résultats stables et fiables.

En résumé, l'erreur type est une mesure de la variabilité ou de l'incertitude des estimations de prix obtenues par simulation de Monte Carlo. L'analyse de l'impact du nombre de chemins sur la variance et l'erreur standard permet d'évaluer la stabilité et la fiabilité des résultats de simulation. L'erreur type est dérivée de la variance de l'estimateur, qui représente la variabilité de l'estimation. En comprenant la relation entre le nombre de chemins et la variance, nous pouvons déterminer le nombre optimal de chemins requis pour atteindre un niveau de précision souhaité.

Lorsqu'il s'agit de gains de type européen, la convergence est généralement réalisable même avec un nombre modéré de chemins de Monte Carlo. Cependant, pour des gains plus complexes comme les options callables ou les dérivés numériques, qui sont très sensibles aux chemins, un plus grand nombre de simulations peut être nécessaire pour obtenir des résultats suffisamment stables.

Il est crucial de porter une attention particulière à l'influence du nombre de chemins sur la stabilité des résultats. La réalisation d'une analyse approfondie et la surveillance de la convergence de la simulation peuvent éviter des conclusions peu fiables ou des écarts importants dans les calculs de tarification. Cette approche préventive est essentielle pour éviter les problèmes potentiels lorsqu'il s'agit de paiements sensibles ou d'exécution de calculs de couverture et de sensibilité.

En conclusion, comprendre le concept d'erreur standard et son interprétation est fondamental dans le domaine de la finance computationnelle, en particulier dans les simulations de Monte Carlo. En considérant la relation entre le nombre de chemins, la variance de l'estimateur et l'erreur standard, nous pouvons prendre des décisions éclairées sur la précision et la fiabilité des estimations de prix. N'oubliez pas d'analyser et d'ajuster le nombre de chemins pour garantir des résultats stables et précis dans vos simulations.

J'espère que cette explication fournit une compréhension complète de l'erreur standard et de son interprétation dans le contexte des simulations de Monte Carlo. Si vous avez d'autres questions, n'hésitez pas !

What is a standard error? How to interpret it?
What is a standard error? How to interpret it?
  • 2023.03.09
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 20/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
 

Qu'est-ce que la convergence faible et forte dans la tarification de Monte Carlo ?



Qu'est-ce que la convergence faible et forte dans la tarification de Monte Carlo ?

Bienvenue à la séance de questions-réponses d'aujourd'hui sur la finance computationnelle. La question d'aujourd'hui est basée sur la conférence 9, qui se concentre sur les simulations de Monte Carlo et les différentes techniques de discrétisation utilisées pour la tarification des produits dérivés. Il met également l'accent sur la distinction entre convergence faible et forte afin de comprendre les différences entre eux.

Commençons par visualiser un parcours Monte Carlo. Supposons que nous ayons un horizon temporel (T) et un processus (Xt) qui représentent les trajectoires simulées. Nous générons ces parcours depuis le point de départ jusqu'à l'expiration d'une option européenne. Si le gain de l'option dépend uniquement de la distribution marginale à l'instant T, quels que soient les chemins spécifiques ou leur ordre, on parle de convergence faible. La convergence faible se concentre sur la distribution à un instant donné et peut être visualisée sous la forme d'une ligne verticale.

En revanche, si le gain dépend non seulement de la distribution à un instant donné mais aussi des chemins et de leurs transitions, on parle de convergence forte. La convergence forte prend en compte le mouvement des densités de transition entre différents points dans le temps et peut être visualisée sous la forme d'une ligne horizontale. La convergence forte consiste à comparer les chemins individuels et leurs densités de transition.

Pour mesurer l'erreur de convergence forte, nous définissons la différence entre l'espérance de la solution exacte et le chemin de Monte Carlo correspondant. Cette différence est évaluée à chaque chemin et doit être de l'ordre de O(Δt^α), où Δt représente le pas de temps et α désigne l'ordre de convergence.

Dans le cas d'une convergence faible, on mesure la valeur absolue de l'écart entre les espérances des chemins. Cependant, la valeur absolue est prise en dehors de l'attente, ce qui donne une somme ou une différence de deux attentes. La convergence faible se concentre sur l'ensemble de la distribution à un moment donné, plutôt que sur des chemins individuels.

Il est important de noter que si une convergence forte implique une convergence faible, une petite erreur de convergence faible ne garantit pas une convergence forte. La précision de la tarification des dérivés exotiques qui dépendent des chemins de Monte Carlo nécessite une forte convergence car la dépendance au chemin joue un rôle important. En revanche, pour les options européennes où seule la répartition compte, une faible convergence suffit.

Voyons maintenant comment mesurer l'erreur de convergence faible. Nous prenons la valeur absolue de la différence entre les espérances des chemins, compte tenu de la représentation exacte et de la discrétisation d'Euler. Pour des modèles plus simples comme Black-Scholes, nous pouvons facilement analyser la convergence, car des solutions explicites sont disponibles. Nous pouvons substituer la solution exacte dans le calcul de l'erreur, en veillant à ce que le même mouvement brownien soit utilisé à la fois pour la solution exacte et la discrétisation d'Euler. La cohérence du mouvement brownien est cruciale pour une comparaison précise.

Pour évaluer la convergence, nous faisons varier le pas de temps (Δt) dans la discrétisation d'Euler. Un pas de temps plus petit conduit à une grille plus étroite et à des erreurs potentiellement plus petites. Cependant, les pas de temps extrêmement petits sont coûteux en temps de calcul. L'objectif est de trouver un équilibre entre précision et efficacité de calcul en choisissant un pas de temps raisonnablement grand.

Pour la discrétisation d'Euler dans le modèle Black-Scholes, l'analyse de convergence montre que l'erreur suit un modèle de racine carrée. Cela implique que l'erreur est proportionnelle à la racine carrée du pas de temps (Δt). L'ordre de convergence pour cette méthode de discrétisation est la racine carrée de Δt.

L'exécution d'une analyse de convergence pour des modèles plus complexes ou des méthodes de discrétisation alternatives peut impliquer des dérivations plus avancées, en tenant compte à la fois des équations différentielles stochastiques et des techniques de discrétisation. Cependant, la clé à retenir est de comprendre la différence entre une convergence faible et forte dans la tarification des produits dérivés. La convergence faible se concentre sur la distribution à un moment donné, tandis que la convergence forte considère les chemins individuels et leurs transitions.

N'oubliez pas qu'une forte convergence est essentielle lors de la tarification des dérivés qui dépendent de trajectoires spécifiques, tandis qu'une faible convergence suffit pour les produits vanille qui reposent uniquement sur la distribution à un moment donné.

J'espère que cette explication clarifie les concepts de convergence faible et forte dans la tarification des produits dérivés.

What is weak and strong convergence in Monte Carlo pricing?
What is weak and strong convergence in Monte Carlo pricing?
  • 2023.03.14
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 21/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online cours...
Raison: