Trading Quantitatif - page 7

 

Martin Scholl (Université d'Oxford) : "Étude de l'écologie du marché à l'aide de modèles basés sur des agents"



Martin Scholl (Université d'Oxford) : "Étude de l'écologie du marché à l'aide de modèles basés sur des agents"

Martin Scholl, chercheur à l'Université d'Oxford, s'est plongé dans l'étude de l'écologie du marché à l'aide de modèles à base d'agents. Contrairement aux approches traditionnelles qui reposent sur des hypothèses telles que l'hypothèse d'un marché efficace, Scholl conteste la théorie de l'équilibre des anticipations rationnelles couramment utilisée dans la finance néoclassique. Il estime que cette théorie exige que tous les participants aient une parfaite compréhension du monde réel, ce qui est irréaliste étant donné les limites cognitives des investisseurs particuliers et des gestionnaires de fonds. Au lieu de cela, il préconise l'application d'outils de la biologie pour analyser les données financières du monde réel, offrant une nouvelle perspective sur la compréhension des marchés financiers.

Pour explorer l'écologie du marché, Scholl compare les stratégies d'investissement aux espèces en biologie, les investisseurs individuels représentant les individus d'une espèce donnée. La richesse globale investie à l'aide d'une stratégie particulière est comparable à l'abondance ou à la taille de la population totale de cette espèce. Dans un modèle de jouet d'un jeu d'investissement, Scholl introduit un scénario simplifié où les agents peuvent choisir de laisser leur richesse dans un compte du marché monétaire ou d'investir dans une action qui verse des dividendes. Ce modèle permet d'examiner diverses stratégies d'investissement et objections à l'hypothèse néoclassique de rationalité parfaite.

Scholl identifie différentes stratégies d'investissement employées dans des modèles basés sur des agents pour étudier l'écologie du marché. La première est une stratégie parfaitement rationnelle, où la valeur nette d'inventaire est répartie entre les actions et les liquidités. Un investisseur axé sur la valeur estime le taux de croissance du dividende pour faire des prévisions futures et comprendre le prix futur de l'action. La deuxième stratégie implique des suiveurs de tendance qui analysent les prix récents et extrapolent les tendances. La troisième stratégie englobe les commerçants bruyants qui entrent sur le marché pour répondre aux besoins de liquidité mais ne sont pas sensibles aux prix sur une courte échelle de temps. Cependant, leur processus de bruit d'inversion de la moyenne est lié à la valeur fondamentale sur une longue échelle de temps.

Pour simuler les mécanismes du marché et étudier l'écologie du marché, Scholl et son équipe utilisent des modèles basés sur des agents à l'aide de progiciels. Ils assurent la comparabilité entre les différentes exécutions du modèle en fixant les dotations et en divisant les dotations initiales entre les individus d'espèces différentes, en gardant une trace de la part relative. Les simulations s'étendent sur une période de 200 ans, ce qui permet d'observer le retour annuel moyen pour chaque espèce. Fait intéressant, ils constatent que chaque stratégie a au moins une région où elle est la plus rentable, quelle que soit son abondance.

Dans ses expériences, Scholl examine le comportement des suiveurs de tendance et l'impact du réinvestissement des bénéfices. Il observe que le marché passe la plupart de son temps dans une région instable et chaotique avec de grandes valeurs aberrantes, ce qui entraîne un bruit moucheté. Lorsque les investisseurs réinvestissent leurs profits, les trajectoires fluctuent autour d'un point central identifié mais ne convergent pas entièrement vers lui. L'augmentation de la concentration des suiveurs de tendance entraîne une plus grande volatilité des rendements. Scholl attribue le mouvement rapide d'abandon des suiveurs de tendance à la rationalité des investisseurs et à l'autocorrélation positive dans le processus de dividende.

Scholl explique que des modèles basés sur des agents peuvent être utilisés pour construire une matrice de communauté financière, similaire aux équations de Volterra prédateur-proie utilisées en biologie. Le rendement d'une stratégie particulière est assimilé à la taille de la population, et la sensibilité du rendement aux changements de la taille de la population représente la matrice communautaire. Sur le marché financier, la concurrence entre différentes stratégies survient lorsque les prix s'écartent des points d'équilibre. Scholl souligne que les marchés financiers présentent une dépendance à la densité, ce qui rend les interactions entre les espèces plus complexes que dans les systèmes biologiques. Cette dépendance à la densité conduit à des scénarios tels que des hausses de prix semblables à des bulles, mais reconnaît que de telles situations sont irréalistes.

Dans le contexte de l'écologie du marché, Scholl discute des implications pratiques de ses découvertes. Il présente un modèle linéaire qui utilise l'abondance des espèces pour décrire les relations entre différents types de prédateurs, impactant ainsi les résultats du marché. Cette approche met en évidence la nature multidimensionnelle des investissements et démontre l'importance de bien dimensionner les stratégies pour éviter les pertes ou devenir la proie des marchés financiers fortement dépendants de la densité. Il remet en question la vision traditionnelle selon laquelle les cours des actions reflètent toutes les informations fondamentales disponibles et présente les marchés financiers comme des systèmes complexes influencés par diverses conditions.

Scholl développe en outre son utilisation d'un modèle linéaire simple dans des modèles à base d'agents pour étudier l'écologie du marché. En analysant les avoirs et l'abondance relative des activités de marché, il a constaté que cette approche surpassait les modèles dérivés des départements qui supposent la rationalité et traduisent automatiquement les fondamentaux. Cependant, il reconnaît les limites de son modèle et souligne la nécessité de recherches supplémentaires pour améliorer son réalisme. Un aspect qu'il aborde est la sensibilité du modèle à différentes recettes et définitions, notamment en ce qui concerne le suivi des tendances. Bien que les dividendes jouent un rôle important dans son modèle, l'incorporation d'éléments plus réalistes pour les marchés financiers du monde réel nécessiterait des étapes supplémentaires.

En ce qui concerne l'adaptabilité des croyances des agents dans son modèle, Scholl souligne que les opérations de marché impliquent souvent que les gestionnaires de fonds suivent des stratégies décrites dans des prospectus pendant de longues périodes. Cela indique une tendance vers des processus d'allocation d'actifs mécaniques. En conséquence, Scholl penche vers la modélisation d'un comportement moins adaptatif et moins intelligent. Cependant, il souligne que d'autres chercheurs de son groupe à l'Université d'Oxford explorent activement l'application d'algorithmes évolutionnaires pour modifier les paramètres et même innover de nouvelles stratégies.

Les recherches de Martin Scholl portent sur l'étude de l'écologie du marché à l'aide de modèles à base d'agents. Il remet en question les théories et hypothèses financières traditionnelles en appliquant des concepts de la biologie pour mieux comprendre les marchés financiers. En comparant les stratégies d'investissement aux espèces en biologie, en analysant différentes stratégies et en simulant les mécanismes du marché, Scholl découvre la complexité des marchés financiers et l'interaction entre diverses stratégies. Ses conclusions suggèrent que les marchés financiers dépendent fortement de la densité et qu'un dimensionnement approprié des stratégies d'investissement est crucial pour éviter les pertes et devenir une proie dans cet écosystème dynamique. Les travaux de Scholl fournissent des informations précieuses sur la nature des marchés en tant que systèmes complexes, contrairement à la vision traditionnelle selon laquelle les cours des actions reflètent uniquement des informations fondamentales.

  • 00:00:00 Martin Scholl de l'Université d'Oxford discute de son étude sur l'écologie du marché à l'aide de modèles à base d'agents. Il explique qu'au lieu de se concentrer sur les hypothèses courantes comme l'hypothèse du marché efficace, il conteste la théorie de l'équilibre des anticipations rationnelles utilisée dans la finance néoclassique, car elle exige que la compréhension de tous les participants corresponde au monde réel. Il révèle également qu'il existe plus de 300 modèles factoriels dans la littérature financière, ce qui rend difficile de déterminer le meilleur à utiliser, et il existe des limites physiques à la capacité cognitive des investisseurs particuliers et des gestionnaires de fonds. En outre, il discute de l'importance d'appliquer des outils de la biologie aux données du monde réel pour mieux comprendre les marchés financiers.

  • 00:05:00 Martin explique comment étudier l'écologie du marché à l'aide de modèles basés sur des agents. Il explique que les stratégies d'investissement peuvent être assimilées à des espèces en biologie, les investisseurs individuels correspondant aux individus d'une espèce donnée. La richesse globale investie à l'aide d'une stratégie particulière est l'abondance ou la taille de la population totale de cette espèce. Scholl présente un modèle de jouet d'un jeu d'investissement, où les agents ont le choix de laisser leur richesse dans un compte du marché monétaire ou d'investir dans une action qui verse des dividendes. Le modèle fonctionne avec un seul stock, ce qui est une hypothèse simplificatrice qui permet des prix de compensation uniques la plupart du temps. Scholl aborde également l'hypothèse néoclassique d'un investisseur rationnel parfait et met en évidence les objections à cette approche.

  • 00:10:00 Martin Scholl explique le concept d'écologie de marché en utilisant des métaphores de la biologie. Il divise les agents du marché en fonction de leurs raisons de participer et introduit la fonction de demande excédentaire comme moyen de définir une stratégie. Il explique comment une fonction de signal est utilisée dans le processus d'investissement et comment différents fonds d'investissement ont tendance à se spécialiser dans différentes choses en fonction de l'acquisition d'informations et d'analyses. La division des stratégies est cruciale dans les marchés en évolution, où il est avantageux de se spécialiser dans un créneau particulier pour optimiser quelque chose.

  • 00:15:00 Martin Scholl discute des différentes stratégies utilisées dans les modèles à base d'agents pour étudier l'écologie du marché. La première stratégie est une stratégie parfaitement rationnelle où la valeur nette d'inventaire est répartie entre les actions et les liquidités. Un investisseur de valeur estime le taux de croissance du dividende pour faire une prévision, aidant à comprendre le prix de l'action à l'avenir. La deuxième stratégie est basée sur les suiveurs de tendance qui regardent les prix récents et extrapolent ces tendances. Enfin, le modèle inclut des traders bruyants qui entrent sur le marché pour répondre à des besoins de liquidité mais ne sont pas sensibles au prix, de sorte que leur signal semble aléatoire sur une courte échelle de temps. Cependant, leur processus de bruit d'inversion de la moyenne est lié à la valeur fondamentale sur une longue échelle de temps et reviendra lentement à la moyenne, comme l'ont estimé Buscher et ses collègues.

  • 00:20:00 Martin explique comment ils simulent les mécanismes du marché à l'aide de modèles à base d'agents, ce qui leur permet d'étudier l'écologie du marché. En raison de la multitude de solutions possibles, il est difficile de traiter analytiquement la simulation. Ils utilisent donc un progiciel pour simuler les différents mécanismes du marché. Ils fixent les dotations pour s'assurer que les résultats sont comparables entre les différentes exécutions du modèle. Ils répartissent également les dotations initiales entre les individus de différentes espèces et gardent une trace de la part relative. Ils exécutent la simulation pendant 200 ans et examinent le rendement annuel moyen de chacune des espèces. Ils observent que, pour les trois stratégies, il y a au moins une région où elles sont les plus rentables, même si cette région n'est pas celle où l'espèce est la plus abondante.

  • 00: 25: 00 Martin Scholl de l'Université d'Oxford discute d'une expérience impliquant des suiveurs de tendance, où les prix divergent des valeurs fondamentales, entraînant des profits et des pertes massifs en raison de la réalisation aléatoire du processus de dividende et du bruit introduit. Le système passe la majeure partie de sa conception dans une région instable et chaotique, avec de grandes valeurs aberrantes qui créent un bruit moucheté. Dans la deuxième expérience, les investisseurs ont été autorisés à réinvestir les bénéfices, et les trajectoires ont été tracées dans un simplexe, avec redistribution de la richesse, mais elles ont légèrement convergé vers le point central identifié, fluctuant plutôt d'un côté à l'autre. Le système a tendance à se trouver dans une région autour du point fixe attractif identifié, et le prix d'équilibre du marché est annoncé chaque jour de bourse, affectant la valorisation des commerçants et les prix.

  • 00:30:00 Martin explique les différentes lignes de flux obtenues grâce aux expériences de Monte Carlo lors de l'analyse d'un point fixe dans un système avec des suiveurs de tendance, des investisseurs de valeur et des commerçants de bruit. L'épaisseur des lignes indique la quantité de richesse redistribuée entre les stratégies sur une base annuelle, ce qui montre comment une abondance de suiveurs de tendance peut entraîner des pertes massives dans le système. Scholl poursuit en soulignant que le crowding fonctionne différemment pour les suiveurs de tendance que pour les investisseurs axés sur la valeur, et que l'augmentation de la concentration des suiveurs de tendance entraîne une volatilité plus élevée des rendements. La raison fondamentale pour laquelle le système s'éloigne rapidement des suiveurs de tendance est la rationalité des investisseurs et l'autocorrélation positive dans le processus de dividende.

  • 00:35:00 Martin Scholl explique comment les modèles basés sur les agents peuvent être utilisés pour étudier l'écologie du marché et comment la matrice de la communauté financière peut être construite. Scholl établit une analogie avec les équations de Volterra prédateurs et proies utilisées dans la dynamique des populations en biologie, qui sont utilisées pour décrire la dynamique de différentes populations, à savoir comment différentes espèces interagissent en fonction de la taille de la population. Il note que ce concept peut également être appliqué aux marchés financiers, où le retour d'une stratégie particulière serait considéré comme une taille de population et la sensibilité du retour d'une espèce aux changements de taille de population représenterait la matrice communautaire.

  • 00:40:00 Martin de l'Université d'Oxford explique comment les espèces de l'écologie des marchés financiers se font concurrence au point d'équilibre, car toutes les entrées diagonales sont négatives et toutes les entrées positives sont positives. Le système est stable car le point fixe est stable avec une matrice communautaire robuste à certaines évolutions de la population. Cependant, lorsque le marché s'éloigne assez des points d'équilibre, il commence à y avoir une concurrence entre les suiveurs de tendance et les investisseurs de valeur alors qu'il y a pas mal d'investisseurs de valeur. La dépendance à la densité rend les interactions entre les espèces plus complexes que les interactions biologiques et elle est beaucoup plus courante dans la finance que dans la nature. Dans la région instable où les prix divergent, les suiveurs de tendance profitent des autres suiveurs de tendance et le prix continue d'augmenter à la manière d'une bulle, mais ce scénario est tout à fait irréaliste.

  • 00: 45: 00 Martin Scholl discute des avantages des suiveurs de tendance sur une courte période, car ils peuvent bénéficier de suiveurs de tendance légèrement plus lents qu'eux car ils peuvent vendre au sommet ou du moins pas avant que le prix ne se soit complètement effondré. Cependant, dans ce modèle, les suiveurs de tendance sont simples et opèrent sur la même échelle de temps, quelle que soit la stratégie d'un individu. Scholl explique également comment un fonds passif ou un tracker indiciel pourrait être représenté comme un fonds qui a une allocation consensuelle de la richesse à des actifs spécifiques. Une proportion plus élevée d'indexeurs rendrait le système plus stable et amortirait l'ensemble du système. Enfin, Scholl note qu'il a calculé toutes ces informations pour comprendre les relations binaires entre les espèces, résultant en quelque chose appelé un réseau trophique.

  • 00: 50: 00 Martin discute de l'étude de l'écologie du marché à l'aide de modèles basés sur des agents. Scholl explique comment les nœuds sont des espèces différentes et les bords sont les interactions entre eux. En utilisant le niveau trophique, ils peuvent déterminer quelle espèce a le niveau de profit le plus bas, ce qui signifie qu'elle ne se nourrit pas d'autres espèces, et laquelle a le niveau de trafic le plus élevé, ce qui signifie qu'elle se nourrit de toutes les autres espèces, ce qui en fait le prédateur suprême. Scholl explique comment les niveaux de trafic changent considérablement en fonction de la densité et comment chaque groupe suit une politique de remise de dividendes, l'investisseur de valeur s'attaquant aux traders de bruit et le suiveur de tendance exploitant les corrélations.

  • 00:55:00 Martin Scholl explique les implications pratiques de l'étude de l'écologie du marché à l'aide de modèles basés sur des agents. Une expérience basée sur la qualité du marché et la mauvaise tarification montre qu'un modèle linéaire simple utilisant l'abondance des espèces fonctionne assez bien pour décrire la relation entre différents types de prédateurs, affectant les résultats du marché. Le modèle développé permet d'observer comment les investissements sont multidimensionnels, soulignant que les stratégies ont des impacts différents sur la qualité du marché. Selon l'étude de Scholl, les marchés financiers dépendent fortement de la densité, ce qui signifie que les investisseurs doivent dimensionner leur stratégie de manière appropriée pour éviter de subir des pertes ou de devenir eux-mêmes des proies. Cette approche permet de décrire les marchés comme un système complexe influencé par diverses conditions, contrairement à la finance traditionnelle, où les cours des actions sont censés refléter toutes les informations fondamentales disponibles.

  • 01:00:00 Dans cette section de la vidéo, Martin Scholl discute de son utilisation d'un modèle linéaire simple pour étudier l'écologie du marché à l'aide de modèles à base d'agents. En examinant les avoirs et l'abondance relative des activités de marché, il a constaté que cette approche offrait un meilleur outil de prévision que l'utilisation de modèles dérivés du département qui supposent la rationalité et traduisent automatiquement les fondamentaux. Il discute également des limites de son modèle et de la nécessité de poursuivre les recherches pour le rendre plus réaliste. L'une des questions qu'il aborde concerne la sensibilité du modèle à différentes recettes et définitions, en particulier en ce qui concerne le suivi des tendances, qui, selon lui, est principalement motivé par les dividendes dans son modèle, mais nécessiterait d'autres étapes pour le rendre plus réaliste pour le monde financier réel. marchés.

  • 01:05:00 Martin Scholl discute de son approche pour étudier l'écologie du marché à l'aide de modèles basés sur des agents. Scholl ne suppose pas que les agents sont capables d'adapter leurs croyances dans son modèle. Les opérations de marché impliquent généralement que les gestionnaires de fonds suivent des stratégies décrites dans un prospectus pendant des décennies, ce qui indique que le processus d'allocation d'actifs a tendance à être mécanique. Scholl a tendance à pencher vers un comportement moins adaptatif et moins d'intelligence dans sa modélisation. Cependant, d'autres membres du groupe de recherche de l'Université d'Oxford travaillent sur l'application d'algorithmes évolutionnaires pour modifier les paramètres des stratégies et même en innover de nouvelles.
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
  • 2022.03.23
  • www.youtube.com
Abstract: This talk presents a mathematical analogy between financial trading strategies and biological species and shows how to apply standard concepts fro...
 

Kevin Webster : " Comment l'impact des prix déforme le compte de résultat comptable "



Kevin Webster : " Comment l'impact des prix déforme le compte de résultat comptable "

Dans une vidéo YouTube, Kevin Webster se penche sur la façon dont l'impact sur les prix peut fausser les états comptables des profits et pertes (P&L). Il souligne l'importance de modéliser avec précision l'impact sur les prix pour gérer efficacement le risque et souligne l'importance de gérer le risque de liquidité pour éviter de se retrouver avec une position illiquide. Webster reconnaît qu'il existe différents modèles d'impact sur les prix, mais ils s'accordent généralement sur la majorité des données.

L'exposé commence par aborder l'intersection entre l'impact sur les prix et le risque de liquidité, notant en particulier que la liquidité des principaux marchés était souvent tenue pour acquise avant la crise financière. Webster partage des citations puissantes qui illustrent comment l'impact sur les prix crée une illusion de profit, conduisant à des dislocations de prix loin des valeurs financières. L'objectif de la conférence est de formaliser mathématiquement ce concept, en fournissant un cadre quantitatif basé sur l'estimation de l'impact de la liquidation sur le marché pour éliminer l'illusion de profit.

Webster explique l'impact sur les prix comme un modèle causal pour le trading, où un trading plus agressif pousse les prix plus loin et vice versa. Les modèles d'impact sur les prix sont largement utilisés dans l'analyse des coûts de transaction et l'exécution optimale, servant d'outils de pré-négociation pour estimer les coûts de transaction attendus et optimiser les stratégies d'exécution. Il présente un faux rapport d'analyse des coûts de transaction qui permet aux traders d'évaluer les performances de leurs algorithmes sur une base trimestrielle, en mettant l'accent sur la minimisation du glissement des ordres et en tenant compte à la fois des mouvements mécaniques et du glissement alpha.

L'orateur évoque les lignes directrices publiées par l'Autorité européenne des marchés financiers (ESMA) concernant les stress tests de liquidité, qui consistent à simuler la liquidation d'actifs pendant les périodes de tension sur les marchés. La simulation des réactions du marché, telles que les dislocations de prix, et l'utilisation de stratégies de couverture sont essentielles pour réduire l'exposition au risque. Webster fait référence à diverses publications sur les tests de résistance à la liquidité et l'impact des prix sur le P&L comptable, y compris les travaux de Cascioli, Boucheron, Farmer et des comités réglementaires comme l'ESMA et le Baffled Committee. Il souligne la nécessité de tests de résistance à la liquidité pour atténuer les situations qui pourraient avoir un impact sur le P&L comptable et entraîner des coûts de liquidation élevés.

Le concept d'empreinte commerciale est introduit, qui mesure l'effet de distorsion de l'impact des prix sur le P&L comptable et relie différentes définitions du P&L. Webster présente un modèle simple de vente de feu pour illustrer les conclusions importantes sur le P&L comptable tirées par l'article de Casadio-Bouchard-Farmer. Il explique comment le nombre que les commerçants et les gestionnaires de plateforme observent quotidiennement surestime leur P&L final, entraînant une déflation lorsque la transaction est terminée. Cependant, cette propriété d'inflation peut être mesurée et affichée en temps réel, fournissant des informations exploitables aux traders. Webster note que les pertes d'inflation de position sont souvent temporaires et dépendent de la tolérance au risque.

Les enjeux liés à la valorisation d'une position en actions et son impact sur le P&L d'une entreprise sont abordés. Webster souligne l'ambiguïté dans la détermination des prix à utiliser pour marquer la position du stock et la différence entre le P&L comptable et le P&L fondamental utilisé par les algorithmes de trading. L'empreinte commerciale est définie comme la différence entre le P&L comptable et le P&L fondamental, l'ambiguïté étant résolue lorsque la position est fermée. L'orateur explore l'inflation de position, en faisant certaines hypothèses sous lesquelles cette propriété est valable. Le modèle d'impact et ses deux cas, la taupe OW originale et la taupe W étudiées par Fruehwirth et Bond, sont également abordés.

Webster explique que pour que le modèle ait un sens, une condition de non-arbitrage entre lambda et bêta doit être satisfaite, ainsi qu'une condition d'équation d'autofinancement. Il se penche sur le calcul du P&L attendu à la clôture et sur la manière dont l'empreinte commerciale introduit un biais dans le P&L comptable. La propriété d'inflation de position fait que la position se gonfle pendant la phase d'entrée de position, reste pendant la phase de maintien et finit par s'évaporer. Tous ces aspects peuvent être observés en temps réel sur un écran de trading, fournissant aux traders des informations précieuses.

Webster explique en outre les distorsions du P&L comptable causées par l'impact sur les prix. Il explique comment les traders peuvent réaliser des transactions rentables même sans alpha, mais prévient que ces bénéfices sont de courte durée en raison des coûts de transaction. La surveillance précoce des dislocations de prix est cruciale pour éviter les pertes. De plus, Webster note que les gestionnaires de portefeuille préfèrent voir leurs portefeuilles dans leur ensemble et introduit le concept de portefeuille stationnaire, qui contrôle la taille et la rotation d'un portefeuille dans le monde de la finance mathématique.

Le concept de portefeuille stationnaire est ensuite exploré en relation avec l'estimation des coûts de transaction courants. En comprenant l'échelle de temps du propagateur, les traders peuvent estimer dans quelle mesure leurs positions sont gonflées et l'illusion de profit qu'ils peuvent perdre lors de la liquidation de leurs positions. Webster démontre le cadre à l'aide de données empiriques, montrant son applicabilité à des scénarios du monde réel. Il applique le cadre à un modèle de vente de feu et explique les différences entre le P&L comptable et le P&L fondamental, soulignant comment ils informent différentes fonctions objectives en fonction de l'aversion au risque d'un trader.

L'orateur se penche sur l'impact des ventes de feu ou de l'activité de trading d'autres acteurs du marché sur le P&L et la position d'un trader. Une couverture agressive peut entraîner des effets d'encombrement et une inflation des positions, entraînant des pertes permanentes. La modélisation précise de l'impact sur les prix est cruciale pour une gestion efficace des risques, et la gestion du risque de liquidité est soulignée pour éviter de se retrouver avec des positions illiquides.

Webster reconnaît que bien qu'il existe de nombreux modèles d'impact sur les prix différents, ils s'accordent généralement sur la majorité des données. Cependant, des différences peuvent survenir dans l'ampleur et la durée de la persistance de l'impact. Les luxations temporaires peuvent durer de quelques jours à un mois. Du point de vue de la gestion des risques, il existe un plan d'action clair, tandis que du point de vue du trader et de la performance, une communication efficace devient essentielle. Comprendre si le P&L est mécanique ou non et supprimer la partie mécanique permet aux traders de se concentrer sur l'alpha ou l'avantage réel dans leurs transactions.

L'orateur explique le principe de "pas de manipulation de prix", soulignant que même si les commerçants réalisent des bénéfices, ils ne peuvent pas les maintenir car ils finiront par s'évaporer. L'inflation de position conduit à la déflation de la valeur commerciale au fil du temps ou à une liquidation immédiate, entraînant un P&L nul ou même négatif. Par conséquent, les commerçants doivent s'appuyer sur d'autres variables pour générer des bénéfices durables. Webster explore en outre la corrélation entre l'état d'impact initial, l'impact causé par le reste du marché et l'impact des couvertures du trader et du reste du marché.

En conclusion, Kevin Webster fournit une compréhension complète de la façon dont l'impact sur les prix peut fausser le P&L comptable. Il met en lumière les coûts supplémentaires liés aux régimes de liquidité à forte volatilité et leur corrélation avec le marché au sens large, en soulignant leur impact sur le biais. D'un point de vue réglementaire, les obligations d'entreprises et les compagnies d'assurance sont susceptibles d'être plus affectées par ce biais. Alors que Webster admet qu'il manque de réponses détaillées pour les marchés autres que les actions, il fournit une base mathématique solide pour comprendre l'impact sur les prix et sa distorsion potentielle du P&L.

  • 00:00:00 est la base de cet exposé sur la façon dont l'impact sur les prix déforme le P&L comptable. La discussion est motivée par l'intersection entre l'impact sur les prix et le risque de liquidité, et le fait que la liquidité des principaux marchés était souvent tenue pour acquise avant la crise financière. L'orateur fournit deux citations puissantes qui illustrent l'illusion de profit causée par l'impact sur les prix et comment cela conduit à des dislocations de prix loin des valeurs financières. L'exposé vise à formaliser mathématiquement cette idée et à fournir un cadre quantitatif basé sur l'impact estimé de la liquidation sur le marché pour supprimer cette illusion de profit.

  • 00: 05: 00 L'orateur discute de l'impact sur les prix en tant que modèle causal pour le trading et de la manière dont il pousse le prix plus loin s'il est négocié de manière plus agressive et vice versa. L'industrie utilise des modèles d'impact sur les prix pour l'analyse des coûts de transaction et l'exécution optimale, et les praticiens l'utilisent comme outil de pré-négociation pour estimer le coût de transaction attendu d'un ordre et optimiser la stratégie d'exécution. L'orateur donne un faux rapport TCA pour émuler cette perspective de liquidité pour que les commerçants évaluent comment leurs algos se portent sur une base trimestrielle. Les traders essaient de minimiser le glissement des ordres, et l'impact sur les prix et le glissement de l'alpha entrent en jeu en fonction du pourcentage de glissement des ordres causé par les mouvements mécaniques ou l'alpha.

  • 00: 10: 00 Kevin Webster discute des lignes directrices publiées par l'Autorité européenne des marchés financiers sur la manière d'exécuter des tests de résistance à la liquidité, qui impliquent de simuler la liquidation d'actifs pendant les périodes de tension sur les marchés. Il explique également l'importance de simuler les réactions du marché, telles que les dislocations de prix, et comment la couverture peut réduire l'exposition au risque. En outre, il passe en revue deux volets de la littérature sur les tests de résistance à la liquidité et l'impact des prix sur le P&L comptable, y compris les travaux de Cascioli Boucheron Farmer et des régulateurs comme le Baffled Committee et l'ESMA. Enfin, il insiste sur la nécessité d'un stress test de liquidité pour éviter les situations qui pourraient impacter le P&L comptable et entraîner des coûts de liquidation élevés.

  • 00:15:00 L'orateur discute des enseignements tirés de divers documents sur les stress tests de liquidité, y compris la nécessité pour les décideurs de les utiliser et leur structure basée sur la simulation. Ils recommandent un article spécifique de Francelli sur la simulation des dislocations de prix en période de tension sur le marché, ainsi qu'une paire d'articles de Schweizer et Urzua qui fournissent une preuve alternative du modèle OB et augmentent considérablement son applicabilité. L'orateur introduit également le concept d'une empreinte commerciale qui relie différentes définitions du P&L et mesure l'effet de distorsion de l'impact des prix sur le P&L comptable. Enfin, ils ont mis en place un modèle simple de vente de feu pour illustrer les puissantes conclusions sur le P&L comptable tirées par l'article de Casadio-Bouchard-Farmer.

  • 00:20:00 Kevin Webster explique comment l'impact sur les prix peut fausser le P&L comptable. Il explique comment le nombre que les commerçants et les gestionnaires de plateforme regardent quotidiennement surestime leur P&L final, le faisant se dégonfler lorsqu'ils terminent la transaction. Cependant, la propriété d'inflation peut être mesurée et affichée en temps réel, ce qui la rend exploitable pour les traders. Webster note que la partie inflation de position des pertes est souvent temporaire et dépend de la tolérance au risque. Il conclut par une introduction à la configuration mathématique, aux variables et aux quantités que les traders doivent prendre en compte lors du calcul du P&L.

  • 00: 25: 00 Dans cette section, Kevin Webster explique les problèmes liés à l'évaluation d'une position boursière et comment cela affecte le profit et la perte (P&L) d'une entreprise. Il parle de l'ambiguïté dans la détermination des prix à utiliser pour marquer la position du stock et de la différence entre le P&L comptable et le P&L fondamental utilisé par l'algorithme de trading. Il définit l'empreinte commerciale comme la différence entre le P&L comptable et le P&L fondamental et explique comment l'ambiguïté est levée lorsque la position est fermée. Il discute également de l'inflation de position et fournit certaines hypothèses sous lesquelles cette propriété est vérifiée. Enfin, il mentionne le modèle d'impact et ses deux cas, la taupe OW originale et la taupe W étudiées par Fruehwirth et Bond.

  • 00:30:00 Kevin Webster explique que pour que le modèle ait un sens, il doit y avoir une condition de non-arbitrage entre lambda et bêta, ainsi qu'une condition d'équation d'autofinancement qui doit être satisfaite. Il explique également comment calculer le P&L attendu à la clôture et comment l'empreinte commerciale introduit un biais dans le P&L comptable. Enfin, il explique comment la propriété d'inflation de la position fait que la position se gonfle pendant la phase d'entrée de la position, reste pendant la phase de maintien et finit par s'évaporer. Tout cela peut être observé en temps réel et sur un écran de trading.

  • 00:35:00 Dans cette section, Kevin Webster, un expert financier, explique les distorsions d'impact sur les prix qui se produisent dans le P&L comptable. Il explique comment les commerçants peuvent effectuer des transactions rentables même lorsque leur transaction n'a pas d'alpha, tout en avertissant que ces bénéfices ne dureront pas longtemps en raison des coûts de transaction et que les commerçants devraient surveiller ces emplacements de prix tôt pour éviter les pertes. De plus, il explique que les gestionnaires de portefeuille préfèrent penser à leur portefeuille dans son ensemble, et il définit un portefeuille stationnaire pour contrôler la taille et la rotation d'un portefeuille dans le monde de la finance mathématique.

  • 00: 40: 00 Kevin Webster discute du concept de portefeuille stationnaire et de la manière dont il peut être utilisé pour estimer les coûts de transaction courants. En connaissant l'échelle de temps du propagateur, les traders peuvent estimer à quel point leur position est gonflée et l'illusion de profit qu'ils pourraient perdre s'ils commencent à liquider leur position. Webster simule ensuite le cadre sur des données empiriques et souligne que ces formules peuvent être appliquées à des scénarios réels. Enfin, il applique le cadre à un modèle de vente de feu et explique les différences entre le P&L comptable et le P&L fondamental et comment ils peuvent informer différentes fonctions objectives en fonction de l'aversion au risque d'un trader.

  • 00: 45: 00 Kevin explique comment les ventes de feu, ou l'activité commerciale d'autres acteurs du marché, peuvent affecter le P&L et la position d'un trader. Il démontre qu'une couverture agressive peut entraîner des effets d'encombrement et une inflation des positions, ce qui peut entraîner des pertes permanentes. En outre, il souligne l'importance de modéliser avec précision l'impact sur les prix pour gérer efficacement le risque et souligne l'importance de gérer le risque de liquidité avant de se retrouver avec une position illiquide. Enfin, il note que bien qu'il existe de nombreux modèles d'impact sur les prix différents, ils s'accordent généralement sur la majorité des données.

  • 00: 50: 00 L'orateur explique comment différents modèles d'impact peuvent s'opposer non seulement sur le montant ou la variation de l'impact sur les prix, mais également sur la durée de disparition de l'impact. Ils fournissent un exemple de luxation temporaire pouvant durer de quelques jours à un mois. Cependant, si les traders ou les gestionnaires de performance veulent débiaiser leurs positions ou effectuer une gestion des risques, n'importe quel modèle d'impact devrait suffire, et il existe un ensemble exploitable pour communiquer efficacement avec les parties prenantes. Du point de vue de la gestion des risques, il existe un ensemble d'actions clair. En revanche, du point de vue du trader et de la performance, il s'agit principalement d'une question de communication, en comprenant si le p/l est mécanique ou non, en supprimant la partie mécanique du p/l, on peut se concentrer sur l'alpha réel ou l'avantage réel dans le commerce .

  • 00: 55: 00 Kevin Webster explique que le principe de non-manipulation des prix signifie que même si les commerçants réalisent des bénéfices, ils ne peuvent pas les verrouiller car ils finiront par s'évaporer. L'inflation de la position de preuve entraîne la déflation de la valeur commerciale au fil du temps ou une liquidation immédiate, ce qui conduit à un P&L nul ou même négatif. Les commerçants doivent s'appuyer sur d'autres variables pour réaliser des bénéfices car l'inflation de position ne permet pas aux bénéfices de devenir permanents. Webster discute en outre de la corrélation entre l'état d'impact initial, l'impact initial causé par le reste du marché et l'impact des couvertures du trader et du reste du marché.

  • 01:00:00 Kevin Webster explique comment l'impact sur les prix fausse la comptabilité P&L. Il explique que les coûts supplémentaires pendant les régimes de liquidité à forte volatilité et la corrélation avec le reste du marché peuvent contribuer dans une large mesure au biais. D'un point de vue réglementaire, les obligations d'entreprises et les compagnies d'assurance seraient probablement plus touchées par ce biais. Cependant, comme il l'admet, il n'a pas de réponse très détaillée car il ne sait pas comment répondre à certaines questions en dehors des actions. Dans l'ensemble, il fournit une compréhension mathématique de l'impact sur les prix et de la façon dont il peut fausser le P&L.
Kevin Webster: "How Price Impact Distorts Accounting P&L"
Kevin Webster: "How Price Impact Distorts Accounting P&L"
  • 2022.02.16
  • www.youtube.com
Full Talk Title: "How Price Impact Distorts Accounting P&L - Revisiting Caccioli, Bouchaud and Farmer's Impact-Adjusted Valuation"This presentation revisits ...
 

Laura Leal (Princeton University) - "Apprentissage d'un contrôle fonctionnel pour la finance haute fréquence"



Laura Leal (Princeton University) - "Apprentissage d'un contrôle fonctionnel pour la finance haute fréquence"

Laura Leal, chercheuse à l'Université de Princeton, a fait une présentation informative sur l'application des réseaux de neurones profonds dans la finance à haute fréquence. Elle a souligné les limites des solutions conventionnelles et a exploré les avantages de l'utilisation des réseaux de neurones dans ce domaine. Leal a souligné leur capacité à s'adapter à des facteurs complexes tels que l'autocorrélation et la saisonnalité intrajournalière, avec lesquels les modèles traditionnels ont du mal. En tirant parti des réseaux de neurones, les traders peuvent obtenir une exécution optimale en minimisant l'impact sur le marché et en négociant en douceur.

Pour répondre aux préoccupations concernant la nature de la boîte noire des réseaux de neurones, Leal a introduit le concept d'explicabilité. Elle a discuté de la projection du contrôle du réseau neuronal sur une variété de dimension inférieure, permettant une meilleure compréhension des risques associés et de l'écart par rapport aux secteurs à risque familiers. L'équipe a évalué les performances du contrôle du réseau neuronal, en le comparant à la solution classique d'EDP (équation aux dérivées partielles) de forme fermée. Ils ont examiné la fonction de valeur, la richesse au prix du marché et les erreurs relatives dans les projections pour évaluer l'exactitude et l'efficacité de l'approche du réseau neuronal.

Leal s'est penché sur les subtilités de la formation du réseau de neurones, soulignant l'importance d'incorporer des données du monde réel et une dynamique précise. Elle a également proposé un contrôleur multi-préférences qui permet aux traders de saisir leurs préférences en matière de risque, permettant une adaptation plus rapide aux nouvelles conditions du marché. En considérant les paramètres d'aversion au risque et en incorporant les préférences d'un trader, le réseau de neurones peut générer une solution au problème d'optimisation stochastique dans la finance à haute fréquence.

Le présentateur a discuté de la structure du réseau de neurones utilisé pour le contrôle des risques, soulignant sa nature récurrente. Bien que le réseau ne soit pas excessivement profond, il utilise une structure récurrente à chaque pas de temps, mettant à jour les pondérations simultanément. Les entrées du réseau incluent le temps et l'inventaire, tandis que la sortie est le contrôle lui-même, qui détermine la quantité optimale de stocks à négocier à chaque pas de temps. Pour relever le défi de la disponibilité limitée des données financières, l'apprentissage par transfert est utilisé, simulant les données à l'aide des méthodes de Monte Carlo.

Leal a décrit le processus de projection du contrôle du réseau neuronal sur un espace de fonction linéaire en utilisant la régression linéaire. Cette technique de projection facilite une meilleure compréhension des fonctions non linéaires du réseau de neurones et de leur alignement avec des solutions de contrôle de forme fermée. Les résultats ont démontré l'impact de l'intégration des paramètres de saisonnalité et d'aversion au risque sur la réaction du modèle au marché. De plus, le présentateur a souligné l'importance du gamma, qui est généralement fixé à deux dans la littérature, mais a montré une solution non linéaire lorsqu'il est pris comme trois sur deux.

La performance et la précision du contrôle du réseau neuronal dans l'exécution des transactions pour la finance à haute fréquence ont été soigneusement évaluées. Leal a comparé la fonction de valeur, la richesse au prix du marché et les erreurs relatives dans les projections selon différents scénarios et valeurs gamma. Alors que le réseau neuronal présentait des performances supérieures, il exécutait les transactions de manière non linéaire, s'écartant de la solution de contrôle connue. Cela a soulevé des questions sur la décision de négocier en utilisant le réseau neuronal et sur la détermination des niveaux de marge appropriés en fonction de sa divergence par rapport à la solution établie.

Leal a exploré les avantages de l'approche du contrôleur multi-préférences, permettant aux traders de saisir leurs paramètres de conversion des risques et de commencer à trader immédiatement avec un modèle pré-formé. Alors que la solution de réseau neuronal prenait plus de temps à s'exécuter que la solution PDE, elle offrait une plus grande flexibilité et adaptabilité aux différentes préférences de risque. Pour améliorer l'explicabilité, Leal a proposé une idée de projection utilisant la régression linéaire, réduisant la charge de calcul tout en conservant la capacité multi-préférences. Elle a également souligné les applications plus larges du concept d'approximation des réseaux de neurones, suggérant sa pertinence dans d'autres problèmes financiers, tels que la couverture.

Le processus de formation pour le réseau de neurones dans la finance à haute fréquence a été discuté, mettant l'accent sur la formation hors ligne pour éviter les problèmes de latence associés à l'apprentissage par renforcement en ligne. Le réseau prend le temps, l'inventaire et potentiellement les paramètres d'aversion au risque comme entrées et produit un taux comme sortie. Leal a également décrit la procédure de réglage fin dans l'apprentissage par transfert, passant de données simulées à des incréments de données réelles obtenus de la Bourse de Toronto une fois que le réseau a convergé. Le présentateur a souligné l'importance d'utiliser des données du monde réel et une dynamique précise pendant le processus de formation, car cela améliore la capacité du réseau à saisir les complexités de la finance à haute fréquence.

Dans la section suivante, Laura Leal a donné un aperçu des entrées et de la fonction objective employées dans le réseau de neurones pour la finance à haute fréquence. Le réseau de neurones intègre l'inventaire en proportion du volume moyen d'un stock spécifique au cours d'une journée, permettant une représentation normalisée. La fonction objectif est formulée comme un problème de maximisation, la sortie servant de contrôle pour une exécution optimale. La structure du réseau neuronal est basée sur l'approximation de fonctions, utilisant deux nœuds d'entrée et quatre couches cachées pour capturer les relations sous-jacentes.

Répondant à une question sur l'écart entre deux solutions de contrôle, Leal a précisé que cela pouvait être interprété comme le reflet de l'évolution de l'utilité de l'investisseur. En ajustant le paramètre gamma, différentes fonctions d'utilité peuvent être utilisées, entraînant des variations dans les solutions de contrôle. Dans leurs recherches, l'équipe a choisi la valeur gamma de trois moitiés sur la base de tests empiriques avec de vrais commerçants, ce qui a abouti à des performances satisfaisantes.

Leal a en outre souligné que la sortie du réseau neuronal est observable et analysable. Ils peuvent surveiller les positions prises par le réseau et leur évolution tout au long de la journée de négociation, offrant ainsi une transparence et un aperçu du processus de prise de décision. Ce niveau d'interprétabilité et de compréhension permet aux traders de gagner en confiance dans les stratégies d'exécution du réseau neuronal.

Les défis associés au développement de contrôles fonctionnels pour la finance à haute fréquence ont également été discutés par Leal. Bien qu'un processus de contrôle moyen puisse fournir des informations globales sur l'exécution des transactions, il peut ne pas représenter avec précision le comportement des trajectoires individuelles. La dynamique du marché, telle que l'émergence de stocks de mèmes, nécessite l'adaptation des méthodes de contrôle pour saisir efficacement les conditions évolutives.

En conclusion, la présentation de Laura Leal a mis en lumière les complexités de la création de contrôles efficaces dans le domaine de la finance à haute fréquence. En tirant parti des réseaux de neurones profonds, les chercheurs et les commerçants peuvent surmonter les limites des modèles traditionnels et s'adapter à la dynamique complexe de ce domaine. L'incorporation de préférences de risque, de mesures d'explicabilité et de données du monde réel contribue au développement de solutions de contrôle robustes et adaptables. Grâce à leur travail, Leal et son équipe offrent des informations et des solutions précieuses qui ouvrent la voie à une prise de décision plus efficace et éclairée dans le domaine de la finance à haute fréquence.

  • 00:00:00 Laura Leal présente son travail conjoint avec Matthias et Charlotte sur l'utilisation d'un réseau neuronal profond pour résoudre le problème d'exécution optimale dans la finance à haute fréquence. L'objectif est d'éviter un impact important sur le marché et de négocier de la manière la plus fluide et la plus discrète possible. L'équipe introduit l'idée d'explicabilité pour répondre à la préoccupation des réseaux de neurones étant une boîte noire, où ils projettent le contrôle du réseau de neurones sur un collecteur de dimension inférieure pour mieux comprendre le risque et à quelle distance la solution de réseau de neurones est du risque familier secteur. Ils évaluent les performances en examinant la fonction de valeur, le marché marqué par la richesse et les erreurs relatives dans les projections et comparent la solution de réseau neuronal à la solution PDE classique de forme fermée.

  • 00: 05: 00 Laura Leal de l'Université de Princeton explique comment les réseaux de neurones peuvent améliorer les limites des solutions traditionnelles, comme les modèles PD (différentiel partiel), qui ont du mal à s'adapter aux complexités de la finance à haute fréquence comme l'auto-corrélation, les queues lourdes , et la saisonnalité intrajournalière. Cependant, l'exécution des réseaux de neurones peut prendre beaucoup de temps. Elle propose donc un contrôleur multi-préférences qui saisit les préférences de risque d'un trader pour s'adapter plus rapidement aux nouveaux jours, générant une solution au problème d'optimisation stochastique. Leal donne ensuite un aperçu de la littérature, y compris des modèles d'exécution optimaux, et explique les variables d'état telles que l'inventaire, le contrôle et le prix dont le réseau de neurones peut tirer des enseignements dans la finance à haute fréquence.

  • 00: 10: 00 Laura discute de l'évolution du processus de prix dans la finance à haute fréquence et de la manière dont il est affecté par la vitesse du trading. Elle explique comment plus vous négociez rapidement, plus vous consommez de liquidités, ce qui fait grimper le prix et génère un impact permanent sur le marché. Le critère objectif à minimiser dépend du contrôle, c'est-à-dire de la vitesse de négociation, et a une composante terminale et une composante de coût de fonctionnement. Le coût final est divisé en trois parties, qui comprennent la richesse finale en espèces, la pénalité pour la détention d'inventaire et le prix auquel l'inventaire final peut être vendu. Le coût de fonctionnement est une pénalité pour la tenue d'inventaire tout au long de la journée, et ces deux paramètres sont essentiels pour la gestion des risques. Leal explique également à quel point le gamma est important pour leur solution de réseau de neurones et est généralement pris égal à deux dans la littérature.

  • 00: 15: 00 Laura Leal, conférencière de l'Université de Princeton, explique l'utilisation d'un réseau de neurones pour apprendre l'approximation dans un problème financier à haute fréquence où la fonction de valeur a un terme quadratique sur l'inventaire. La solution équivalente lors de l'utilisation d'une métrique neuronale est différente de la commande d'optimisation mu car il faut choisir les paramètres du réseau de neurones. Le réseau de neurones est utilisé pour tous les pas de temps, lui permettant d'apprendre à réagir en fonction du prix, de l'inventaire et de la richesse de l'agent. Le processus utilise une structure de réseau neuronal à action directe entièrement connectée avec des entrées de temps et d'inventaire. Cependant, les entrées peuvent être généralisées de plusieurs manières pour inclure plus d'entrées que les paramètres de préférence de risque utilisés dans la vidéo à des fins d'illustration.

  • 00:20:00 Laura Leal explique la structure du réseau de neurones utilisé pour le contrôle des risques dans la finance à haute fréquence. Le réseau n'est pas très profond, mais il est récurrent, réutilisant la même structure à chaque pas de temps pour mettre à jour les poids simultanément. L'entrée du réseau est le temps et l'inventaire, et la sortie est le contrôle, qui est le réseau de neurones lui-même, produisant pour chaque pas de temps une certaine quantité de stocks à échanger. L'apprentissage par transfert est utilisé pour simuler des données à l'aide de Monte Carlo au lieu d'utiliser des données financières coûteuses ou rares. Les données utilisées proviennent de la Bourse de Toronto de janvier 2008 à décembre 2009, et le réseau neuronal est utilisé pour résoudre les problèmes de queues lourdes, d'autocorrélation et de saisonnalité intrajournalière.

  • 00: 25: 00 Dans cette section, Laura Leal explique le processus de projection du contrôle atteint par le réseau neuronal sur l'espace des fonctions linéaires de q en utilisant la régression linéaire pour trouver les termes beta1 et beta2 pour déterminer le r au carré, montrant combien de les fonctions non linéaires du réseau de neurones peuvent être projetées sur l'espace des commandes de forme fermée. Les résultats ont montré que lors de l'ajout de fonctionnalités au code, telles que la saisonnalité et l'apprentissage des paramètres d'aversion au risque de l'agent, il y avait un impact significatif sur la réaction du modèle au marché, mais lorsque l'on considère gamma égal à 3 sur 2, il y avait un non -solution linéaire pour le réseau de neurones.

  • 00:30:00 Laura examine les performances et la précision du contrôle du réseau neuronal lors de l'exécution de transactions pour la finance à haute fréquence. Elle compare la fonction de valeur et la richesse du marché pour différents scénarios et valeurs gamma. Elle évalue également l'erreur relative dans la projection et note que même si le réseau de neurones a de meilleures performances, il s'exécute d'une manière non linéaire différente du contrôle connu. Cela soulève des questions sur l'opportunité d'échanger ou non en utilisant le réseau de neurones et sur la marge à définir en fonction de sa distance par rapport à la solution connue confortable.

  • 00:35:00 Dans cette section, Laura discute de ses découvertes sur le contrôleur multi-préférences pour une exécution optimale dans la finance à haute fréquence. Leal a constaté que la solution de réseau neuronal prend plus de temps à s'exécuter que la solution PDE pour tous les ensembles de paramètres, car la première réagit à la saisonnalité. Cependant, avec cette approche, les traders peuvent entrer leurs paramètres de conversion de risque actuels et commencer à trader immédiatement avec quelque chose qui a déjà été formé. Leal propose également l'explicabilité à travers une idée de projection qui utilise une régression linéaire et une version multi-préférences du même problème pour supprimer une partie de la charge de calcul. De plus, Leal discute d'autres articles dans sa thèse et comment cette idée d'approximation de réseau neuronal peut être appliquée à de nombreux autres problèmes financiers, y compris la couverture.

  • 00:40:00 Laura Leal discute du processus de formation du réseau de neurones utilisé dans la finance à haute fréquence. Elle explique que le réseau est formé hors ligne, plutôt que par l'apprentissage par renforcement en ligne, afin d'éviter les problèmes de latence. Une fois que le réseau a été formé, il prend en temps et en inventaire des entrées, potentiellement avec des paramètres d'aversion au risque, et produit un taux. L'utilisateur final n'a pas besoin de comprendre le fonctionnement interne du réseau. Leal explique également la procédure de réglage fin utilisée dans l'apprentissage par transfert, qui consiste à passer à des incréments de données réelles de la Bourse de Toronto après la convergence du réseau. Enfin, elle aborde des questions sur le prétraitement et l'optimisation, soulignant l'importance d'utiliser des données du monde réel et une dynamique précise dans le processus de formation.

  • 00:45:00 Dans cette section de la vidéo, Laura Leal discute des entrées et de la fonction objective utilisées dans le réseau de neurones pour la finance à haute fréquence. Le réseau neuronal prend l'inventaire en proportion du volume moyen de ce stock au cours d'une journée, qui est pris comme une valeur comprise entre moins un et un. La fonction objectif est un problème de maximisation avec la sortie étant un contrôle, et la structure du réseau neuronal est basée sur l'approximation de la fonction. Leal explique également qu'il existe deux nœuds d'entrée et quatre couches cachées dans la structure du réseau neuronal. Enfin, elle aborde une question sur la différence entre deux solutions de contrôle et précise qu'elle pourrait être interprétée à la suite de l'évolution de l'utilité de l'investisseur.

  • 00: 50: 00 Laura discute des différences entre les modèles gamma 2 et trois moitiés et leurs fonctions d'utilité. Elle explique qu'avec gamma 2, la solution n'est plus une solution de forme fermée, et à la place, une solution approchée est produite via un réseau de neurones. La raison du choix du gamma trois moitiés était due au fait de le tester avec de vrais commerçants au sein d'une entreprise, et cela a abouti à de bonnes performances. De plus, Leal confirme que la sortie du réseau neuronal peut être observée et analysée, et ils savent quelles positions il prend et comment ils changent tout au long de la journée.

  • 00: 55: 00 Dans cette section, Laura Leal discute des défis liés à la réalisation d'un contrôle fonctionnel pour la finance à haute fréquence. Bien qu'un processus de contrôle moyen puisse donner un aperçu de l'apparence de l'exécution d'une transaction, il peut ne pas être tout à fait exact lorsqu'il s'agit d'une seule trajectoire. Elle aborde également une question sur l'utilisation d'une méthode à deux blocs pour l'optimisation et explique comment la méthode devrait s'adapter à l'évolution de la dynamique, comme avec les stocks de mèmes. Dans l'ensemble, la présentation de Leal met en lumière les subtilités de la création de contrôles fonctionnels pour les finances à haute fréquence.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
  • 2021.11.17
  • www.youtube.com
Laura Leal (Princeton University) is our last speaker for the Fall 2021 seminar series. Her topic is called "Learning a Functional Control for High-Frequency...
 

Zihao Zhang (Oxford-Man Institute) - "Apprentissage en profondeur pour le marché par données de commande"



Zihao Zhang (Oxford-Man Institute) - "Apprentissage en profondeur pour le marché par données de commande"

Zihao Zhang, chercheur postdoctoral à l'Oxford-Man Institute et membre du groupe de recherche sur l'apprentissage automatique, présente les travaux récents de son équipe sur l'application de l'apprentissage en profondeur au marché des données de commande. Ils se concentrent sur les données de microstructure du marché, en particulier le carnet d'ordres à cours limité, qui fournit des informations précieuses sur la dynamique globale de la demande et de l'offre pour un instrument financier spécifique. En combinant les données du marché par ordre et du carnet d'ordres à cours limité, Zhang et son équipe ont découvert qu'ils pouvaient réduire la variance du signal et obtenir de meilleurs signaux prédictifs. Cette application de leur modèle offre un potentiel pour améliorer l'exécution des transactions et les stratégies de tenue de marché.

Zhang commence sa présentation en fournissant une brève introduction aux données de microstructure du marché, en insistant spécifiquement sur l'importance des données de marché par commande. Cette source de données offre des informations très granulaires, fournissant des mises à jour et des événements fréquents par rapport aux données du carnet d'ordres limités, qui ont reçu plus d'attention dans la littérature existante. Il présente leur modèle d'apprentissage en profondeur, expliquant les architectures de réseau qu'ils ont conçues pour analyser le marché par les données de commande. Zhang souligne que leur travail représente le premier modèle prédictif utilisant des données de marché par commande pour prévoir les mouvements à haute fréquence, offrant une source alternative d'informations qui élargit les possibilités de découverte alpha.

Ensuite, Zhang se penche sur le concept du carnet d'ordres à cours limité, qui sert de registre complet de tous les ordres à cours limité en cours pour un instrument financier à un moment donné. Il souligne que si les données graphiques offrent des informations à basse fréquence, le prix d'une action est en fait représenté par le carnet d'ordres à cours limité, qui est une série chronologique multivariée. Zhang explique comment le carnet d'ordres à cours limité est organisé en différents niveaux de prix en fonction des commandes soumises, chaque niveau de prix étant composé de nombreux petits ordres segmentés par différents commerçants. Il explique également comment le carnet de commandes est mis à jour lorsque de nouveaux messages arrivent, ce qui peut introduire de nouvelles positions, annuler des commandes existantes ou modifier des commandes en cours. Zhang souligne que les données dérivées du carnet d'ordres à cours limité révèlent la relation globale entre l'offre et la demande pour un instrument financier spécifique, et son objectif est de déterminer si l'utilisation des données du marché par ordre, contenant des informations sur le placement et l'annulation des ordres, peut fournir des informations supplémentaires. pour faire des pronostics.

À l'avenir, Zhang explore comment les données du marché par commande peuvent être utilisées dans l'apprentissage en profondeur pour prédire les mouvements du marché. Bien que les chaînes de messages dans les données d'ordre au marché possèdent des dimensions inférieures par rapport au carnet d'ordres à cours limité, elles offrent des informations supplémentaires qui peuvent être exploitées pour les prédictions. Zhang explique comment les événements passés peuvent être transformés en matrices 2D, formant des images qui peuvent être introduites dans un réseau de neurones pour la prédiction. Les caractéristiques résultantes de la couche convolutive peuvent ensuite être intégrées dans les couches neurales récurrentes pour apprendre la structure et capturer des dépendances supplémentaires. La couche finale produit des prédictions basées sur une configuration de classification utilisant des rendements de seuil.

Zhang poursuit en discutant de l'architecture de réseau utilisée pour faire des prédictions à l'aide des données du carnet d'ordres à cours limité. Dans ce cas, les deux premiers composants sont remplacés par des messages de commerçants individuels, et les couches convolutionnelles sont remplacées par une couche LSTM ou une couche d'attention. Zhang explique brièvement le mécanisme d'attention, qui facilite la prédiction en un seul point et implique une structure d'encodeur-décodeur. L'encodeur extrait les caractéristiques significatives des heures d'entrée et les résume dans un état caché, tandis que le décodeur génère la prédiction. La normalisation est utilisée pour déterminer si un ordre est un achat ou une vente sur la base du prix moyen.

Dans la section suivante, Zhang présente les résultats de leur modèle formé avec un groupe d'actifs, normalisé à une échelle similaire et testé à l'aide de différents modèles tels que le modèle linéaire simple, le perceptron multicouche, le LSTM et le modèle d'attention, incorporant à la fois l'ordre limite les données du livre et les données ambiantes pures. Les résultats indiquent que les signaux prédictifs des données ambiantes présentent moins de corrélation avec les signaux du carnet d'ordres limités, ce qui suggère qu'une combinaison de ces deux sources peut réduire la variance du signal, bénéficier de la diversification et produire des signaux prédictifs supérieurs. Par conséquent, un modèle d'ensemble qui fait la moyenne des signaux prédictifs des deux types de données présente les meilleures performances.

Zhang poursuit en discutant des avantages potentiels de l'intégration des données de marché par commande (MBO) dans les prévisions et met en évidence la possibilité d'effectuer une ingénierie des fonctionnalités avec ces données. Il présente les résultats pour des horizons de prédiction allant de deux à 20 ticks à venir, notant des comportements similaires observés pour 50 et 100 ticks à venir. Zhang répond également aux questions du public, notamment la possibilité de former un modèle unique en utilisant tous les instruments pour une meilleure généralisation et la source des données MBO de la Bourse de Londres. En réponse à la question d'un membre du public sur le fait de se concentrer sur NF1 au lieu de PNL, Zhang est d'accord et reconnaît que PNL est une mesure plus pertinente du succès.

Zhang discute en outre de l'utilisation des signaux prédictifs et des différentes façons de les définir, comme l'utilisation d'un signal brut ou la définition d'un seuil basé sur des probabilités softmax. Il résume les points clés de l'article, qui propose de modéliser les données du marché par ordre (MBO) au lieu des données du carnet d'ordres limités et de tester des modèles d'apprentissage en profondeur, y compris le mécanisme de rétention LSTM. Les résultats indiquent qu'une combinaison de MBO et de données du carnet d'ordres à cours limité donne les meilleurs résultats. Zhang répond aux questions du public concernant l'autocorrélation entre les mouvements du marché, le filtrage des échanges de bruit et la motivation pour l'utilisation des couches CNN dans la modélisation des images d'ordre limite.

Dans la section suivante, Zhang explique comment le carnet de commandes peut être traité comme une structure spatiale qui peut être explorée efficacement à l'aide de réseaux de neurones convolutifs (CNN). L'utilisation d'un CNN pour extraire des informations de chaque niveau de prix s'est avérée utile pour les prévisions. La couche de mémoire longue à court terme (LSTM) est choisie parmi les perceptrons multicouches car elle maintient le flux temporel de données et résume les événements passés pour faire des prédictions. Zhang note que les avantages de l'utilisation d'un mécanisme d'attention sont limités en raison de la nature des séries chronologiques financières. L'article comprend une description détaillée des hyperparamètres utilisés dans leur modèle.

Zhang répond à la préoccupation concernant le grand nombre de paramètres utilisés dans les méthodes de réseau neuronal et leur efficacité dans la prédiction du marché boursier. Il reconnaît que l'abondance de paramètres peut faire l'objet de critiques, mais souligne que son équipe n'a affiné que quelques paramètres spécifiques à leur modèle. Ils n'ont pas encore envisagé d'utiliser l'écart acheteur-vendeur comme critère de succès, mais reconnaissent son potentiel pour une exploration plus approfondie. Zhang pense que leur modèle a une valeur pratique pour l'exécution des transactions et les stratégies de création de marché. Cependant, il mentionne que si l'on a l'intention de franchir le spread, un sous-échantillonnage des données peut être nécessaire, car les mises à jour fréquentes des données du carnet d'ordres peuvent compliquer l'exécution des transactions. Enfin, lors de la modélisation du carnet d'ordres à cours limité Elo, ils agrègent la taille totale à chaque niveau de prix plutôt que d'inclure des informations sur les tailles d'ordre individuelles.

Dans la dernière section, Zhang explique les différences entre le marché par commande et le marché par prix. Les données de marché par commande permettent de suivre les commandes individuelles, ce qui n'est pas possible avec les données de marché par prix. Avec une ingénierie de fonctionnalités appropriée, les données de marché par commande peuvent fournir des informations supplémentaires et générer de l'alpha. Zhang explique également comment son modèle traite les modifications du prix d'un ordre à cours limité spécifique tout en gardant la taille inchangée. Chaque nouveau message avec des prix mis à jour est traité comme une nouvelle mise à jour, enrichissant le jeu de données.

Dans l'ensemble, la présentation de Zihao Zhang présente l'application de l'apprentissage en profondeur au marché par les données de commande, soulignant son potentiel pour extraire des informations précieuses à partir des données de microstructure du marché. En combinant les données du marché par ordre et du carnet d'ordres à cours limité, l'équipe de Zhang a démontré la réduction de la variance du signal et la génération de signaux prédictifs améliorés. Leur travail est prometteur pour améliorer l'exécution des transactions et les stratégies de tenue de marché, offrant une contribution précieuse au domaine de l'analyse des marchés financiers.

  • 00:00:00 Zihao Zhang, postdoctorant à l'Oxford Man Institute et membre du groupe de recherche sur l'apprentissage automatique, présente ses travaux récents avec Brian Ling et Stefan Loren sur l'application d'un modèle d'apprentissage en profondeur à la commercialisation des données par commande. Zhang commence par une brève introduction des données sur la microstructure du marché, y compris le carnet d'ordres à cours limité et le marché par données d'ordre. Il souligne que cette dernière est sans doute la source d'informations la plus granulaire, fournissant plus de mises à jour et d'événements par rapport aux données du carnet d'ordres limités, et pourtant est largement négligée dans la littérature actuelle. Zhang présente leur modèle d'apprentissage en profondeur et discute des architectures de réseau qu'ils ont conçues pour ce type de données. Il souligne également que leur travail est le premier modèle prédictif utilisant des données de marché par commande pour prévoir les mouvements à haute fréquence et qu'il fournit une source orthogonale d'informations qui élargit l'univers de la découverte alpha.

  • 00: 05: 00 Zihao explique le concept d'un carnet d'ordres à cours limité, qui est un enregistrement de tous les ordres à cours limité en cours pour un instrument financier à un moment donné. Il souligne que si les données graphiques fournissent des informations à basse fréquence, le prix d'une action est en fait une série chronologique multivariée représentée par le carnet d'ordres à cours limité. Zhang explique comment le carnet d'ordres à cours limité est trié en différents niveaux de prix en fonction des commandes soumises, et chaque niveau de prix se compose de nombreux petits ordres qui sont segmentés par différents commerçants. Il explique également comment le carnet de commandes est mis à jour lorsqu'un nouveau message arrive, ce qui peut ajouter une nouvelle position, annuler une commande existante ou mettre à jour des commandes existantes. Zhang note que les données dérivées du carnet d'ordres limités montrent la relation globale entre l'offre et la demande pour un instrument financier spécifique, et son objectif est de voir si l'utilisation des données du marché par ordre, qui contient des informations sur le placement et l'annulation des ordres, peut fournir des informations supplémentaires pour faire des prédictions.

  • 00: 10: 00 Zihao Zhang explique comment les données sur les ordres du marché peuvent être utilisées pour un apprentissage en profondeur afin de faire des prédictions sur les mouvements du marché. Bien que les chaînes de message dans les données d'ordre au marché soient de dimension inférieure à celle du carnet d'ordres à cours limité, elles fournissent des informations supplémentaires qui peuvent être utilisées pour les prédictions. Zhang explique que les images d'événements passés peuvent être formées sous forme de matrice 2D et entrées dans un réseau neuronal pour la prédiction. Les caractéristiques résultantes de la couche convolutive peuvent ensuite être placées dans les couches neurales récurrentes pour apprendre la structure et les dépendances supplémentaires. La couche finale génère des prédictions basées sur une configuration de classification utilisant des rendements de seuil.

  • 00: 15: 00 Zihao Zhang de l'Oxford-Man Institute explique l'architecture de réseau utilisée pour faire des prédictions à partir des données du carnet d'ordres limités, où les deux premiers composants sont remplacés par des messages de commerçants individuels et les couches convolutives sont remplacées par une couche LSTM ou attention couche. Zhang explique également brièvement le mécanisme d'attention, qui est utilisé pour la prédiction à point unique dans ce cas et implique une structure d'encodeur et de décodeur, l'encodeur extrayant des caractéristiques significatives des temps d'entrée et les résumant à un état caché, tandis que le décodeur génère la prédiction. . La normalisation est utilisée pour déterminer si un ordre est un achat ou une vente sur la base du prix moyen.

  • 00: 20: 00 Dans cette section de la vidéo, Zihao Zhang présente les résultats du modèle entraîné avec un groupe d'actifs, normalisé à une échelle similaire et testé sur différents modèles comme le modèle linéaire simple, les perceptions multicouches, LSTM et modèle d'attention utilisant à la fois des données de groupe d'ordre limite et des données ambiantes pures. Les résultats montrent que les signaux prédictifs des données ambiantes sont moins corrélés avec les signaux du carnet d'ordres limites, ce qui suggère qu'une combinaison de ces deux signaux peut réduire la variance du signal, bénéficier de la diversification et produire de meilleurs signaux prédictifs. Ainsi, le modèle d'ensemble qui fait la moyenne des signaux prédictifs des deux types de données donne les meilleures performances.

  • 00: 25: 00 Zihao Zhang discute des avantages potentiels de l'intégration de données de marché par commande (MBO) dans les prévisions et mentionne la possibilité de faire de l'ingénierie de caractéristiques avec les données. Les résultats pour l'horizon de prédiction de 2 à 20 ticks à venir ont été présentés, avec des comportements similaires observés pour 50 et 100 ticks à venir. Zhang répond également aux questions de mise en œuvre du public, y compris la capacité de former un modèle unique en utilisant tous les instruments pour une généralisation améliorée et l'origine des données MBO de la Bourse de Londres. Un membre de l'auditoire pose des questions en se concentrant sur NF1 au lieu de PNL, ce à quoi Zhang est d'accord et reconnaît que PNL est une mesure plus pertinente du succès.

  • 00:30:00 Zihao Zhang discute de l'utilisation des signaux prédictifs et des différentes manières de les définir, comme l'utilisation d'un signal brut ou la définition d'un seuil de probabilité à partir du softmax. Il résume l'article, qui propose de modéliser les données du marché par ordre (MBO) au lieu des données du carnet d'ordres limités et de tester des modèles d'apprentissage en profondeur, y compris le mécanisme de rétention LSTM. Les résultats montrent qu'une combinaison des données MBO et du carnet d'ordres à cours limité donne les meilleurs résultats. Zhang répond également aux questions du public sur la corrélation automatique entre les mouvements du marché, le filtrage des échanges de bruit et la motivation pour utiliser les couches CNN dans la modélisation des images d'ordres limités.

  • 00:35:00 Dans cette section de la vidéo, Zihao Zhang de l'Oxford-Man Institute explique comment le carnet de commandes peut être traité comme une structure spatiale qui peut être explorée en utilisant les mêmes couches. L'utilisation d'un réseau neuronal convolutif (CNN) pour extraire des informations de chaque niveau de prix s'est avérée utile pour les prévisions. La couche de mémoire longue à court terme (LSTM) a été choisie par rapport aux perceptions multicouches car elle ne déforme pas le flux temporel et résume les événements passés pour faire des prédictions. Les avantages de l'utilisation d'un mécanisme d'attention se sont avérés limités en raison de la propriété des séries chronologiques financières. Le document comprend une description détaillée des hyperparamètres utilisés.

  • 00: 40: 00 Zihao Zhang discute du nombre de paramètres utilisés dans les méthodes de réseau neuronal et de leur efficacité pour prédire le marché boursier. Il note que si le grand nombre de paramètres peut être une critique des méthodes de réseau neuronal, lui et son équipe n'ont réglé que quelques paramètres pour leur modèle spécifique. Ils n'ont pas envisagé d'utiliser l'écart acheteur-vendeur comme critère de succès, mais reconnaissent qu'il pourrait être exploré plus avant. Zhang pense que l'application de leur modèle est utile pour l'exécution des transactions et les stratégies de tenue de marché, mais si l'on veut traverser l'écart, il peut être nécessaire de sous-échantillonner les données pour effectuer une transaction, car les données du livre peuvent souvent avoir trop de mises à jour pour faire un commerce. Enfin, lors de la modélisation du carnet d'ordres à cours limité Elo, ils agrègent la taille totale à chaque niveau de prix au lieu d'inclure des informations sur les tailles d'ordre individuelles.

  • 00:45:00 Dans cette section, Zihao Zhang, de l'Oxford-Man Institute, explique les différences entre le marché par commande et le marché par prix. Les données du marché par commande permettent de suivre les commandes individuelles, ce qui n'est pas possible avec les données du marché par prix. Avec une ingénierie de fonctionnalités appropriée, les données du marché par commande peuvent fournir des informations supplémentaires et générer de l'alpha. De plus, Zhang explique comment son modèle traite les modifications de prix d'un ordre à cours limité particulier tout en gardant la taille inchangée. Il explique que chaque nouveau message avec des prix mis à jour est traité comme une nouvelle mise à jour.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
  • 2021.10.27
  • www.youtube.com
Next up in the Cornell-Citi webinar series is Dr. Zihao Zhang, who spoke on Tuesday, Oct. 26.Abstract: Market by order (MBO) data - a detailed feed of indiv...
 

Vineel Yellapantula (Cornell MFE '20): "Quantifier le texte dans les dépôts auprès de la SEC"


Vineel Yellapantula (Cornell MFE '20): "Quantifier le texte dans les dépôts auprès de la SEC"

Vineel Yellapantula présente son projet d'été, qui implique l'application de techniques de traitement du langage naturel (NLP) pour négocier des actions sur la base d'informations textuelles trouvées dans les documents déposés auprès de la SEC, en se concentrant particulièrement sur la section MD&A. L'objectif du projet est d'attribuer un score à chaque rapport des 430 actions présentes sur le marché américain et d'analyser leur performance en les regroupant en cinq quantiles en fonction du score. Yellapantula utilise des méthodes traditionnelles telles que le cosinus et la similarité Jaccard pour déterminer le score de similarité entre les textes, la similarité Jaccard s'avérant plus cohérente dans le temps. Il explore également la création d'un modèle d'analyse des sentiments utilisant des réseaux de neurones récurrents (RNN) avec Keras sur un ensemble de données textuelles, atteignant une précision impressionnante de 87,5 % avec son modèle.

Au cours de la présentation, Yellapantula a souligné l'importance de sélectionner la méthode appropriée pour chaque problème spécifique et d'incorporer des données supplémentaires pour améliorer les résultats. Il souligne l'abondance d'informations disponibles grâce aux données textuelles, en particulier dans les dépôts 10-K, et mentionne que les facteurs développés à l'aide de documents antérieurs peuvent être plus efficaces que ceux qui s'appuient uniquement sur le présent document. Yellapantula indique diverses alternatives pour utiliser des techniques d'apprentissage en profondeur avec des données textuelles, notamment les gants, word2vec, BERT et RNN. Il suggère en outre d'incorporer davantage de sources de données, telles que les dépôts 8-K et les cycles d'actualités, pour améliorer le pouvoir prédictif des modèles. Cependant, il reconnaît la présence d'un biais de sélection dans son étude, car elle se concentre sur les actions performantes présentes dans l'indice de 2007 à 2020.

Dans la section dédiée à l'analyse des sentiments, Yellapantula explique le processus de création d'un modèle utilisant les RNN avec Keras. Les étapes consistent à symboliser le texte pour comprendre sa signification, à réduire la dimensionnalité par des intégrations et à utiliser une couche LSTM et une couche dense avec une fonction sigmoïde pour la classification des sentiments. Il démontre l'application de cette approche en utilisant des revues IMDB, en limitant la longueur de la revue à 500 mots et en complétant les revues plus courtes avec des zéros pour maintenir la cohérence. Grâce à une évaluation rigoureuse, Yellapantula atteint un taux de précision de 87,5 % avec son modèle d'analyse des sentiments.

De plus, Yellapantula souligne l'importance de la corrélation des informations pour déterminer l'efficacité des facteurs et leur cohérence dans le temps. Il fait référence à une étude qui suggère que les entreprises avec des rapports stables ont tendance à bien performer, indiquant qu'il s'agit d'un facteur prometteur à explorer. En conclusion, Yellapantula exprime sa gratitude au public pour son intérêt et attend avec impatience de nouveaux engagements à l'avenir.

Le projet de Vineel Yellapantula démontre l'application des techniques NLP pour extraire des informations précieuses à partir d'informations textuelles dans les dépôts auprès de la SEC. En attribuant des notes aux rapports et en analysant leurs performances, son travail contribue à comprendre comment la langue peut influencer les transactions boursières. De plus, son exploration de l'analyse des sentiments à l'aide de RNN met en évidence le potentiel de l'apprentissage en profondeur dans la capture de sentiments à partir de données textuelles. Grâce à une sélection rigoureuse de la méthodologie et à l'incorporation de sources de données supplémentaires, Yellapantula met l'accent sur la possibilité d'améliorer la précision et l'efficacité de ces modèles.

  • 00: 00: 00 Dans cette section, Vineel Yellapantula décrit son projet d'été qui impliquait l'utilisation de techniques de traitement du langage naturel (NLP) pour négocier des actions sur la base d'informations textuelles présentes dans les documents déposés auprès de la SEC, en particulier la section MD&A. Le projet s'est concentré sur la recherche d'un score pour chaque rapport des 430 actions présentes sur le marché américain et sur l'analyse de leurs performances après les avoir regroupées en cinq quantiles en fonction du score. Vineel a utilisé des méthodes traditionnelles telles que le cosinus et la similarité jaccard pour trouver un score de similarité entre les textes, la similarité jaccard s'avérant plus cohérente dans le temps. Vineel mentionne également que des techniques d'apprentissage en profondeur telles que les RNN peuvent être utilisées à cette fin.

  • 00:05:00 Dans cette section, Vineel Yellapantula explique comment créer un modèle d'analyse des sentiments à l'aide de réseaux de neurones récurrents (RNN) avec des keras sur un ensemble de données textuelles. Le processus consiste à symboliser le texte pour comprendre sa signification, à réduire la dimensionnalité à l'aide d'incorporations, puis à utiliser une couche LSTM et une couche dense avec une fonction sigmoïde pour classer le sentiment du texte. Vineel montre comment il a traité les données à l'aide des revues IMDB, en limitant la longueur des revues à 500 mots et en remplissant les plus courtes avec des zéros pour maintenir la cohérence de la longueur. Il a pu atteindre une précision de 87,5% avec son modèle.

  • 00: 10: 00 Dans cette section de la vidéo, Vineel Yellapantula discute de l'abondance d'informations disponibles via les données textuelles, en particulier dans les dépôts 10-K. Il note que de nombreux facteurs peuvent être développés grâce à ces dépôts, et les facteurs qui utilisent des documents antérieurs peuvent être plus efficaces que ceux qui se concentrent uniquement sur le présent document. De plus, Yellapantula souligne qu'il existe diverses alternatives pour utiliser l'apprentissage en profondeur avec des données textuelles, telles que gant, word2vec, BERT et RNN. Il souligne que la sélection de la bonne méthode pour le problème spécifique est cruciale, et l'incorporation de plus de données, telles que les dépôts 8-K et les cycles d'actualités, peut conduire à de meilleurs résultats. Enfin, Yellapantula reconnaît qu'il existe un certain biais de sélection dans son étude puisqu'il s'est concentré sur les actions performantes présentes dans l'indice de 2007 à 2020.

  • 00: 15: 00 Dans cette section, Vineel Yellapantula discute de l'importance de la corrélation des informations pour déterminer si un facteur fonctionne ou non, ainsi que de la cohérence des facteurs dans le temps. Il mentionne également une étude qui a révélé que les entreprises avec des rapports stables fonctionnent bien, indiquant qu'il s'agit d'un bon facteur à explorer. Il conclut en remerciant le public pour son intérêt et se réjouit de les voir à l'automne.
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
  • 2021.05.12
  • www.youtube.com
CFEM alumnus Vineel Yellapantula discusses his summer project at AbleMarkets under Prof. Irene Aldridge, “Quantifying Sentiment in SEC Filings.” By utilizing...
 

Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Université de Parme)



Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Université de Parme)

Peter Carr présente un produit financier appelé "stoptions" qui combine les caractéristiques des contrats à terme et des options de vente. Les arrêts permettent au propriétaire d'éviter des changements de prix défavorables en incorporant un élément d'option de vente bermudien. Carr explique le concept d'options et donne un exemple d'une option de trois jours avec différents étages associés. Il passe ensuite à la discussion de l'évaluation des arrêts d'un jour et de deux jours, ces derniers ayant deux étages et la flexibilité d'exercer le premier ou le deuxième jour.

Carr explore en outre l'évaluation de l'arrêt sur de plus longues périodes en se plongeant dans la récursivité arrière, l'évaluation d'un put marié et l'utilisation de pseudo-sommes. Il suggère d'utiliser la distribution logistique pour représenter les variations de prix des options de vente mariées. La valeur des arrêts peut être obtenue à l'aide de formules simples pour les options "à parité", et l'évaluation et la couverture peuvent être effectuées de manière analytique.

Carr conclut l'article en discutant des défis associés à l'adoption de telles options par le marché. Il souligne l'importance de trouver un acheteur et un vendeur pour ces produits et partage ses conversations avec des acheteurs et des vendeurs potentiels. De plus, Carr reconnaît que le modèle d'arrêt est une alternative aux modèles existants comme Black-Scholes et Bachelier, mais il peut ne pas s'adapter de manière optimale à toutes les situations. Néanmoins, il souligne que leur modèle vise à capturer la multitude d'opérations binaires ayant une signification particulière en finance.

Dans une section ultérieure, Carr et Lorenzo Torricelli proposent un modèle « d'arrêt » utilisant un paradigme conjugué et une distribution logistique. Ce modèle offre une flexibilité dans la structure des termes avec un seul paramètre, permettant l'adaptation de diverses structures de termes en une seule grève. Cependant, il peut ne pas correspondre parfaitement au marché en raison de son graphique de volatilité implicite en pente descendante. Les auteurs reconnaissent les limites de leur modèle et reconnaissent les innombrables opérations binaires en finance que leur modèle vise à capturer. Ils discutent de l'optionnalité entre une grève et une seule option, ainsi que de l'optionnalité répétée par pseudo sommation. La section se termine par une appréciation mutuelle et l'anticipation d'assister aux séminaires de l'autre.

  • 00:00:00 Peter Carr présente les "stoptions", un nouveau produit financier hybride entre un contrat à terme et une option de vente. L'arrêt a un actif sous-jacent et une durée fixe, et un suivi quotidien, le propriétaire accumulant chaque changement de prix du sous-jacent. L'arrêt diffère d'un contrat à terme en ce que le propriétaire peut éviter une variation de prix défavorable, grâce à l'élément d'option de vente. Le put est bermudien, ce qui signifie que le propriétaire peut l'exercer à la fin de n'importe quelle journée, en remplaçant le changement de prix de ce jour par un plancher, une constante spécifiée contractuellement qui peut être n'importe quelle fonction du temps.

  • 00:05:00 Peter Carr explique le concept d'options et leur fonctionnement dans les accords financiers. Une option est un produit financier qui permet de choisir le moment d'arrêter l'exposition aux variations de prix tant qu'il y a plus d'un jour dans le contrat d'arrêt de tir, offrant une flexibilité. On ne peut exercer une option qu'une seule fois, et à ce moment-là, on doit l'exercer. Le terme option fait référence au moment où il faut arrêter l'exposition au sous-jacent en l'exerçant. Carr illustre ce concept avec un exemple d'option de trois jours et décrit les trois étages différents associés à cette option. Le contrat expire alors lorsque l'on exerce l'option, ce qui ne doit se produire qu'une seule fois. Bien que ces contrats ne soient pas négociés actuellement, ils sont intégrés à de nombreux accords financiers.

  • 00: 10: 00 Peter Carr discute d'un exemple de contrat avec le style d'exercice des Bermudes appelé "stoptions". Bien qu'il ne se négocie pas directement, les stoptions peuvent aider à comprendre les swaptions des Bermudes et leurs différences par rapport aux options écrites sur les niveaux de prix. En supposant iid changements de prix, l'évaluation d'arrêt est réduite à une itération de fonction, et en imposant une hypothèse distributionnelle particulière sur les changements de prix, l'évaluation est réduite à une pseudo addition. Les informations tirées des arrêts peuvent être utilisées pour les options des Bermudes négociées de manière liquide, et Carr poursuit en expliquant l'évaluation des arrêts d'un jour et de deux jours. Les arrêts d'un jour paient un plancher fixe, tandis que les arrêts de deux jours ont deux étages et peuvent être exercés le premier ou le deuxième jour.

  • 00: 15: 00 cette section, Peter Carr discute du gain à la fin de la deuxième journée si l'exercice est fait sur-le-champ. Appelé u1, il est calculé à la fin du premier jour. Carr note que puisque u1 est une constante connue à la fin du premier jour, il pourrait tout aussi bien être supposé à la fin du premier jour. De plus, Carr suggère de factoriser u1 au temps zéro et de changer le gain a1 en a1 - u1. Cela rend le gain similaire à un put marié ou à un put écrit sur u1, avec u1 ajouté au gain du put. Carr explique qu'une fois qu'un modèle d'évaluation d'une option vanille existe, une option sur plusieurs jours, y compris une option sur 2 jours, peut être évaluée en calculant le put intégré.

  • 00:20:00 Dans cette section, Peter Carr de NYU et Lorenzo Torricelli de l'Université de Parme expliquent comment évaluer les options de deux et trois jours en supposant que les augmentations de prix sont statistiquement indépendantes les unes des autres et ont la même distribution. Ils utilisent une hypothèse commune en statistique, connue sous le nom de iid (indépendante et identiquement distribuée), pour une séquence de variables aléatoires. Pour évaluer un put marié pour une option de deux jours, ils utilisent une notation qui implique une partie connue du gain, appelée a1, et le prix aujourd'hui de l'actif sous-jacent, appelé a2. Pour une option de trois jours, ils introduisent une valeur de continuation, qu'ils désignent par cv, et utilisent la programmation dynamique pour calculer sa valeur.

  • 00:25:00 Peter Carr explique le processus de récursivité arrière et l'évaluation d'une option de vente mariée. Il commence au deuxième jour car toutes les incertitudes nécessaires au problème sont résolues à la fin du deuxième jour. Il définit la valeur de continuation au jour deux avec une opportunité d'exercice restante, qui est le jour trois, puis revient au jour un pour calculer la valeur du gain et la valeur de continuation. Il revient ensuite au temps zéro à la date d'évaluation et calcule la valeur de continuation et le gain, qui est la valeur d'un put marié. La moyenne du gain aléatoire est la valeur de vente mariée qui a été calculée précédemment, et les paramètres contribuant à la distribution des variations de prix sont connus au temps zéro.

  • 00:30:00 Dans cette section, Peter Carr discute de l'évaluation d'un put marié avec un prix d'exercice A1 dont le sous-jacent est un autre put marié avec un prix d'exercice A2. Il explique que cette évaluation consiste à itérer une fonction, avec un paramètre qui peut différer à différents moments, et à permettre à la fonction de se composer. La fonction en cours d'itération est une fonction de valeur de style européen à la vanille mariée d'un jour, et Carr note qu'une fonction qui décrit cette valeur et itère sous forme fermée peut être trouvée en exploitant quelque chose appelé l'équation fonctionnelle associative. En évaluant directement la fonction de valeur de vente mariée et en exigeant qu'elle résolve l'équation fonctionnelle d'associativité, la distribution neutre au risque peut être déterminée à l'aide des résultats de Breeden-Litzenberger. La section se termine par une explication selon laquelle, avec une fonction d'un argument et un g inversible, la valeur de vente mariée peut être déterminée.

  • 00:35:00 Peter Carr explique le concept de pseudo-somme, qui est une combinaison de deux arguments dans une fonction. En utilisant une fonction inversible, cette quantité peut être utilisée pour trouver la valeur d'une option basée sur n à travers des pseudo-sommes répétées des planchers. Pour rendre cette méthode sans arbitrage, la fonction doit être choisie avec soin et représentée comme une espérance neutre au risque de son gain. Carr révèle que le générateur de cette méthode doit être un logarithme de n'importe quelle base et que le scalaire b doit être positif. L'option de vente mariée doit également être évaluée de manière appropriée en utilisant les inverses du log g naturel, ce qui nécessite une différenciation deux fois par rapport à l'exercice pour obtenir la fonction de distribution. En fin de compte, cette méthode consiste à reculer dans un facteur proportionnel de b, qui n'est pas l'écart-type, mais qui lui est proportionnel.

  • 00: 40: 00 Peter Carr discute de l'utilisation de la distribution logistique pour représenter les variations de prix de l'option de vente mariée. Il dérive une formule pour le put marié avec une grève a1 et une moyenne sous-jacente a2, en utilisant l'exponentielle d'un produit financier avec deux composants sous-jacents. Il se réfère à cela comme une pseudo-somme et élargit l'ensemble des nombres réels pour inclure moins l'infini comme élément neutre. Il explique que cela crée une structure monoïde commutative, ce qui n'est possible qu'avec une valorisation d'options sans arbitrage et une distribution logistique symétrique avec des queues exponentielles. La distribution logistique permet une fonction de distribution cumulative explicite et est considérée comme plus conviviale que la distribution normale. Carr suggère que l'échelle de la distribution logistique est une fonction croissante du temps jusqu'à l'échéance de l'option.

  • 00:45:00 Peter discute des "stoptions", un contrat qui combine les caractéristiques des options et des swaps. Les arrêts impliquent l'échange d'une variable aléatoire logistique contre une autre, où les variables sont indépendantes et identiquement distribuées. Pour évaluer un arrêt à n jours, il faut spécifier une fonction b de t qui relie la largeur de la distribution logistique à la longueur de l'horizon temporel. La valeur d'un arrêt bermudien avec planchers est donnée par des formules simples, et l'évaluation et la couverture peuvent être effectuées de manière analytique. Pour un arrêt "à parité", la valeur croît de manière simple, par le logarithme du temps.

  • 00: 50: 00 Peter Carr discute du modèle de tarification "stoptions", qui suppose des incréments iid et réduit l'évaluation à une évaluation de fonction itérée. En supposant une distribution logistique pour les incréments communs, le modèle se simplifie davantage en une pseudo somme d'un type particulier appelée fonction exponentielle de somme logarithmique. Les prix des titres sous-jacents doivent être rendus réels et non négatifs en raison de la responsabilité limitée. Le modèle peut être étendu aux actions, redéfinissant le contrat d'option pour multiplier les rapports de prix au lieu d'ajouter des incréments de prix. La distribution résultante pour prendre en charge une variable aléatoire positive est appelée digum de puissance conjuguée, qui est une distribution à queue lourde avec une asymétrie négative, ce qui en fait un bon choix. Il existe de futures opportunités de recherche pour ce modèle, et il peut être appliqué à des utilisations pratiques telles que des contrats synchronisés avec des réunions de la Réserve fédérale.

  • 00:55:00 Peter Carr, professeur à NYU, discute de l'adoption d'un type d'option par le marché et du processus de recherche d'un acheteur et d'un vendeur. Il parle de sa conversation avec le négociant en chef des produits exotiques de Bank of America, qui s'est montré intéressé par l'achat de l'option, et les vendeurs possibles, comme une compagnie d'assurance ou un régime de retraite. Le processus d'adoption implique de trouver un acheteur, et Peter partage qu'il a un appel Zoom prévu avec un ami qui travaille pour une compagnie d'assurance à cet égard. La conversation se termine par la discussion de Lorenzo Torricelli sur les modèles financiers basés sur la distribution logistique et les processus associés.

  • 01:00:00 Dans cette section, Peter Carr aborde les détails techniques de la structure de prélèvement des retours logarithmiques du modèle positif et des retours dans les modèles, qui incluent les processus de logistique logarithmique, de logistique asymétrique et de retour logistique. Il explique que ces processus sont des sauts purs et peuvent être considérés comme une famille temporelle divisible à l'infini, pour laquelle un théorème garantit l'existence d'un processus additif stochastiquement continu avec des incréments indépendants. De plus, ce processus additif prend en charge la distribution implicite des prix sous-jacente à la formule de distribution des titres. Carr explique ensuite comment ce processus est naturellement un marché et comment il possède de bonnes propriétés souhaitables qui prennent en charge des formules de tarification simples. Enfin, il présente les résultats de tests numériques et une comparaison de densité des modèles de tarification logistique avec des modèles normaux standards.

  • 01:05:00 Peter Carr discute des différences entre la forme de la distribution normale et logistique dans le modèle CPDA. Il note que dans le modèle CPDA, l'asymétrie et la forme de la distribution changent avec le temps, alors que dans le monde normal, cela ne se produit pas. En regardant la comparaison entre la distribution normale et logistique, il déclare que les distributions sont assez similaires, mais le kurtosis peut clairement être apprécié. Il montre également les résultats de sa structure de système cumulatif, où il observe qu'il peut générer des formes beaucoup plus flexibles, comme une variante d'explosion et une augmentation à court terme et très forte de l'asymétrie. Enfin, il discute des surfaces de volatilité implicites pour les modèles cpda, où il note que la surface de volatilité peut être flexible avec seulement quelques paramètres.

  • 01:10:00 Peter Carr de NYU et Lorenzo Torricelli de l'Université de Parme discutent de leur proposition de modèle de "stopoptions" qui utilise un paradigme conjugué et une distribution logistique pour créer une structure de terme complètement flexible avec un seul paramètre. Le paramètre un crée simultanément plus de largeur et plus d'asymétrie négative, mais doit être compris entre zéro et un pour éviter que la moyenne des moments n'existe pas. Le modèle peut s'adapter à n'importe quelle structure de termes en un seul exercice, mais peut ne pas toujours s'adapter au marché de manière optimale car il produit un graphique à pente descendante, contrairement aux graphiques à pente ascendante de la volatilité implicite par rapport à l'exercice. Carr et Torricelli reconnaissent que leur modèle est une alternative aux modèles Black-Scholes et Bachelier, mais prévoient que leur modèle ne sera pas assez bon pour toutes les situations. Ils soutiennent qu'il existe une infinité indénombrable d'opérations binaires avec des propriétés similaires à l'addition et à la multiplication qui ont une importance particulière pour la finance, que leur modèle vise à capturer.

  • 01:15:00 Dans cette section, Peter Carr et Lorenzo Torricelli discutent de l'idée d'optionalité entre un strike et un simple, comme une option européenne, ainsi que d'optionnalité répétée comme pseudo sommation répétée, qui est l'option Bermudes des remutants. Ils mentionnent l'importance de garder à l'esprit qu'il existe plus de deux ratios d'opérations binaires lors du choix d'une distribution, et terminent la discussion en se remerciant et en se réjouissant d'assister aux séminaires de chacun.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
  • 2021.04.14
  • www.youtube.com
Abstract: We introduce a new derivative security called a stoption. After paying an upfront premium, the owner of a stoption accrues realized price changes ...
 

Lorenzo Torricelli (Université de Parme) - "Processus logistiques additifs dans la tarification des options"



Lorenzo Torricelli (Université de Parme) - "Processus logistiques additifs dans la tarification des options"

Lorenzo Torricelli, professeur distingué à l'Université de Parme, plonge dans les subtilités de la tarification des options en explorant le modèle logistique additif et la spécification auto-similaire. Dans sa présentation éclairante, il élucide la formule de tarification des options vanille à l'aide de ces modèles innovants et illustre leur application en présentant une comparaison de densité entre le modèle de tarification logistique et les modèles normaux traditionnels.

En outre, Torricelli effectue une analyse de référence de la structure des termes cumulés pour le modèle logistique par rapport à une révolution linéaire de la structure des termes pour les modèles homogènes. Ses observations perspicaces révèlent que le modèle logistique offre beaucoup plus de flexibilité dans l'élaboration de la structure des termes, offrant ainsi un avantage notable par rapport aux approches conventionnelles.

Pour fournir une compréhension globale, Torricelli examine également les surfaces de volatilité associées à ces modèles. Il note la présence d'un biais positif dans le modèle résultant de la distribution asymétrique des retours logarithmiques et de l'aplatissement de la distribution logistique. Cependant, il met en évidence l'absence de biais dans la distribution logistique elle-même, car elle présente une symétrie. Torricelli discute en outre de l'impact des paramètres modaux sur la structure des termes de volatilité, reconnaissant le potentiel d'amélioration de la paramétrisation choisie.

En conclusion, Torricelli souligne que les formules d'options dérivées de ces modèles sont explicites et bien connues, facilitant leur mise en œuvre pratique. Il salue notamment la vitesse impressionnante démontrée lors du test de performance. En témoignage de la transparence et de la collaboration universitaire, Torricelli prévoit de rendre le code associé à ces modèles accessible au public, au profit des chercheurs et des praticiens.

  • 00:00:00 Lorenzo Torricelli de l'Université de Parme présente des modèles financiers basés sur la distribution logistique, en commençant par des équations d'évaluation pour les fonctionnelles d'option et les fonctions d'évaluation de la cabine de mérite. En prenant la dérivée par rapport à k, la distribution implicite du prix du titre est obtenue, et la fonction logistique est considérée comme étant associée au sous-jacent valorisé réel, tandis que la distribution logistique asymétrique est associée au processus de prix positif provenant de l'évaluation au mérite. . La structure infiniment divisible des distributions est considérée comme une famille temporelle, et l'existence d'un processus additif est vérifiée, résultant en des processus stochastiquement continus avec des incréments indépendants qui supportent la distribution implicite des prix et déterminent la formule de l'énoncé.

  • 00:05:00 Lorenzo Torricelli, professeur à l'Université de Parme, discute du modèle logistique additif et de la spécification auto-similaire dans la tarification des options. Il explique la formule de tarification des options vanille à l'aide des modèles et les instancie en termes de prix de la fonction terme. Il montre une comparaison de densité entre le modèle de tarification logistique et les modèles normaux et observe que la forme de la distribution du modèle logistique change avec le temps, contrairement à la forme de la distribution normale. Il compare également la structure des termes cumulés pour le modèle logistique à une révolution linéaire de la structure des termes pour les modèles homogènes et observe des formes beaucoup plus flexibles avec le premier.

  • 00:10:00 Lorenzo Torricelli discute des tracés du modèle CPDA et des surfaces de volatilité implicites pour les modèles SLA et CPDA. Les surfaces de volatilité montrent qu'il existe un biais dans le modèle positif en raison de la distribution asymétrique des rendements logarithmiques et de l'aplatissement de la distribution logistique. Cependant, il n'y a pas de biais dans la distribution logistique car elle est symétrique. Torricelli mentionne que les paramètres modaux ont également un impact similaire sur la structure des termes de volatilité et qu'il est possible d'améliorer la paramétrisation choisie. Dans l'ensemble, les formules d'options sont explicites et connues et le speed test a été très rapide. Le code sera également rendu public.
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
  • 2021.04.12
  • www.youtube.com
On April 13th, 2021, as part of the Cornell-Citi Financial Data Science Seminar Series, Lorenzo Torricelli explains his work on logistic models in conjunctio...
 

Yumeng Ding (Cornell MFE '20) - "Interprétation des modèles d'apprentissage automatique"



Yumeng Ding (Cornell MFE '20) - "Interprétation des modèles d'apprentissage automatique"

Yumeng Ding, un chercheur compétent, plonge dans le domaine de l'interprétation des modèles d'apprentissage automatique pour les prévisions de cours des actions. Dans son analyse complète, elle explore une gamme de méthodes d'interprétabilité, y compris les diagrammes de dépendance partielle, l'importance des caractéristiques de permutation, les statistiques de bord et LIME, pour faire la lumière sur le fonctionnement interne de ces modèles. En employant ces méthodes, Ding vise à démêler la contribution de facteurs individuels et leurs effets interactifs dans la prévision des cours boursiers.

L'étude de Ding s'articule autour de trois types de facteurs : technique, qualité et valeur, qui sont utilisés comme entrées pour divers modèles d'apprentissage automatique tels que les classificateurs et les régressions. En s'appuyant sur les méthodes d'interprétabilité mentionnées précédemment, elle démêle les relations complexes entre ces facteurs et les prévisions de cours des actions. Grâce à des backtests rigoureux, Ding découvre que les modèles non linéaires surpassent les modèles linéaires en termes de performances. De plus, elle observe que les effets de différents facteurs présentent des variations temporelles, soulignant la nature dynamique de la prévision du cours des actions. En fin de compte, Ding identifie AdaBoost comme le modèle le plus adapté à son scénario spécifique.

Surtout, Ding souligne l'importance des méthodes d'interprétabilité dans la compréhension des modèles d'apprentissage automatique. Elle souligne que si l'approche vectorielle fournit des informations rapides sur les interactions les plus prédictives, elle ne parvient pas à révéler la qualité de ces interactions. Ding souligne la valeur de l'utilisation de diagrammes de dépendance partielle bidimensionnels pour visualiser efficacement des interactions plus simples. De plus, elle recommande la méthode du tracé linéaire pour approfondir les subtilités des interactions individuelles et visualiser les effets locaux, tant que les données sont suffisamment claires du bruit.

Résumant ses conclusions, Ding met l'accent sur deux points clés de son projet. Premièrement, elle confirme que les modèles d'apprentissage automatique surpassent les régressions naïves linéaires dans la majorité des scénarios en raison de leur capacité à capturer des effets d'interaction complexes. Deuxièmement, elle met en évidence la faisabilité de l'interprétation des modèles d'apprentissage automatique en tirant parti d'une variété de méthodes d'interprétabilité. Ces techniques permettent aux chercheurs d'élucider les contributions individuelles des facteurs et de comprendre leurs influences interactives sur les prévisions.

  • 00:00:00 Yumeng Ding discute de son approche d'interprétation des modèles d'apprentissage automatique utilisés pour faire des prévisions de cours boursiers. Ils ont utilisé trois types de facteurs - technique, qualité et valeur - pour faire des prédictions à l'aide de divers modèles d'apprentissage automatique tels que des classificateurs et des régressions. Pour interpréter leurs modèles, ils ont utilisé des méthodes d'interprétabilité telles que les diagrammes de dépendance partielle, l'importance des caractéristiques de permutation, les statistiques de bord et LIME, qui ont permis de décomposer les effets des caractéristiques individuelles et leurs interactions. Grâce à leur backtesting, ils ont constaté que les modèles non linéaires surpassaient les modèles linéaires et que les effets des facteurs évoluaient avec le temps. Ils ont conclu qu'AdaBoost était le meilleur modèle pour leur scénario.

  • 00:05:00 Yumeng Ding discute de diverses méthodes pour interpréter les modèles d'apprentissage automatique. Elle souligne que si l'approche vectorielle est rapide et efficace pour trouver les interactions les plus prédictives, elle ne montre que la force au lieu de la qualité des interactions. Elle souligne que la dépendance partielle bidimensionnelle est nécessaire pour visualiser certaines interactions faciles. Ding suggère que la méthode du tracé linéaire convient pour plonger dans le détail des interactions individuelles et visualiser les interactions locales, à condition que les données ne soient pas trop bruyantes. Elle conclut en notant que leur projet met en évidence deux points à retenir : premièrement, les modèles d'apprentissage automatique surpassent les régressions naïves linéaires dans la plupart des scénarios en raison de leur capacité à capturer les effets d'interaction. Deuxièmement, l'interprétation des modèles d'apprentissage automatique est possible avec les différentes méthodes d'interprétabilité disponibles, qui nous permettent d'expliquer comment les facteurs individuels contribuent aux prédictions à la fois individuellement et de manière interactive.
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
  • 2021.03.12
  • www.youtube.com
March 9, 2021CFEM alumna Yumeng Ding discusses her team capstone project, which was titled, “Interpreting Machine Learning Models.” By utilizing Machine Lear...
 

Silvia Ruiz (Cornell MFE '20): "Comment prédire les mouvements de stock à l'aide des techniques NLP"



Silvia Ruiz (Cornell MFE '20): "Comment prédire les mouvements de stock à l'aide des techniques NLP"

Silvia Ruiz, récemment diplômée du programme Cornell MFE, partage les idées de son projet axé sur la prévision des cours des actions à l'aide de techniques NLP (Natural Language Processing). L'objectif de la recherche de son équipe était d'explorer la relation entre les documents déposés par les entreprises, tels que les rapports 10-K et 10-Q, et l'impact ultérieur sur les cours des actions. Pour ce faire, ils ont collecté un ensemble de données substantiel composé de 1 095 rapports sur le site Web EDGAR, englobant 50 entreprises dans cinq secteurs du S&P 500.

Au départ, Ruiz et son équipe ont expérimenté des modèles basés sur des dictionnaires, mais leur efficacité a été limitée. Pour résoudre ce problème, ils ont incorporé des méthodes avancées telles que le modèle word to back et Finberg, qui se sont avérées cruciales pour comprendre les nuances contextuelles intégrées dans les documents déposés par les entreprises. De plus, ils ont utilisé diverses mesures de sentiment, y compris la polarité et la complexité des mots, ainsi qu'un modèle de boost xg, pour prédire les mouvements des cours des actions.

La précision de leurs prédictions a été évaluée sur deux périodes différentes. À court terme, leur modèle a atteint une précision remarquable de 61 %, tandis qu'à long terme, il a démontré une précision respectable de 53 %. Tirant parti de ces prédictions comme signaux pour les décisions d'investissement, ils ont surperformé un portefeuille également pondéré. Cependant, Ruiz souligne la nécessité de poursuivre les recherches dans divers secteurs pour améliorer la précision et la généralisabilité de leurs résultats.

Silvia Ruiz conclut sa discussion en offrant généreusement ses coordonnées et en fournissant un lien vers le référentiel de son projet sur Github. Ce geste encourage les enquêtes de suivi et favorise la collaboration pour faire progresser la compréhension et l'application des techniques de la PNL dans le domaine de la prévision du cours des actions.

  • 00:00:00 Silvia Ruiz, récemment diplômée de Cornell MFE, parle de son projet sur la possibilité de prédire les cours des actions à l'aide de techniques NLP. Sylvia et son équipe avaient pour objectif d'enquêter sur l'impact des déclarations d'entreprises telles que 10k et 10q sur le cours des actions d'une entreprise et ont collecté les données de 1095 rapports sur le site Web d'Edgar de 50 entreprises du S&P 500 de cinq secteurs. Ils ont constaté que l'utilisation de modèles basés sur un dictionnaire n'était pas efficace et nécessitait les méthodes du mot à l'arrière du modèle et de Finberg pour comprendre le contexte. Enfin, ils ont utilisé une variété de mesures de sentiment, y compris la polarité et la complexité des mots, et ont exécuté un modèle boost xg avec la variable de prédiction des cours boursiers.

  • 00:05:00 Silvia Ruiz explique comment elle a tenté de prédire les mouvements de stock à l'aide de techniques NLP. Elle mentionne que son équipe a pris en compte les rendements du marché en prenant les cours des actions avant la publication du rapport et cinq jours après, en les comparant au rendement du marché. La précision à long terme était de 61 % tandis que celle à long terme était de 53 %, et ils ont utilisé leurs prédictions comme des signaux pour investir dans des actions. Leur stratégie a été plus efficace que le portefeuille équipondéré, mais des recherches supplémentaires sont nécessaires, en particulier dans différents secteurs, pour des résultats plus précis. Elle partage ses coordonnées et le lien Github pour de plus amples informations.
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
  • 2021.05.12
  • www.youtube.com
Silvia Ruiz will discuss her CFEM capstone project, which was titled, “How to Predict Stock Movements Using NLP Techniques.” By utilizing NLP techniques, the...
 

Charles-Albert Lehalle : "Une tentative de compréhension du traitement automatique du langage naturel"



Charles-Albert Lehalle : "Une tentative de compréhension du traitement automatique du langage naturel"

Dans cette présentation vidéo, Charles-Albert Lehalle et son équipe se penchent sur les applications du traitement automatique du langage naturel (TAL) dans le domaine financier. Leur discussion s'articule autour de trois domaines clés : l'analyse des sentiments, la prévision du cours des actions et la modélisation des coûts de transaction. Ils reconnaissent les défis associés à la PNL, tels que le risque de surajustement et de biais dans les incorporations, et proposent des solutions potentielles, notamment l'apprentissage multitâche et l'expansion des lexiques. L'équipe explore à la fois le potentiel et les limites de la PNL dans le secteur financier, en soulignant l'importance de comprendre le contexte et les modèles linguistiques dans différents secteurs.

Lehalle et son équipe présentent leurs propres expériences utilisant des techniques de PNL, fournissant des informations précieuses sur la façon dont la PNL peut compresser les informations et offrir des indicateurs informatifs aux analystes financiers. Ils mettent en évidence les défis de l'utilisation de la PNL dans la finance, y compris l'exigence de connaissances spécifiques au domaine et la difficulté d'extraire des informations significatives à partir de données textuelles non structurées. Les préoccupations éthiques entourant l'utilisation de la PNL dans la finance, telles que l'exploitation des données des médias sociaux à des fins commerciales, sont également abordées.

Tout au long de la présentation, Charles-Albert Lehalle partage son expertise et ses connaissances sur divers sujets en PNL. Il explique l'utilisation des méthodes de PNL basées sur le lexique et l'intégration dans la finance, proposant une combinaison des deux approches pour capturer les caractéristiques lexicales et probabilistes dans les données textuelles. Les défis de la distinction entre les synonymes et les antonymes dans les incorporations sont abordés, et l'équipe de Lehalle explore des modèles génératifs pour contrôler la structure et le sentiment du texte. L'importance de comprendre les plongements et les modèles de référence, tels que les matrices représentant les distributions de mots conjoints, est soulignée.

Lehalle explore plus avant l'importance du contexte dans la PNL, discutant de la façon dont les intégrations peuvent être biaisées pour les mots positifs et négatifs en fonction du contexte. Il explique l'utilisation des chaînes de Markov pour structurer les modèles matriciels de référence et présente des expériences sur l'identification des synonymes dans les plongements. Les limites de la PNL dans la capture des noms d'entreprises et leurs polarités associées sont reconnues, ainsi que la suggestion d'un apprentissage multitâche pour les intégrations supervisées. Les conférenciers abordent également le déséquilibre des mots positifs et négatifs du lexique Loughran-McDonald et les défis du traitement de l'ironie dans les textes financiers.

La présentation se termine par un aperçu d'un projet de Sylvia Ruiz, récemment diplômée en ingénierie financière de Cornell. Le projet se concentre sur la prévision des cours des actions à l'aide de techniques NLP, en particulier en grattant les sections de discussion de la direction des dépôts 10-K et 10-Q de 50 sociétés du S&P 500 et en analysant le sentiment pour évaluer son impact sur les cours des actions. Lehalle discute des limites des modèles basés sur un dictionnaire et explique comment leur équipe a élargi le dictionnaire, utilisé FinBERT pour comprendre le contexte et utilisé diverses fonctionnalités pour mesurer le sentiment. Ils ont réalisé de meilleures performances qu'un portefeuille équipondéré à la fois à court et à long terme.

En résumé, Charles-Albert Lehalle et son équipe ont mis en lumière le potentiel et les enjeux du TAL en finance. Ils offrent des idées, des expériences et des stratégies pour appliquer efficacement les techniques de PNL, tout en soulignant l'importance d'une utilisation responsable et d'une compréhension approfondie à la fois de la technologie et du domaine financier.

  • 00:00:00 Le conférencier présente Charles-Albert Lehalle, expert en finance quantique, qui fait une présentation de 40 minutes sur la PNL. L'orateur mentionne les publications passées de Lehalle sur la finance quantique, qui couvrent de multiples sujets sur la PNL. Le conférencier présente également Sylvia Ruiz, qui a récemment obtenu son diplôme de Cornell et a travaillé sur un projet de PNL avec Rebellion Research. La conférence vise à aider les gens à démarrer avec la PNL, qui peut souvent sembler intimidante en raison de la nécessité de récupérer des données et d'appliquer des packages. L'orateur aborde brièvement l'utilisation de la PNL en finance et mentionne que l'équipe de Lehalle utilise la PNL depuis plus d'un an maintenant, avec quelques prédicteurs et stratégies en production. La conférence est basée sur un travail en cours de Mengedar, et l'orateur encourage le public à envoyer des liens ou des articles qui, selon eux, devraient être inclus dans la présentation.

  • 00: 05: 00 Charles-Albert Lehalle discute des possibilités d'utilisation du traitement du langage naturel (TAL) dans le trading financier. En utilisant la PNL, les traders peuvent accéder rapidement aux informations sous forme de texte, telles que les transcriptions des annonces de résultats, les médias sociaux et les actualités financières. Cette information peut donner aux commerçants un avantage rapide pour acheter avant les autres et ainsi faire monter le prix. De plus, les traders peuvent utiliser le NLP pour recouper une grande quantité de texte sur de nombreuses entreprises et les classer en fonction des rendements attendus. Cependant, Lehalle note que la PNL présente un risque élevé de suralimentation en raison de la quantité de paramètres possibles. Néanmoins, en comprenant les informations reçues, les traders peuvent ajuster leurs stratégies en conséquence pour un profit potentiel.

  • 00: 10: 00 Charles-Albert Lehalle discute de l'utilisation des méthodes de traitement du langage naturel (TAL) basées sur le lexique et l'intégration en finance. Il explique comment les systèmes basés sur le lexique sont construits par des analystes humains qui annotent beaucoup de texte pour identifier le sentiment positif ou négatif sur les actions, tandis que les systèmes basés sur l'intégration modélisent le contexte probabiliste des mots. Lehalle propose que ces deux méthodes soient combinées pour saisir à la fois les caractéristiques lexicales et probabilistes des données textuelles sur les marchés financiers. Il décrit également son approche pour explorer comment les intégrations peuvent capturer des synonymes et des antonymes, ce qui peut avoir des implications pratiques pour l'analyse prédictive en finance.

  • 00:15:00 Dans cette section, Charles-Albert Lehalle aborde les enjeux du traitement automatique du langage naturel (TAL). Bien que la capture de synonymes puisse réduire la complexité d'un texte, les intégrations peuvent avoir des difficultés à distinguer les synonymes des antonymes. Cela crée un défi si vous souhaitez injecter votre lexique dans un système qui n'est pas en mesure de les différencier. L'équipe de Lehalle tente de développer un modèle génératif d'un texte pour contrôler la structure du texte et du sentiment et voir s'ils peuvent récupérer ce qu'ils ont mis dans la langue. Ils prévoient d'utiliser un large corpus d'informations financières pour appliquer ces techniques et analyser leur fonctionnement. Les aspects théoriques de ce processus incluent l'utilisation de la méthode word 2x keygram et d'une matrice stochastique.

  • 00:20:00 Dans cette section, Charles-Albert Lehalle explique le traitement du langage naturel à l'aide du modèle skip-gram word2vec. Il discute de la décomposition de bas rang de la matrice pour les incorporations et comment elle peut être réécrite comme un réseau neuronal avec une sortie soft max. Il explique également comment les têtes d'attention dans des modèles comme BERT sont plus locales, avec de nombreuses intégrations locales traitant du contexte. Il souligne l'importance de comprendre les plongements et le modèle de référence, qui est une grande matrice cachée utilisée pour optimiser la fonction de perte.

  • 00:25:00 Charles-Albert Lehalle explique le concept de modèles de référence en traitement du langage naturel. Il discute des différents types de modèles de référence, y compris une grande matrice qui représente la distribution conjointe de tous les mots, une estimation statistique du véritable modèle de référence et le modèle de référence caché qui a généré le texte. Il parle aussi de synonymes fréquentistes, qui sont des mots qui ont le même encastrement bien qu'antonymes d'un point de vue sémantique, du fait de leur apparition fréquente à la même position dans un corpus. Cette compréhension est importante dans la discussion de l'éthique dans le traitement du langage naturel.

  • 00:30:00 Dans cette section, Lehalle discute de l'importance du contexte dans le traitement du langage naturel et donne des exemples de la façon dont les intégrations peuvent être biaisées pour les mots positifs et négatifs en fonction du contexte. Il explique également comment la génération d'un corpus à l'aide d'une chaîne de Markov peut aider à structurer le grand modèle de matrice de référence pour les mots et comment la fonction de perte pour qu'un mot soit correctement intégré est une entropie croisée entre deux distributions. La première expérience présentée consiste à concevoir des langages synthétiques avec des synonymes et à tenter de récupérer les synonymes sous forme de blocs dans les plongements. Cependant, les encastrements s'avèrent peu identifiables, ce qui rend difficile la récupération d'un espace de faible dimension à partir d'un grand encastrement. Enfin, les similarités en cosinus entre les plongements de synonymes sont calculées.

  • 00: 35: 00 Charles-Albert Lehalle discute de l'utilisation du Lung Hand Micro Lexicon pour entraîner les incorporations afin de faire la distinction entre les gros titres financiers positifs et négatifs. Il note que les intégrations ne sont pas conçues pour différencier les synonymes qui apparaissent fréquemment ensemble, tels que les mots dans les titres, donc l'utilisation d'intégrations sur les titres pour identifier les mots positifs et négatifs est difficile. Cependant, lorsque l'on examine le corps des nouvelles financières au fil du temps, les mesures de similarité cosinus montrent que les mots positifs et négatifs se distinguent clairement les uns des autres. Lehalle montre également que les noms d'entreprises, comme les banques, lors d'une crise financière, sont plus proches des mots négatifs que des mots positifs. Dans l'ensemble, le positionnement du vocabulaire dans les incorporations affecte grandement leur capacité à distinguer les mots positifs des mots négatifs dans les actualités financières.

  • 00:40:00 L'intervenant Charles-Albert Lehalle évoque les limites du traitement automatique du langage naturel (TAL) en ce qui concerne les noms d'entreprises et leurs polarités associées, ainsi que la non-stationnarité des plongements. Il suggère que les incorporations se concentrent sur la priorisation de la distribution des mots de voisinage, ce qui rend difficile pour eux de différencier les fréquences et les synonymes. Lehalle poursuit en suggérant que l'apprentissage multitâche, la formation d'intégrations simultanément avec une tâche supervisée par un lexique polarisé, pourrait être une bonne idée. En outre, il note que les noms d'entreprises peuvent être un indicateur utile de la réputation et que les reportages générés par la PNL sont plus préoccupants que les entreprises qui tentent de tromper les algorithmes de la PNL. Enfin, il explique que les algorithmes NLP pourraient potentiellement être utilisés pour extraire des informations et les étiqueter avec une nouvelle valeur, permettant de déduire des estimations d'analystes plutôt que des prix.

  • 00: 45: 00 Dans cette section de la vidéo, les intervenants discutent du déséquilibre entre les mots négatifs et positifs dans le lexique Loughran-McDonald, qui a été mis en place par des humains et est utilisé dans le traitement du langage naturel (TAL) pour l'analyse de textes financiers. Ils suggèrent que le déséquilibre pourrait être dû à la nature légale et structurée des documents financiers rédigés par des avocats qui ont tendance à être protecteurs. Les intervenants abordent également l'utilisation de la PNL dans la modélisation des coûts de transaction et les défis du traitement de l'ironie dans les longs textes financiers. Ils présentent ensuite Sylvia Ruiz, récemment diplômée du programme Cornell Financial Engineering, qui présente le projet de son équipe sur la prévision des cours des actions à l'aide de techniques NLP. Le projet s'est concentré sur le grattage des sections de discussion de la direction des dépôts 10K et 10Q de 50 sociétés du S&P 500 et sur l'analyse du sentiment pour déterminer l'impact sur les cours des actions.

  • 00: 50: 00 Charles-Albert Lehalle discute des problèmes liés à l'utilisation de modèles basés sur des dictionnaires pour le traitement du langage naturel (TAL) et de la manière dont lui et son équipe ont utilisé des techniques de TAL pour améliorer leurs modèles. Il explique comment ils ont élargi leur dictionnaire pour avoir une classification plus équilibrée des mots en utilisant un modèle de skipgram et le modèle FinBERT pour comprendre le contexte. Ils ont ensuite utilisé diverses fonctionnalités pour mesurer le sentiment et la complexité des mots avant d'exécuter un modèle de boost xg pour prédire si le prix d'une action augmenterait ou baisserait. Bien que leur précision soit relativement faible, ils ont été en mesure de créer une stratégie qui s'est mieux comportée qu'un portefeuille équipondéré à la fois à court et à long terme.

  • 00:55:00 Charles-Albert Lehalle discute du potentiel du traitement du langage naturel (TAL) dans le secteur financier. Il suggère que davantage de recherches sont nécessaires et qu'il peut être avantageux de diviser l'industrie en secteurs, car chaque secteur a un modèle linguistique différent. En outre, il déconseille d'essayer simultanément de comprendre le texte et de prédire des choses comme les attentes, car la PNL peut être mieux utilisée pour compresser les informations et fournir des indicateurs informatifs. Au lieu de cela, les analystes peuvent utiliser leur propre raisonnement pour comparer les prédictions aux attentes et créer un "prédicteur surprise". Dans l'ensemble, Lehalle insiste sur la nécessité de comprendre les limites et les forces de la PNL avant de tenter de l'intégrer dans l'analyse financière.

  • 01:00:00 Dans cette section, les conférenciers discutent de l'utilisation de la formation contradictoire pour les modèles NLP afin d'augmenter leur robustesse. Cette technique peut être appliquée pour lutter contre les préjugés dans le langage, tels que la neutralité de genre. Les orateurs envisagent également d'utiliser une formation contradictoire pour briser la neutralité entre les mots positifs et négatifs, mais avertissent que cela peut ne pas convenir à la construction de stratégies de trading. La discussion passe ensuite aux défis de l'extraction de sections à partir de documents financiers, tels que les dépôts 10K, en raison des différences dans la façon dont les entreprises étiquettent et formatent leurs sections.

  • 01:00:00 Les conférenciers discutent de l'utilisation de la formation contradictoire pour les modèles NLP afin d'augmenter leur robustesse. Cette technique peut être appliquée pour lutter contre les préjugés dans le langage, tels que la neutralité de genre. Les orateurs envisagent également d'utiliser une formation contradictoire pour briser la neutralité entre les mots positifs et négatifs, mais avertissent que cela peut ne pas convenir à la construction de stratégies de trading. La discussion passe ensuite aux défis de l'extraction de sections à partir de documents financiers, tels que les dépôts 10K, en raison des différences dans la façon dont les entreprises étiquettent et formatent leurs sections.

  • 01:05:00 Dans cette section de la vidéo, Charles-Albert Lehalle explique qu'il n'a pas comparé ses propres incorporations et l'indice de sentiment de Bloomberg car ce n'était pas le but de l'étude. Il pense que les prédicteurs de Bloomberg essaient probablement de construire des prédicteurs plutôt que des indices, auxquels il est difficile de se comparer. Il révèle qu'il existe des articles sur la construction de facteurs empiriques d'évaluation des actifs à l'aide de la PNL et explique que la PNL peut être utilisée pour créer de nombreux facteurs basés sur les informations contenues dans le corpus, tels que le facteur 10k ou un facteur de section de risque. Par conséquent, la PNL n'est qu'une technique et le corpus est le facteur le plus important dans ce cas.
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
  • 2021.02.17
  • www.youtube.com
Full Title: "An Attempt to Understand Natural Language Processing And Illustration On A Financial Dataset"Speaker: Charles-Albert Lehalle (Capital Fund Manag...
Raison: