Trading Quantitatif - page 21

 

Stratégies de trading haute fréquence



Stratégies de trading haute fréquence

Merci de m'avoir invité aujourd'hui à présenter mon article sur les stratégies de trading à haute fréquence. Je m'appelle Amy Kwan et je viens de l'Université de Sydney. Cet article est co-écrit avec Michael Goldstein du Babson College et Richard Phillip, également de l'Université de Sydney.

Le but de cet article est de contribuer au débat en cours entre les régulateurs, les acteurs du marché et les universitaires concernant l'impact du trading à haute fréquence (HFT) sur les marchés financiers. Nous avons entendu différents points de vue sur cette question, y compris l'exposé de Sean et la discussion d'hier soir.

Bien qu'il existe des opinions divergentes sur le HFT, certaines personnes, comme Michael Lewis, l'auteur du livre "Flash Boys", soutiennent que le marché boursier américain est devenu un système de classe basé sur la vitesse, où quelques privilégiés paient pour des nanosecondes d'avantage tout en d'autres ignorent la valeur de ces minuscules intervalles de temps. D'autre part, les partisans du HFT, comme Ray Katsuyama, affirment que les HFT peuvent capter les signaux de trading et profiter des investisseurs réguliers.

Les premières preuves académiques soutenaient généralement le HFT et le trading algorithmique, car on pensait qu'il augmentait la liquidité et améliorait les mesures traditionnelles de la qualité du marché telles que la diminution des spreads, l'augmentation de la profondeur et la réduction de la volatilité à court terme. Cependant, des études plus récentes ont trouvé certains aspects négatifs du HFT. Par exemple, les HFT peuvent anticiper les flux d'ordres d'autres investisseurs et extraire des rentes des forces du marché.

De plus, des études récentes, telles que celles de Banker, Blending, Courageous et Canorkey, indiquent que les HFT se négocient initialement contre le vent, puis se négocient avec le vent au fur et à mesure qu'un commerce important progresse. Pour illustrer cela, considérons un scénario où un grand fonds de pension veut acheter des actions Apple. Les HFT, en détectant ce commerce, peuvent concurrencer l'institution pour négocier dans la même direction, car ils anticipent la future augmentation des prix due à la pression d'achat.

Bien qu'il y ait une certaine compréhension des effets du HFT, la littérature reste peu claire sur la façon dont les HFT négocient et influencent réellement les marchés financiers. La plupart des preuves existantes sont basées sur des exécutions commerciales, et on sait peu de choses sur le comportement de soumission des ordres en Australie.

Pour combler cette lacune, notre étude examine directement les stratégies de trading HFT en analysant les données complètes du carnet d'ordres à cours limité. Nous avons accès à des informations détaillées sur les soumissions de commandes, les modifications, les annulations et les transactions pour les 100 principales actions de l'ASX. En classant les commerçants en entreprises HFT, commerçants institutionnels et courtiers de détail, nous visons à comprendre leur comportement et l'impact sur la dynamique du marché.

Nos principales conclusions révèlent que les HFT excellent dans la surveillance du carnet d'ordres et la négociation des déséquilibres. Lorsque la demande d'achat ou de vente d'actions est plus élevée, les HFT réussissent mieux à capitaliser sur ces informations par rapport aux autres catégories de commerçants. De plus, nous observons que les HFT fournissent des liquidités sur le côté fixe du carnet d'ordres, même lorsqu'elles ne sont pas nécessaires, tandis que les non-HFT souffrent d'un accès limité au carnet d'ordres en raison du comportement stratégique des HFT.

Nous examinons également l'introduction d'un flux de données plus rapide appelé "it" et constatons que les HFT deviennent encore plus efficaces dans leur négociation stratégique après sa mise en œuvre. Cependant, les ordres non HFT sont évincés du carnet d'ordres à cours limité, ce qui réduit les chances d'exécution réussie pour ces traders.

En conclusion, notre étude contribue à la compréhension des stratégies de trading HFT en analysant les données complètes du carnet d'ordres à cours limité. Nous constatons que les HFT surpassent les autres catégories de traders en matière de suivi du carnet d'ordres et de négociation des déséquilibres. L'introduction d'un flux de données plus rapide renforce encore leur avantage commercial. Ces résultats mettent en lumière la manière dont les HFT influencent la dynamique du marché et fournissent des informations précieuses aux régulateurs, aux acteurs du marché et aux universitaires.

Merci encore de m'avoir donné l'occasion de présenter nos recherches.

High frequency trading strategies
High frequency trading strategies
  • 2017.02.05
  • www.youtube.com
Speaker : Amy Kwan7th Emerging Markets Finance Conference, 201613th - 17th December 2016
 

Ciamac Moallemi : Trading à haute fréquence et microstructure du marché



Ciamac Moallemi : Trading à haute fréquence et microstructure du marché

Une partie du but de ma présentation est de familiariser les gens avec les recherches menées par les membres du corps professoral. Avant d'aborder le sujet principal, je voudrais donner quelques informations sur mon propre travail en tant que mathématicien appliqué. Environ la moitié de mon temps est consacrée à l'exploration de problèmes de contrôle stochastique, qui impliquent de prendre des décisions dans le temps en présence d'incertitude. Ces problèmes mathématiques abstraits posent des défis importants mais sont fondamentaux, car de nombreux problèmes d'ingénierie et commerciaux partagent des caractéristiques similaires. L'autre moitié de mes recherches porte sur l'aspect plus appliqué des problèmes de contrôle stochastique dans le domaine de l'ingénierie financière.

Fort de mon expérience antérieure en tant que gestionnaire de fonds spéculatifs, j'ai un intérêt particulier pour le trading optimal, la microstructure du marché et le trading à haute fréquence sur les marchés financiers. Aujourd'hui, j'aborderai ces sujets pour donner un aperçu de la complexité des marchés électroniques modernes. Pour apprécier les enjeux, il est crucial de comprendre les principales caractéristiques des marchés boursiers américains, qui ont considérablement évolué au cours des cinq à dix dernières années.

D'abord et avant tout, le commerce électronique domine le marché, rendant l'image traditionnelle des commerçants sur le parquet de la Bourse de New York largement hors de propos. Le commerce se déroule désormais principalement sur des ordinateurs, le commerce électronique étant le principal mécanisme d'échange. Un autre changement notable est la décentralisation ou la fragmentation du commerce. Dans le passé, une action particulière se négociait principalement au Nasdaq ou à la Bourse de New York. Cependant, il existe maintenant plusieurs bourses, chacune représentant un pourcentage substantiel des échanges d'actions.

Ces bourses sont organisées sous forme de carnets d'ordres à cours limité électroniques, où les acteurs du marché peuvent soumettre des ordres d'achat et de vente avec des prix spécifiés. Lorsque les prix se croisent, les transactions sont exécutées. Cela contraste avec le marché historique des concessionnaires ou la structure du marché spécialisé de la Bourse de New York. En outre, environ 30 % des transactions ont lieu sur des sites alternatifs tels que les réseaux de croisement électroniques, les dark pools et l'internalisation, ce qui contribue davantage à la nature décentralisée des transactions.

L'une des caractéristiques les plus frappantes des marchés modernes est l'automatisation croissante des participants. Auparavant, un trader humain gérait de grosses commandes, mais maintenant les algorithmes et le trading à haute fréquence ont pris le dessus. Le trading algorithmique permet aux investisseurs de trancher et de découper des ordres importants au fil du temps et sur les bourses, tandis que les traders à haute fréquence, souvent classés comme teneurs de marché, fournissent des liquidités. Ces tendances récentes ont rendu le marché plus complexe et ont conduit à des interactions imprévisibles entre les traders algorithmiques et les traders à haute fréquence.

Ces développements ont soulevé des questions importantes tant au niveau politique que pour les participants individuels. Les décideurs politiques et les régulateurs doivent évaluer les avantages et les inconvénients de la structure complexe actuelle du marché. Ils doivent également faire face à des problèmes tels que la survenance d'événements comme le fameux flash crash du 6 mai 2010, où les prix du marché ont chuté de manière significative en quelques minutes en raison d'une interaction pathologique entre un trader algorithmique et des traders à haute fréquence.

Au niveau des participants individuels, les problèmes de prise de décision doivent être résolus. Compte tenu de la complexité et de l'imprévisibilité du marché, les participants doivent déterminer l'approche la plus efficace pour leurs stratégies de négociation. C'est dans ce contexte que j'ai mené des recherches sur deux problématiques spécifiques liées au trading haute fréquence et à la microstructure des marchés : comprendre l'importance de la latence et examiner le rôle des dark pools sur les marchés.

La latence fait référence au délai entre la prise d'une décision de trading et son exécution. La capacité à négocier rapidement avec une faible latence est devenue de plus en plus importante. Pour évaluer la valeur et le coût associés à la latence, il est nécessaire d'évaluer son importance dans les décisions commerciales. Au fil des ans, la latence sur les marchés boursiers américains a considérablement diminué, les transactions se déroulant désormais en quelques microsecondes. Cette avancée technologique a été motivée par la demande des traders à haute fréquence et d'autres personnes cherchant une exécution plus rapide.

Comprendre l'importance de la latence soulève d'autres questions. Une faible latence est-elle bénéfique pour prendre des décisions avec les dernières informations ? Le fait d'être plus rapide que les concurrents offre-t-il un avantage pour capter les bénéfices ? De plus, les règles et l'organisation des échanges donnent souvent la priorité à l'entrée précoce, créant des avantages pour les commerçants avec des connexions à faible latence. Cela soulève des inquiétudes quant à l'équité et à l'égalité d'accès aux opportunités du marché.

Pour répondre à ces questions, mes recherches consistent à développer des modèles mathématiques qui capturent la dynamique du trading à haute fréquence et l'impact de la latence sur les stratégies de trading. En simulant différents scénarios et en analysant les résultats, mon objectif est de fournir des informations sur l'équilibre optimal entre rapidité et précision dans les décisions de trading. Cette recherche peut aider les acteurs du marché, tels que les fonds spéculatifs ou les investisseurs institutionnels, à concevoir leurs algorithmes de négociation et leur infrastructure afin de maximiser leurs performances dans un environnement hautement concurrentiel.

Un autre domaine de mes recherches porte sur le rôle des dark pools dans les marchés modernes. Les dark pools sont des lieux de négociation privés qui permettent aux participants d'exécuter des transactions importantes de manière anonyme, loin du marché public. Ces plateformes alternatives ont gagné en popularité en raison de leur potentiel à minimiser l'impact sur le marché et à améliorer la qualité d'exécution pour les investisseurs institutionnels avec des volumes de transactions importants.

Cependant, la montée des dark pools a soulevé des inquiétudes quant à la transparence et à l'équité du marché. Les critiques soutiennent que le manque de transparence dans ces lieux peut créer une asymétrie de l'information et avoir un impact négatif sur la découverte des prix. De plus, il y a eu des cas où les traders à haute fréquence exploitent le manque de transparence pré-négociation dans les dark pools pour leur propre avantage.

Dans mes recherches, j'étudie l'impact des dark pools sur la liquidité du marché, la formation des prix et le comportement des acteurs du marché. En développant des modèles mathématiques et en menant des analyses empiriques, je vise à comprendre les avantages et les inconvénients associés au dark pool trading. Cette recherche peut contribuer au débat en cours sur la réglementation et la surveillance des dark pools et aider les acteurs du marché à prendre des décisions éclairées concernant leurs stratégies de trading.

En conclusion, ma présentation d'aujourd'hui donne un aperçu de mes recherches dans le domaine de l'ingénierie financière, en se concentrant spécifiquement sur le trading à haute fréquence, la microstructure du marché, la latence et les dark pools. En approfondissant ces sujets, je vise à faire la lumière sur les complexités des marchés électroniques modernes et les défis qu'ils présentent pour les acteurs du marché et les régulateurs. Grâce à la modélisation mathématique, aux simulations et à l'analyse empirique, mes recherches visent à fournir des informations précieuses et à contribuer aux discussions et développements en cours dans le domaine des marchés financiers.

Par ailleurs, un autre aspect de ma recherche tourne autour de l'impact des politiques réglementaires sur les marchés financiers. Les organismes de réglementation jouent un rôle crucial pour assurer l'intégrité, la stabilité et la protection des investisseurs. Cependant, la conception et la mise en œuvre des réglementations peuvent avoir des conséquences imprévues et affecter la dynamique du marché.

L'un des domaines d'intérêt de mes recherches est l'examen des réactions du marché aux annonces réglementaires. En analysant des données historiques et en menant des études d'événements, j'étudie comment les acteurs du marché, tels que les commerçants et les investisseurs, ajustent leurs stratégies et leurs positions en réponse aux changements réglementaires. Cette recherche aide à comprendre les effets immédiats et à long terme des réglementations sur la liquidité, la volatilité et l'efficacité globale du marché.

De plus, j'explore l'efficacité de différentes mesures réglementaires dans la réalisation des objectifs visés. Par exemple, j'étudie l'impact des disjoncteurs, qui sont des mécanismes conçus pour interrompre temporairement les transactions lors de mouvements extrêmes du marché, sur la stabilité du marché. En analysant les données historiques du marché et en effectuant des simulations, j'évalue si les disjoncteurs préviennent ou aggravent efficacement les krachs boursiers.

Un autre domaine d'intérêt est l'examen des réglementations visant à réduire le risque systémique sur les marchés financiers. Cela implique d'analyser l'impact de mesures telles que les exigences de fonds propres, les tests de résistance et les restrictions sur les transactions pour compte propre par les banques. En étudiant les effets de ces réglementations sur la stabilité du système financier, je vise à donner un aperçu de leur efficacité et des conséquences potentielles imprévues.

De plus, j'explore également l'intersection de la technologie et de la réglementation, en particulier dans le contexte des technologies émergentes telles que la blockchain et les crypto-monnaies. Ces technologies présentent des défis et des opportunités uniques pour les régulateurs, car elles peuvent perturber les systèmes financiers traditionnels et introduire de nouveaux risques. Mes recherches dans ce domaine visent à comprendre les implications réglementaires de ces technologies et à explorer les cadres potentiels qui peuvent favoriser l'innovation tout en garantissant l'intégrité du marché et la protection des investisseurs.

Mes recherches en ingénierie financière englobent un large éventail de sujets, notamment l'impact des politiques réglementaires, les réactions du marché aux changements réglementaires et l'intersection de la technologie et de la réglementation. Grâce à des analyses rigoureuses, des modélisations mathématiques et des études empiriques, je m'efforce de fournir des informations précieuses sur le fonctionnement des marchés financiers et de contribuer au développement de cadres réglementaires efficaces et bien informés.

Ciamac Moallemi: High-Frequency Trading and Market Microstructure
Ciamac Moallemi: High-Frequency Trading and Market Microstructure
  • 2012.11.19
  • www.youtube.com
On November 13, 2012, Ciamac Moallemi, Associate Professor of Decision, Risk, and Operations at Columbia Business School, presented High-Frequency Trading an...
 

Kent Daniel : Momentum des prix



Kent Daniel : Momentum des prix

Je suis heureux d'être ici et je remercie tout le monde d'être venu. C'est formidable de voir tout le monde si enthousiaste à propos de ce sujet. Aujourd'hui, je vais discuter d'une stratégie quantitative spécifique couramment utilisée par les hedge funds. Cette stratégie est souvent mise en œuvre avec un effet de levier important et complète les sujets abordés par le professeur Sunnah Reyes et le professeur Wong. Mon objectif est d'introduire le concept d'investissement quantitatif et de donner un aperçu de cette stratégie particulière.

De plus, je mène des recherches sur la compréhension des facteurs à l'origine de la dynamique des prix et de l'occurrence de ce phénomène sur les marchés. Je soutiens que le marché n'est pas entièrement efficace, principalement en raison du traitement imparfait de l'information par les investisseurs. Ainsi, je vais approfondir la caractérisation de l'élan et proposer quelques réflexions sur ses causes sous-jacentes.

Récemment, je suis tombé sur un article du magazine Bloomberg mettant en vedette Cliff Asness, une figure notable de l'industrie. Son entreprise a fait face à des défis dans le passé, principalement en raison de sa dynamique. Je trouve cela particulièrement pertinent pour notre discussion d'aujourd'hui. En fait, Asness et sa société n'ont pas perdu leur élan. Ils ont même lancé un fonds commun de placement appelé AQR Momentum Fund, en plus de leurs efforts en matière de fonds spéculatifs.

AQR, à la fois avec ses fonds communs de placement et ses fonds spéculatifs, utilise des règles mathématiques pour construire des portefeuilles diversifiés avec un biais spécifique. Dans le cas du momentum, ils se concentrent sur l'investissement dans les gagnants et la vente des perdants. Aujourd'hui, je vais explorer cette stratégie plus en détail. Cependant, avant de plonger dans les détails, je souhaite partager quelques idées tirées d'un document de recherche d'Asness, Moskowitz et Patterson. L'article étudie la présence d'un momentum dans différentes classes d'actifs.

Selon leurs conclusions, le momentum a historiquement bien performé dans diverses régions, dont les États-Unis, le Royaume-Uni et l'Europe continentale. Cependant, il n'a pas donné les mêmes résultats positifs au Japon. En outre, la recherche explore l'élan dans la sélection des pays d'actions, la sélection des pays obligataires, les devises étrangères et les matières premières, avec des degrés de succès variables dans chaque domaine.

Alors, qu'est-ce qui motive l'élan? Sur la base de mes travaux préliminaires et de mes théories, l'explication la plus convaincante tourne autour du traitement de l'information par les investisseurs. Lorsque les investisseurs reçoivent de nouvelles informations, ils ont tendance à afficher un biais de statu quo, en supposant que les choses resteront relativement inchangées. Bien qu'ils anticipent un certain mouvement des prix en réponse à l'information, ils ne comprennent pas pleinement son impact. Par conséquent, le prix évolue légèrement, mais il faut du temps, souvent environ un an, pour que l'information se reflète pleinement dans les prix.

Dans le contexte des marchés financiers, si vous observez un mouvement de prix lié à l'information, il est probable que la dynamique se poursuive. Cette persistance dans le mouvement des prix s'aligne sur le concept d'élan en physique, où un objet se déplaçant à une certaine vitesse dans une direction particulière a tendance à continuer à se déplacer à moins qu'une force externe n'agisse sur lui.

Maintenant, explorons comment construire une stratégie de momentum. Supposons que vous souhaitiez mettre en œuvre une stratégie de momentum simple similaire à l'approche d'AQR. Voici un guide étape par étape : en commençant au début d'un mois spécifique, calculez les rendements mensuels de toutes les actions cotées sur NYSE, Amex et NASDAQ au cours des 12 derniers mois jusqu'à il y a un mois. Classez les actions en fonction de leurs rendements et identifiez les 10 % supérieurs comme gagnants et les 10 % inférieurs comme perdants. Construisez un portefeuille composé des gagnants, pondéré par leur capitalisation boursière. De même, établissez un portefeuille long-short en vendant à découvert pour 1 $ des actions perdantes. Rééquilibrez le portefeuille au début de chaque mois en mettant à jour les rendements et les classements de la période de formation.

Cette stratégie se traduit par un portefeuille à rotation relativement faible puisque les rendements récents sont susceptibles d'être similaires. Cependant, à mesure que vous étendez le délai à 12 mois, les rendements commencent à diverger considérablement.

Maintenant, évaluons la performance de cette stratégie de 1949 à 2007. Investir dans les bons du Trésor a un rendement excédentaire moyen de 16,5 % par an, ce qui est assez substantiel. Cela indique que la stratégie dynamique d'achat des gagnants et de vente des perdants a été très rentable sur le long terme.

Maintenant, vous vous demandez peut-être si ce rendement excédentaire est constant sur différentes périodes. Pour examiner cela, décomposons les données en différentes décennies et voyons comment l'élan se comporte. Voici les rendements excédentaires pour chaque décennie :

  • Années 1950 : 13,5 %
  • Années 1960 : 14,7 %
  • Années 1970 : 14,3 %
  • Années 1980 : 13,7 %
  • Années 1990 : 9,4 %
  • Années 2000 : 13,1 %

Comme vous pouvez le constater, le momentum a produit des rendements excédentaires positifs au cours de chaque décennie, bien que l'ampleur varie. Il convient de noter que les années 1990 ont eu un rendement excédentaire relativement plus faible par rapport aux autres décennies, mais qu'il était toujours positif.

Alors, pourquoi le momentum persiste-t-il en tant que stratégie rentable ? Une explication est que les investisseurs ont tendance à sous-réagir aux nouvelles informations, ce qui entraîne un ajustement lent des prix. Par conséquent, les actions qui ont enregistré des rendements positifs continuent de surperformer car leurs prix ne reflètent pas entièrement toutes les informations disponibles. Cet ajustement différé offre aux investisseurs la possibilité de capter des bénéfices en surfant sur l'élan.

Il est important de mentionner que même si l'élan a montré une rentabilité constante, cela ne signifie pas qu'il est sans risque. Comme toute stratégie d'investissement, elle comporte son propre ensemble de risques et de défis. Les conditions du marché peuvent changer et les performances passées ne sont pas une garantie des résultats futurs. Par conséquent, une analyse approfondie, une gestion des risques et une surveillance continue sont essentielles lors de la mise en œuvre d'une approche d'investissement basée sur le momentum.

En conclusion, la stratégie momentum, qui consiste à acheter des gagnants et à vendre des perdants, a historiquement généré des rendements excédentaires significatifs sur les marchés financiers. Malgré les variations des rendements au fil des décennies, le momentum est resté une stratégie globalement rentable. Cependant, les investisseurs doivent faire preuve de prudence et tenir compte de divers facteurs avant d'intégrer cette stratégie dans leur approche d'investissement.

Kent Daniel: Price Momentum
Kent Daniel: Price Momentum
  • 2011.07.15
  • www.youtube.com
On November 9, 2010, Kent Daniel, professor of Finance and Economics at Columbia Business School, presented Price Momentum. The presentation was part of the ...
 

Trading algorithmique et apprentissage automatique



Trading algorithmique et apprentissage automatique

D'accord, merci, Costas, de m'avoir invité. Je voudrais également exprimer ma gratitude à Eric pour son discours perspicace, qui fournit un contexte précieux pour la discussion que je vais présenter. Aujourd'hui, je vais me concentrer sur les expériences d'exploitation de l'autre côté de ces bourses et de traiter avec des traders à haute fréquence (HFT) et d'autres contreparties. Je tiens à préciser que mon exposé ne couvrira pas explicitement la théorie des jeux, car Costas m'a assuré que c'était acceptable. Cependant, je vais approfondir les aspects pratiques, en m'appuyant sur mon expérience de travail avec un groupe de trading quantitatif à Wall Street au cours des 12 dernières années.

Tout d'abord, je tiens à remercier tout particulièrement mon partenaire commercial, By Vaca, qui est co-auteur de tous les travaux dont je vais parler. Nos recherches et nos idées ont émergé de contextes commerciaux exclusifs au sein de notre groupe commercial. Les aspects que je soulignerai sont les éléments non propriétaires que nous trouvons scientifiquement intéressants au fil du temps.

Wall Street est sans aucun doute un endroit intrigant, à la fois technologiquement et socialement. Il a connu des changements importants dus à l'automatisation et à l'abondance de données. Ces transformations ont donné lieu à de nombreux enjeux commerciaux, qui nécessitent une approche basée sur l'apprentissage, en particulier l'apprentissage automatique. Avec de grandes quantités de données disponibles à une échelle temporelle et spatiale au-delà de la compréhension humaine, les algorithmes sont devenus indispensables dans le trading. Ces algorithmes doivent être adaptatifs et formés sur des données historiques, y compris des données récentes, pour prendre des décisions de trading judicieuses.

Dans ma présentation, je décrirai trois problèmes spécifiques qui se posent dans le trading algorithmique sur les marchés électroniques modernes. Ces vignettes ou études de cas mettent en lumière les défis algorithmiques et offrent des conseils pour les relever à l'aide de nouvelles techniques.

Les deux premiers problèmes tournent autour de l'optimisation de l'exécution. Lors de l'exécution d'une transaction, qu'il s'agisse d'acheter ou de vendre un volume spécifique d'actions, il existe un compromis entre l'immédiateté et le prix. On peut choisir d'exécuter la transaction rapidement, ce qui a un impact sur les prix mais peut-être en capitalisant sur des avantages informationnels éphémères. En revanche, une approche plus tranquille peut être adoptée, permettant au marché de converger vers le prix souhaité sur une durée plus longue. Je vais approfondir ces compromis et présenter des exemples spécifiques qui illustrent les défis auxquels sont confrontés les marchés électroniques.

Le troisième problème concerne les versions algorithmiques de l'optimisation de portefeuille classique, telles que l'optimisation moyenne-variance. Cela implique de détenir un portefeuille diversifié qui maximise les rendements tout en tenant compte du risque ou de la volatilité. Bien que de nature algorithmique, ce problème rejoint les approches traditionnelles d'optimisation de portefeuille.

Il convient de noter que l'enchère continue à double limite, telle que décrite par Eric plus tôt, sert de toile de fond à ces défis. L'image du flash crash et le livre de Michael Lewis sur le trading à haute fréquence soulignent les temps intéressants et dynamiques que nous vivons actuellement à Wall Street. Bien que je n'aie pas l'intention de porter un jugement moral sur une activité de trading, y compris le trading à haute fréquence, mon objectif est d'élucider les défis algorithmiques rencontrés sur les marchés électroniques modernes du point de vue d'un groupe de trading quantitatif opérant dans un cadre statistique traditionnel de trading d'actions.

Notre groupe de négociation est spécialisé dans la négociation d'actions, à la fois longues et courtes, englobant une large gamme d'instruments liquides sur les marchés nationaux et internationaux. Pour couvrir nos positions, nous utilisons exclusivement des contrats à terme, en évitant les dérivés complexes. Malgré le trading sur des marchés et des instruments relativement simples, l'automatisation et la disponibilité croissantes des données à Wall Street ont introduit une multitude de problèmes de trading qui nécessitent une approche d'apprentissage, utilisant souvent l'apprentissage automatique.

Soit dit en passant, je veux dire par exemple qu'il est souvent observé que lorsqu'un analyste améliore son point de vue sur un titre, les autres analystes ont tendance à mettre à jour leur point de vue sur le même titre en succession rapide. Il faut donc déterminer s'il s'agit en fait de nouvelles fraîches ou simplement du résultat d'autres nouvelles de base entrant sur le marché. Dans de tels cas, il peut être déconseillé de négocier sur la base de ces informations.

Maintenant, en ce qui concerne votre question sur la raison pour laquelle nous ne donnons pas de temps pour les questions à la fin et voulons plutôt acheter le volume restant, il y a deux réponses à cela. Premièrement, si nous sommes une maison de courtage comme Bank of America avec un pupitre de négociation algorithmique, nous exécutons des transactions en fonction de la directive du client. Ils nous fournissent des instructions sur le nombre d'actions à acheter dans un délai précis. Nous ne demandons pas de confirmation pendant le processus. Deuxièmement, nous avons optimisé nos stratégies pour déterminer le bon volume à acheter en fonction des informations disponibles. Ce volume est généralement le maximum que nous pouvons négocier sans impact significatif sur le cours de l'action. Bien qu'il soit possible de mettre en œuvre l'approche que vous avez suggérée, nous préférons minimiser le nombre de paramètres impliqués pour simplifier la prise de décision dans le monde complexe du trading.

En ce qui concerne le processus de test, nous effectuons des tests en direct sur les six mois suivant l'étude. Cela nous permet d'évaluer les performances du modèle dans des conditions réelles de marché. Cependant, le modèle lui-même utilise des données historiques pendant la phase de test.

Lorsqu'il s'agit d'expliquer nos politiques aux gens, nous nous appuyons principalement sur une approche empirique plutôt que sur des regards indiscrets. Dans ce problème particulier, ce qui constitue un comportement sensé est clair. Le défi se pose lorsqu'il s'agit de stratégies qui fonctionnent bien sans une compréhension claire de la raison pour laquelle elles fonctionnent. Dans de tels cas, on aborde parfois le problème d'un point de vue anthropologique, en essayant de comprendre les raisons de la rentabilité constante de certains métiers.

Nous reconnaissons que la complexité de ce que nous apprenons pose des défis en termes d'interprétation. Bien que nous puissions identifier un pouvoir prédictif constant dans certaines variables d'état, il est extrêmement difficile de comprendre les raisons sous-jacentes à un niveau granulaire. La nature microstructurale des marchés financiers, en particulier dans le trading à haute fréquence, implique des volumes et des vitesses de données qui dépassent la compréhension humaine normale. Par conséquent, nous nous concentrons sur des méthodologies de formation et de test minutieuses pour garantir des performances constantes.

Dans nos expérimentations, nous avons exploré différentes caractéristiques du carnet de commandes et leur impact sur la performance. Par exemple, l'intégration de l'écart acheteur-vendeur dans l'espace d'état s'est avérée utile pour optimiser l'exécution des transactions. Cependant, toutes les fonctionnalités n'offrent pas le même avantage, et certaines variables peuvent même avoir des effets négatifs sur les performances en raison d'un surajustement. En sélectionnant les fonctionnalités les plus informatives, nous avons obtenu une amélioration supplémentaire de 13 % en plus de l'amélioration de 35 % obtenue grâce aux approches théoriques de contrôle.

Nous avons évalué une solution de manière expérimentale, même si je n'ai pas le temps d'approfondir les détails pour le moment. Cependant, je peux fournir une explication simplifiée de la liquidité en utilisant un modèle de dessin animé. Différents dark pools, qui sont des plates-formes de négociation alternatives, présentent des propriétés de liquidité variables à différents moments et pour différentes actions.

Lorsqu'une nouvelle bourse, qu'il s'agisse d'un carnet d'ordres à cours limité ou d'un dark pool, émerge, elle essaie souvent de s'établir sur le marché en offrant un traitement préférentiel, des rabais ou des frais pour une catégorie particulière d'actions. Ils se présentent comme le dark pool préféré pour la négociation de types d'actions spécifiques. En conséquence, les traders intéressés par ces actions sont attirés par ce dark pool spécifique, créant des liquidités. En revanche, d'autres dark pools peuvent avoir des profils de liquidité différents et peuvent ne pas attirer autant d'activités de trading.

Pour visualiser ce concept, imaginez que chaque dark pool ait un profil de liquidité unique pour un titre donné, représenté par une distribution de probabilité stationnaire. L'axe des x représente le nombre de partages, tandis que l'axe des y représente la probabilité de trouver des partages disponibles pour l'exécution à chaque pas de temps discret. Lorsque nous soumettons notre ordre commercial à un dark pool, un ou plusieurs nombres sont tirés de cette distribution, indiquant le volume de contreparties disposées à négocier à ce pas de temps spécifique. Le volume exécuté est déterminé par le minimum du ou des volume(s) tiré(s) et du volume demandé (vns), assurant une exécution partielle si nécessaire.

Maintenant, vous vous demandez peut-être comment la courbe de liquidité peut ne pas décroître lors d'une exécution partielle. La courbe de liquidité représente simplement la probabilité de trouver un volume disponible dans une certaine fourchette. Il montre que les volumes plus petits sont plus susceptibles d'être disponibles pour l'exécution, tandis que les volumes plus importants sont moins susceptibles. L'exécution partielle signifie simplement que le volume exécuté est inférieur au volume demandé, mais cela n'affecte pas la forme globale de la courbe de liquidité.

La prolifération des mares sombres est un phénomène intéressant. Elle soulève des questions sur l'équilibre du marché et la concurrence entre ces sites. Il reste incertain si le marché finira par se consolider, conduisant à la domination de quelques dark pools. Une dynamique similaire a été observée dans les doubles enchères continues depuis que la déréglementation des marchés financiers a permis à plusieurs bourses de fonctionner simultanément. Le paysage réglementaire et la capacité des startups à proposer de nouveaux mécanismes contribuent à la complexité de la structure du marché.

Compte tenu du lien entre cette recherche et l'article d'Eric, nous pouvons explorer l'interaction entre les différentes structures de marché, les algorithmes et leur impact sur la stabilité et la fragmentation du marché. En simulant des scénarios impliquant plusieurs acteurs utilisant des algorithmes similaires, nous pouvons étudier les résultats de calcul et étudier comment la structure du marché et la diversité des algorithmes influencent les prix et d'autres préoccupations réglementaires. Cette combinaison d'efforts de recherche pourrait fournir des informations précieuses sur la relation complexe entre la structure du marché, le trading algorithmique et la stabilité du marché.

En outre, nous pouvons nous plonger dans des questions plus sophistiquées, telles que l'interaction entre différents algorithmes et structures de marché, et comment ils façonnent la dynamique du marché. En examinant divers scénarios de marché, nous pouvons analyser la pertinence de différentes structures et algorithmes de marché pour atteindre la stabilité et résoudre les problèmes de fragmentation.

L'évolution des marchés financiers a conduit à l'automatisation de certains aspects, remplaçant souvent des éléments humains utiles. Cependant, de nouveaux mécanismes électroniques ont été introduits pour reproduire et améliorer la fonctionnalité. Comprendre ces dynamiques et adapter nos stratégies en conséquence nous permet de naviguer dans les complexités des marchés financiers modernes.

Mon exposé mettra en lumière les défis algorithmiques inhérents au trading sur les marchés financiers électroniques modernes. Les trois études de cas que je présenterai mettent en évidence les complexités et les compromis rencontrés dans l'exécution optimisée et l'optimisation algorithmique du portefeuille. Bien que les contraintes de temps puissent m'empêcher de couvrir entièrement tous les sujets, j'espère fournir des informations précieuses dans ces domaines.

Alors que les simulations et les analyses informatiques offrent des moyens de comprendre les résultats potentiels du trading algorithmique, il est essentiel de trouver un équilibre entre la modélisation abstraite et la pertinence dans le monde réel. Le défi consiste à identifier les détails cruciaux et ceux qui peuvent être ignorés en toute sécurité sans sacrifier la pertinence pratique, en particulier dans le paysage complexe et en constante évolution des marchés financiers.

Algorithmic Trading and Machine Learning
Algorithmic Trading and Machine Learning
  • 2015.11.20
  • www.youtube.com
Michael Kearns, University of PennsylvaniaAlgorithmic Game Theory and Practicehttps://simons.berkeley.edu/talks/michael-kearns-2015-11-19
 

La conception des échanges financiers : quelques questions ouvertes à l'intersection d'Econ et de CS



La conception des échanges financiers : quelques questions ouvertes à l'intersection d'Econ et de CS

Merci beaucoup Kostas. Cette conférence va être un peu non conventionnelle pour moi, mais j'espère qu'elle s'aligne avec l'esprit de cette conférence et le sujet des directions ouvertes. Il est lié à la conception des échanges financiers, en particulier la conception dominante connue sous le nom de carnet d'ordres à cours limité continu. Je commencerai par discuter d'un article sur lequel j'ai récemment travaillé avec Peter Crampton et John Shimm, qui met en évidence une faille économique dans la conception actuelle des échanges financiers. Ce défaut, selon nous, contribue aux aspects négatifs du trading à haute fréquence.

La première partie de l'exposé couvrira ce document, qui peut être familier à certains d'entre vous mais probablement pas à la plupart. Il présente un cas économique pour une approche alternative appelée négociation en temps discret ou enchères par lots fréquentes. Notre article suggère que le carnet d'ordres à cours limité continu, bien que largement utilisé dans le monde, souffre d'un défaut structurel qui entraîne divers problèmes associés au trading à haute fréquence. Je vais présenter une version condensée et accessible de cette partie, telle qu'elle a été présentée plusieurs fois auparavant.

Les deuxième et troisième parties de l'exposé approfondiront les questions ouvertes et les directions de recherche concernant la conception des échanges financiers. Ces domaines de recherche se situent à l'intersection de l'économie et de l'informatique. Dans les sections suivantes, je discuterai d'une partie de deux pages à la fin de l'article du Quarterly Journal of Economics qui présente un argument qualitatif, dépourvu de théorèmes ou de données, pour les avantages informatiques du trading en temps discret par rapport à la conception actuelle du marché. . Cette discussion soulèvera de nombreuses questions et visera à stimuler une exploration plus approfondie.

Bien que les dernières parties de l'exposé soient moins formelles que ce à quoi je suis habitué, je crois qu'elles sont cruciales pour soulever des questions ouvertes et établir un programme de recherche future. Cela correspond à l'objectif de cette conférence, qui encourage l'exploration des intersections de l'économie et de l'informatique et suggère des orientations fructueuses pour les recherches futures.

Examinons maintenant le cas économique du trading en temps discret et ses avantages par rapport au carnet d'ordres à cours limité continu, que je vais expliquer plus en détail. Le carnet d'ordres à cours limité continu est une conception de marché qui traite chaque jour des billions de dollars d'activité économique. Il fonctionne sur la base d'ordres limités, qui spécifient le prix, la quantité et la direction (achat ou vente) d'un titre. Les participants au marché peuvent soumettre, annuler ou modifier des ordres à cours limité tout au long de la journée, et ces messages sont envoyés à la bourse.

L'échange a lieu lorsqu'une nouvelle demande correspond à des ordres existants dans le carnet d'ordres à cours limité. Par exemple, une demande d'achat avec un prix égal ou supérieur à une offre de vente exceptionnelle entraînerait une transaction. C'est le fonctionnement de base du carnet d'ordres à cours limité continu.

Cependant, nos recherches suggèrent que cette conception du marché a des défauts inhérents. Un problème majeur est ce que nous appelons le "sniping". Lorsqu'il y a un changement dans les informations ou les signaux publics, les sociétés de négoce engagées dans la fourniture de liquidités ajustent leurs cotations en conséquence. Ils annulent leurs offres ou demandes précédentes et les remplacent par de nouvelles reflétant les informations mises à jour. Maintenant, supposons que je sois l'une de ces sociétés de négoce ajustant mes cotations. Dans le même temps, d'autres, comme Thomas, envoient également des messages à la bourse pour échanger sur les anciennes cotations avant qu'elles ne soient remplacées.

Étant donné que le marché traite ces messages en temps continu et dans un ordre séquentiel, il devient aléatoire quel message atteint l'échange en premier. Si plusieurs sociétés de négoce réagissent simultanément aux nouvelles informations, il est possible qu'une demande de Thomas ou de tout autre participant soit traitée avant la mienne, leur permettant de négocier à l'ancien prix. Ce phénomène de sniping est problématique et crée plusieurs implications.

Premièrement, cela permet des opportunités d'arbitrage mécanique basées sur des informations publiques symétriques, ce qui n'est pas censé se produire dans un marché efficace. Deuxièmement, les bénéfices de ces opportunités d'arbitrage se font au détriment de l'apport de liquidités. Alors que les tireurs d'élite exécutent avec succès des transactions aux anciens prix, les sociétés de négoce d'approvisionnement en liquidités hésitent à ajuster rapidement leurs cotations. Cette hésitation découle de la peur d'être snipé et de perdre des profits potentiels. Par conséquent, le marché devient moins efficace car les fournisseurs de liquidité deviennent moins disposés à mettre à jour leurs cotations en réponse à de nouvelles informations.

Un autre problème avec le carnet d'ordres à cours limité continu est le potentiel d'anticipation des commandes. Dans ce scénario, les traders observent l'arrivée de nouveaux ordres à cours limité et ajustent de manière préventive leurs cotations en prévision des transactions futures. Ce comportement peut conduire à un effet en cascade, où les traders ajustent constamment leurs cotations en réponse les unes aux autres, créant une volatilité et une instabilité inutiles sur le marché.

Pour remédier à ces défauts, notre article propose une conception de marché alternative connue sous le nom de négociation en temps discret ou d'enchères par lots fréquentes. Dans cette conception, plutôt que de traiter les commandes en temps continu, le marché fonctionne par intervalles de temps discrets ou par lots. Au cours de chaque lot, les participants au marché peuvent soumettre leurs ordres à cours limité, et à la fin du lot, le marché s'équilibre et les transactions sont exécutées à un prix uniforme unique.

En introduisant le trading en temps discret, nous éliminons les problèmes de sniping et d'anticipation des commandes. Étant donné que toutes les commandes soumises dans un lot sont traitées simultanément, il n'y a pas de hasard dans l'exécution de la commande. Les commerçants peuvent être sûrs que leurs ordres seront exécutés au même prix que les autres participants au sein du même lot, garantissant l'équité et réduisant l'incitation au sniping.

De plus, les enchères par lots fréquentes favorisent la stabilité et réduisent la volatilité inutile du marché. Les commerçants n'ont plus besoin d'ajuster constamment leurs cotations en réponse à chaque commande entrante. Ils peuvent plutôt se concentrer sur l'analyse des informations et prendre des décisions commerciales éclairées, sachant que leurs ordres seront exécutés à la fin du lot à un prix équitable.

Investir sur les marchés financiers nécessite souvent un certain temps d'attente pour que les transactions aient lieu. Différentes personnes peuvent avoir des opinions différentes quant à savoir si ce temps d'attente représente un coût important ou non. Par exemple, si vous êtes légèrement plus rapide que moi dans l'exécution des transactions, comme être un millionième de seconde plus rapide, cela pourrait vous donner un avantage pour agir sur les événements d'actualité dans ce laps de temps. D'un autre côté, je pourrais rater l'occasion d'agir en raison de ma vitesse légèrement plus lente. Cet avantage de vitesse est souvent mesuré par le rapport entre le différentiel de vitesse (Delta) et l'intervalle de lot (tau) dans un marché continu.

Dans un marché discret, si vous êtes légèrement plus rapide que moi, vous pouvez toujours me "sniper" à un intervalle de temps spécifique (delta sur tau) en raison de la concurrence basée sur les enchères. Cependant, si vous et plusieurs autres commerçants êtes tous légèrement plus rapides que moi, nous devrions participer à une enchère pour échanger avec moi au lieu de rivaliser uniquement en fonction de la vitesse. Cela soulève la question de savoir si différents marchés adoptent uniformément cette approche d'horloge synchronisée ou s'il y a des défis pratiques impliqués.

Il est important de noter que dans le marché continu actuel, la loi du prix unique est constamment violée car les changements de prix ne se produisent pas simultanément sur différentes bourses. Cette violation n'est pas facilement détectable par l'observation humaine ou les données de recherche disponibles. Cependant, si plusieurs bourses devaient adopter simultanément des enchères par lots fréquentes, il serait possible de détecter plus facilement les violations de la loi du prix unique. Cela ne signifie pas nécessairement qu'une approche est meilleure ou pire, mais plutôt que les données fourniraient des informations plus claires.

Si un seul échange devait passer à un marché discret tandis que d'autres restaient continus, cet échange éliminerait l'arbitrage de latence et supprimerait une taxe sur la fourniture de liquidités. D'un point de vue économique, cela pourrait donner un avantage à l'échange de marché discret au fil du temps. Cependant, le lancement d'un nouveau marché présente des défis, des ambiguïtés réglementaires et des intérêts acquis des bourses existantes qui bénéficient de la conception actuelle du marché.

En ce qui concerne la proposition d'IEX d'introduire une latence dans chaque commande tout en maintenant un échange continu, cela fonctionne en retardant les commandes entrantes et sortantes d'un intervalle de temps spécifique. IEX surveille les changements sur le marché en une fraction de seconde et ajuste les prix en conséquence. Cependant, une faiblesse potentielle de leur conception est qu'elle repose sur l'accès à des informations sur les prix à partir de sources externes. Cela soulève des questions quant à savoir si l'approche d'IEX contribue à la découverte des prix ou s'appuie simplement sur des informations provenant d'ailleurs.

D'un autre côté, l'introduction de retards aléatoires dans toutes les commandes peut ne pas traiter efficacement le sniping et peut entraîner un trafic de messages infini. Bien que plusieurs idées aient été proposées pour résoudre le problème, nombre d'entre elles se sont révélées inefficaces lorsqu'elles ont été analysées. En revanche, notre article propose de rendre le temps discret et le traitement par lots comme solution au défaut de conception du marché, qui crée des rentes à partir de l'information publique et encourage une course à la vitesse.

Un aspect dont nous discutons dans le document est les avantages informatiques du trading en temps discret. Les marchés financiers modernes ont été confrontés à divers problèmes de calcul, tels que des crashs instantanés et des problèmes de change. Le temps discret offre une simplicité de calcul par rapport au temps continu et offre des avantages spécifiques aux bourses, aux traders algorithmiques et aux régulateurs.

Pour les échanges, le traitement en temps continu peut entraîner des problèmes d'arriérés, où les algorithmes sont incertains de l'état des commandes et du marché pendant les périodes de forte activité. En revanche, les enchères par lots en temps discret peuvent être traitées plus efficacement et offrent un coussin de temps par rapport au temps de traitement dans le pire des cas. Cela réduit l'incertitude et les problèmes d'arriéré auxquels sont confrontés les échanges.

Le temps discret simplifie également le traitement des messages pour les échanges, en éliminant la nécessité de prioriser la diffusion de différents types de messages. Cela réduit la possibilité d'exploiter l'asymétrie de l'information. De plus, le temps discret simplifie l'environnement de programmation pour les échanges, réduisant potentiellement l'apparition de problèmes et améliorant la stabilité globale du système.

Un autre avantage informatique du trading en temps discret est qu'il simplifie l'analyse et la modélisation des stratégies algorithmiques. Sur les marchés en temps continu, les traders algorithmiques sont confrontés au défi d'optimiser leur réponse aux données entrantes en temps réel. Ils doivent prendre des décisions rapidement tout en tenant compte des conditions changeantes du marché. Ce compromis entre vitesse et intelligence est un problème complexe à résoudre.

Cependant, dans le trading en temps discret, le traitement par lots des données permet aux traders algorithmiques d'avoir un intervalle fixe pour analyser et prendre des décisions. Par exemple, si l'intervalle de lot est défini sur 100 millisecondes, les traders ont le luxe de consacrer les 100 premières millisecondes à une analyse approfondie sans la pression d'une exécution immédiate. Cela peut conduire à des processus décisionnels plus sophistiqués et plus précis.

Des questions de recherche découlent de cet avantage informatique. Comment les traders algorithmiques peuvent-ils trouver le juste équilibre entre rapidité et intelligence dans leur prise de décision ? Existe-t-il des externalités négatives associées au fait de privilégier la rapidité par rapport à l'intelligence sur le marché ? Le cadre en temps discret améliore-t-il la précision de la formation des prix par rapport au trading en temps continu ?

Pour les régulateurs, le trading en temps discret offre l'avantage d'une trace écrite plus propre. Sur les marchés en temps continu, la synchronisation des horloges et l'ajustement des horodatages peuvent introduire des complexités lors de la reconstruction de la séquence des événements. Il devient difficile de déterminer l'ordre chronologique des actions sur différents marchés. En revanche, le trading en temps discret simplifie ce processus, facilitant l'établissement d'un enregistrement clair et précis de l'activité du marché.

Les avantages potentiels d'une trace écrite propre dans le trading en temps discret sont une question ouverte. Intuitivement, une activité de marché bien documentée et facilement traçable peut améliorer la transparence et la responsabilité. Cela peut améliorer la surveillance du marché et aider les régulateurs à identifier et à lutter plus efficacement contre les pratiques commerciales manipulatrices ou illégales.

Notre recherche met en évidence les défauts économiques de la conception actuelle du carnet d'ordres à cours limité et présente une approche alternative appelée négociation en temps discret ou enchères par lots fréquentes. Cette conception alternative résout des problèmes tels que le sniping et l'anticipation des commandes, favorisant l'équité, la stabilité et l'efficacité des échanges financiers. En explorant ces questions ouvertes et ces directions de recherche, nous visons à stimuler une enquête plus approfondie sur la conception des échanges financiers, en reliant les domaines de l'économie et de l'informatique pour améliorer la fonctionnalité et la performance du marché.

Le trading en temps discret offre plusieurs avantages informatiques par rapport au trading en temps continu. Il simplifie le traitement des messages pour les échanges, réduit les goulots d'étranglement de calcul et permet des stratégies algorithmiques plus sophistiquées. Il fournit également une trace écrite plus claire pour les régulateurs, améliorant la surveillance et la transparence du marché. Cependant, des recherches supplémentaires sont nécessaires pour explorer les implications et les inconvénients potentiels du trading en temps discret dans la pratique.

The Design of Financial Exchanges: Some Open Questions at the Intersection of Econ and CS
The Design of Financial Exchanges: Some Open Questions at the Intersection of Econ and CS
  • 2015.11.20
  • www.youtube.com
Eric Budish, University of ChicagoAlgorithmic Game Theory and Practicehttps://simons.berkeley.edu/talks/eric-budish-2015-11-19
 

ChatGPT et Machine Learning dans le trading



ChatGPT et Machine Learning dans le trading

Le présentateur se penche sur le sujet de l'utilisation de modèles de traitement du langage naturel (NLP) comme ChatGPT dans l'industrie du commerce, en mettant l'accent sur leur capacité à analyser et à comprendre les sources de texte telles que les articles de presse, les publications sur les réseaux sociaux et les états financiers. Plus précisément, ChatGPT, un modèle de langage puissant, est bien adapté pour analyser de grandes quantités de données financières et générer des réponses naturelles, permettant aux traders d'engager des conversations sur les opportunités de trading.

La communauté financière attend beaucoup de ChatGPT, anticipant sa contribution au développement et à l'optimisation des stratégies de trading. Le présentateur explique en outre les distinctions entre l'intelligence artificielle (IA), l'apprentissage automatique (ML) et l'apprentissage en profondeur, soulignant que l'apprentissage automatique est un sous-ensemble de l'IA qui utilise des techniques pour apprendre aux machines à simuler le comportement humain et à prendre des décisions intelligentes.

Ensuite, le présentateur discute du flux de travail typique du ML dans le trading. Ils expliquent que le ML permet aux machines d'apprendre à partir des données et de faire des prédictions, en suivant une série d'étapes. Dans un premier temps, les données sont collectées et prétraitées pour garantir leur qualité et leur pertinence. Ensuite, les fonctionnalités sont conçues pour convertir les données brutes en attributs significatifs que les machines peuvent comprendre. Les données sont ensuite divisées en ensembles d'apprentissage et de test, et un modèle est construit à l'aide d'algorithmes ML. Enfin, le modèle est testé sur de nouvelles données, et s'il fonctionne de manière satisfaisante, il peut être utilisé pour faire des prédictions, facilitant le processus de trading.

Pour illustrer l'application du ML, le présentateur donne un exemple de prédiction des prix élevés et bas d'un actif, tel que l'or, pour le jour de bourse suivant. Cette prédiction peut grandement aider les traders à prendre des décisions éclairées et à améliorer leurs stratégies de trading.

De plus, le présentateur explore comment ChatGPT peut servir d'outil précieux pour résoudre les problèmes de trading, comme la création d'un modèle de régression linéaire pour prédire les prix de l'or. Ils comparent l'approche de ChatGPT à une approche quantitative plus complète, qui implique la collecte de données, le nettoyage, la création de modèles, le développement de pipelines, le trading en direct et l'amélioration continue. Un exemple de bloc-notes de code de régression d'apprentissage automatique est partagé, décrivant les quatre étapes clés impliquées dans la résolution du problème : préparation des données, prétraitement, prévision des prix et analyse de la stratégie et des performances. Bien que ChatGPT puisse aider à la génération d'idées, le présentateur insiste sur la nécessité d'une compréhension nuancée de chaque concept et d'une attention particulière pour éviter les erreurs.

Les limites et les risques associés à l'utilisation de ChatGPT dans le trading algorithmique basé sur ML sont également abordés. Le présentateur met en évidence les défis potentiels, notamment le manque d'expertise dans le domaine, les données de formation limitées et les problèmes d'interprétabilité. Ils mettent en garde contre le fait de se fier uniquement à ChatGPT pour les décisions de trading et soulignent l'importance d'effectuer des contrôles d'exactitude sur différentes périodes financières.

De plus, le présentateur discute des résultats d'un sondage mené sur la capacité de ChatGPT à générer du code avec précision. La majorité de l'audience (74 %) identifie correctement que ChatGPT peut fournir une précision raisonnable, mais n'est pas adapté aux tâches de programmation complexes nécessitant une expertise du domaine. Pour illustrer le processus, le présentateur montre comment diviser les données en ensembles d'apprentissage et de test à l'aide du code Python généré par ChatGPT. Ils mettent l'accent sur le bon séquençage des données, en particulier dans le contexte des données de séries chronologiques dans le commerce.

L'évaluation des algorithmes de trading basés sur ML par le biais de backtesting et d'analyses stratégiques est considérée comme une étape cruciale dans l'évaluation de leurs performances. Le présentateur souligne la nécessité d'une analyse approfondie à l'aide de diverses mesures telles que le ratio de Sharpe, les rendements annualisés et la volatilité des rendements pour mieux comprendre les transactions et la performance globale. Une comparaison entre les rendements d'un algorithme de trading et d'une stratégie d'achat et de conservation est présentée comme une première étape dans l'évaluation de l'efficacité de l'algorithme.

De plus, le présentateur partage un exemple de stratégie de trading rentable et souligne l'importance de la visualisation et de l'analyse des données dans le processus de trading. Les analyses de stratégie, y compris les rendements annuels et les rendements cumulés, sont essentielles pour évaluer le succès d'une stratégie.

En changeant de vitesse, le présentateur aborde les limites de l'utilisation de GPT pour l'analyse financière dans le trading. Le public a déjà participé à un sondage, la majorité exprimant l'opinion qu'une précision raisonnable nécessite une vérification des faits et que GPT peut ne pas convenir à une analyse financière. Pour illustrer cette limitation, le présentateur demande à GPT de comparer les états financiers annuels d'Apple et de Microsoft pour 2020. Cependant, GPT fournit une réponse inexacte, soulignant ses limites en tant que modèle générateur qui manque d'expertise dans le domaine. Le présentateur souligne l'importance d'acquérir des connaissances liées à la finance, de lire des livres et de vérifier les faits avant d'appliquer des algorithmes ML, tels que GPT, au trading.

Reconnaissant l'importance des connaissances liées au domaine en finance, le présentateur suggère de suivre des cours pour acquérir une expertise. Cette expertise permet aux commerçants de mieux utiliser les outils d'apprentissage automatique comme ChatGPT. À l'appui de cela, le présentateur offre un accès gratuit à quatre blocs-notes d'un cours de formation sur le commerce avec l'apprentissage automatique, permettant aux téléspectateurs d'acquérir une compréhension plus approfondie du code et de son application.

Au cours de la session de questions-réponses, une question commune se pose concernant la capacité de ChatGPT à suivre les changements quotidiens des marchés financiers. Le présentateur précise qu'en tant que modèle de langage, l'efficacité de ChatGPT est limitée par les données sur lesquelles il a été formé et n'est pas mis à jour quotidiennement. Rester à jour avec les dernières données du marché est essentiel pour utiliser efficacement ChatGPT ou tout autre modèle d'apprentissage automatique en finance.

Les conférenciers répondent à diverses autres questions du public, fournissant des informations utiles. Ils informent le public que la session enregistrée sera partagée par e-mail et sur leur chaîne YouTube pour référence future. Ils discutent également de la disponibilité d'un notebook pour les prochaines 24 heures et expliquent le concept de pipeline dans l'apprentissage automatique.

Une question spécifique est soulevée concernant la conversion du code Python vectorisé en un format déployable dans une bibliothèque de trading en direct. Les conférenciers expliquent que bien que ChatGPT puisse aider à la conversion de code, la définition de déclencheurs d'événements est toujours nécessaire. De plus, ils mentionnent que Chargeability 3.5 ne fournit pas d'informations pour l'année 2022.

Pour conclure, les conférenciers discutent d'une stratégie de trading qui utilise des prédictions hautes et basses pour le lendemain, qui a été optimisée à l'aide de techniques d'apprentissage automatique. Ils mettent l'accent sur les applications de l'apprentissage en profondeur dans le trading, telles que la prévision de séries chronologiques, l'optimisation de portefeuille et la gestion des risques. L'apprentissage en profondeur, associé à l'apprentissage par renforcement, peut améliorer les performances des stratégies de trading en permettant aux agents d'apprendre de leurs erreurs grâce à des récompenses et des punitions.

Le présentateur souligne que l'expertise et l'intuition du domaine restent essentielles pour une utilisation fiable de l'apprentissage automatique dans le trading. Bien que des outils comme ChatGPT puissent aider à analyser les données historiques et à évaluer la probabilité de succès dans les transactions futures, il ne faut pas s'y fier uniquement. L'importance d'acquérir des connaissances liées au domaine, de vérifier les faits et de se tenir constamment au courant des dernières données du marché est soulignée pour garantir une prise de décision précise et éclairée dans le secteur du trading.

  • 00:00:00 Les algorithmes ML peuvent comprendre les tendances et les modèles du marché, puis utiliser ces informations pour prédire les mouvements futurs du marché. Pour faciliter ce processus, des algorithmes d'apprentissage automatique sont souvent utilisés, et c'est là que ChatGPT entre en jeu. ChatGPT est un outil de traitement du langage naturel qui peut aider les traders à analyser de grandes quantités de données financières et à fournir des informations sur les tendances du marché. Cependant, l'utilisation de ChatGPT comporte son propre ensemble de défis et de risques, qui seront abordés plus loin dans la présentation. Dans l'ensemble, ML et ChatGPT ont révolutionné l'industrie du trading en permettant des prédictions plus précises et une prise de décision mieux informée.

  • 00:05:00 L'orateur discute de l'utilisation de modèles de traitement du langage naturel (NLP) comme ChatGPT dans l'industrie du trading. Ces modèles sont capables d'analyser et de comprendre des sources textuelles telles que des articles de presse, des publications sur les réseaux sociaux et des états financiers. ChatGPT, un grand modèle de langage, est particulièrement bien adapté à l'analyse de ces données et peut générer des réponses naturelles aux invites textuelles, ce qui permet d'engager des conversations sur les opportunités de trading. La communauté financière attend beaucoup de ChatGPT, car il devrait aider à développer et à optimiser les stratégies de trading. L'orateur explique également les différences entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage en profondeur, l'apprentissage automatique étant un ensemble de techniques utilisées dans l'IA pour apprendre aux machines à simuler le comportement humain et à prendre des décisions intelligentes.

  • 00:10:00 L'orateur explique comment l'apprentissage automatique (ML) peut être utilisé pour le trading et décrit le flux de travail typique du ML dans le trading. Ils expliquent que le ML est un sous-ensemble de l'intelligence artificielle (IA) qui permet aux machines d'apprendre à partir des données et de faire des prédictions. Pour appliquer le ML, les données sont d'abord collectées et prétraitées, puis les fonctionnalités sont conçues pour convertir les données brutes en attributs qu'une machine peut comprendre. Les données sont ensuite modifiées, divisées en ensembles d'apprentissage et de test, et intégrées dans un modèle. Enfin, le modèle est testé sur de nouvelles données, et si elles sont satisfaisantes, des prédictions peuvent être faites. L'orateur fournit ensuite un exemple d'utilisation du ML pour prédire le haut et le bas d'un actif tel que l'or pour le jour de négociation suivant, ce qui peut faciliter le processus de négociation.

  • 00:15:00 L'orateur explique comment ChatGPT peut être utilisé pour résoudre des problèmes tels que la création d'un modèle de régression linéaire pour prédire les prix de l'or le lendemain. Ils comparent l'approche de ChatGPT à une approche quantitative plus professionnelle, qui comprend la collecte et le nettoyage des données, la création de modèles et de pipelines, la vérification des données AP, le trading en direct et le déploiement en production tout en s'améliorant continuellement. Ils montrent également un exemple de bloc-notes de code de régression d'apprentissage automatique et expliquent les quatre parties de la résolution du problème : préparation des données, prétraitement, prévision des prix et analyse de la stratégie et des performances. L'orateur note que si ChatGPT peut être utilisé pour la génération d'idées, il est important de comprendre chaque concept en détail et d'être nuancé dans l'approche pour éviter les erreurs. Ils discutent également de l'utilisation de ChatGPT pour générer du code et lancer un sondage.

  • 00:20:00 L'orateur discute des réponses du public à un sondage concernant la capacité de ChargeGPT à générer du code avec précision. La majorité de l'audience (74 %) choisit correctement que ChargeGPT peut fournir une précision raisonnable, mais n'est pas adapté aux tâches de programmation complexes qui nécessitent une expertise du domaine. L'orateur explique ensuite comment diviser les données en un ensemble d'entraînement et de test à l'aide du code Python généré par ChargeGPT et montre comment les données doivent être correctement séquencées pour les données de séries chronologiques dans le commerce.

  • 00:25:00 L'orateur discute de l'importance d'évaluer les performances d'un algorithme de trading basé sur l'apprentissage automatique en effectuant des backtesting et des analyses de stratégie. Ils expliquent que cela nécessite une analyse détaillée des performances de la stratégie et l'utilisation de diverses mesures telles que le ratio net, les rendements annualisés et la volatilité des rendements pour mieux comprendre les transactions et les performances. L'orateur montre également un exemple de la façon de comparer le rendement d'un algorithme de trading avec une stratégie d'achat et de conservation comme première étape pour comprendre si l'algorithme de trading fonctionne bien.

  • 00:30:00 L'orateur discute des résultats de l'application d'algorithmes d'apprentissage automatique aux stratégies de trading et souligne l'importance de visualiser et d'analyser les données. Ils présentent une stratégie rentable et soulignent le besoin d'analyses stratégiques, telles que le rendement annuel et les rendements cumulés. L'orateur passe ensuite aux défis et aux risques associés à l'utilisation de ChatGPT pour le trading d'algorithmes basés sur ML, en notant les limites telles que le manque d'expertise dans le domaine, les données de formation limitées et les problèmes d'interprétabilité. Ils mettent en garde contre le fait de se fier uniquement à ChatGPT pour les décisions commerciales et soulignent l'importance des contrôles de précision pour différentes périodes financières.

  • 00:35:00 L'orateur discute des limites de l'utilisation du modèle de langage GPT pour l'analyse financière dans le trading. Le public a déjà participé à un sondage et la majorité a estimé qu'une précision raisonnable nécessite une vérification des faits et que GPT peut ne pas convenir à une analyse financière. L'orateur démontre cette limitation en demandant à GPT de comparer les états financiers annuels d'Apple et de Microsoft pour 2020, ce qui a abouti à une réponse inexacte. L'orateur souligne que GPT est un modèle générateur et manque d'expertise dans le domaine, ce qui pourrait conduire à des conclusions ou suggestions erronées. Par conséquent, l'orateur recommande de lire plus de livres, d'acquérir des connaissances liées à la finance et de vérifier les faits avant d'appliquer les algorithmes ML pour le trading.

  • 00:40:00 Le présentateur souligne l'importance d'avoir des connaissances liées au domaine lors de l'application de l'apprentissage automatique en finance. Il suggère de suivre des cours pour acquérir cette expertise, ce qui peut permettre une meilleure utilisation des outils d'apprentissage automatique tels que ChatGPT. Le présentateur offre également un accès gratuit à quatre blocs-notes d'un cours de formation sur le commerce avec l'apprentissage automatique pour que les téléspectateurs puissent mieux comprendre le code. Au cours de la session de questions-réponses, une question commune a été soulevée quant à savoir si ChatGPT peut suivre les changements quotidiens des marchés financiers. Le présentateur précise qu'en tant que modèle de langage, sa qualité dépend uniquement des données sur lesquelles il est formé et qu'il n'est pas mis à jour quotidiennement. Pour une utilisation efficace de ChatGPT ou de tout modèle d'apprentissage automatique en finance, il est essentiel de se tenir au courant des dernières données du marché.

  • 00:45:00 Les intervenants répondent à diverses questions du public. Ils expliquent que la session enregistrée sera partagée par e-mail et sur leur chaîne YouTube. Ils discutent également de la disponibilité d'un notebook pour les prochaines 24 heures et de la définition d'un pipeline en machine learning. Les intervenants répondent à une question sur la conversion du code Python vectorisé en un code pouvant être déployé dans une bibliothèque pour le trading en direct. Il est expliqué que bien que Charge puisse aider à convertir le code, il est toujours nécessaire de définir des déclencheurs d'événements. Les conférenciers mentionnent également que Chargeability 3.5 ne fournit pas d'informations pour 2022. Enfin, les conférenciers parlent d'une stratégie de trading utilisant les hauts et les bas du lendemain et comment elle a été optimisée à l'aide de l'apprentissage automatique.

  • 00:50:00 L'orateur explique les applications de l'apprentissage en profondeur dans le trading, y compris les prévisions de séries chronologiques, l'optimisation des portefeuilles et la gestion des risques. Ils décrivent comment l'apprentissage en profondeur crée certains agents qui apprennent de leurs erreurs par le biais de récompenses et de punitions, et comment une combinaison d'apprentissage en profondeur et d'apprentissage par renforcement peut être utilisée pour améliorer les performances des stratégies de trading. L'orateur souligne que la clé d'une utilisation fiable de l'apprentissage automatique dans le trading est l'expertise et l'intuition du domaine, et que des outils comme ChatGPT peuvent être utilisés pour analyser les données historiques et fournir des informations sur la probabilité de succès dans les transactions futures.

  • 00:55:00 L'orateur explique que l'utilisation de la chargeabilité seule n'est peut-être pas la meilleure approche pour déterminer le risque des transactions, car elle nécessite une compréhension approfondie du domaine lui-même. Il est important d'acquérir des connaissances et une compréhension du domaine avant de s'appuyer sur un outil ou un code pour résoudre le problème. Ils mentionnent également la différence entre deux cours de trading et répondent à une question sur la conversion du code spécifique à la plateforme de trading en Python. Bien que la chargeabilité puisse aider à convertir le langage de programmation générique, elle peut ne pas être utile dans les conversions de code spécifiques à la plate-forme.
ChatGPT and Machine Learning in Trading
ChatGPT and Machine Learning in Trading
  • 2023.03.22
  • www.youtube.com
This session discusses the basics, uses & needs of ChatGPT and machine learning in trading. Attendees will learn how to integrate ChatGPT and machine learnin...
 

Comprendre le comportement des marchés financiers : le rôle de plusieurs catégories de données



Comprendre le comportement des marchés financiers : le rôle de plusieurs catégories de données

L'hôte commence le webinaire en introduisant le sujet de la compréhension du comportement des marchés financiers et du rôle de plusieurs catégories de données. Les panélistes, dont le professeur Gotham Mitra, le Dr Ernest Chan et le Dr Mateo Campoloni, sont présentés comme des experts possédant une vaste expérience dans les carrières commerciales et universitaires. Le webinaire vise à explorer comment les données de diverses catégories jouent un rôle crucial dans la compréhension et la prévision du comportement des marchés financiers, un sujet qui a pris une importance croissante ces derniers temps. Il est mentionné que la session fait partie du certificat Sentimentalysis and Alternative Data for Finance offert par Opticks Systems et QuantInsti.

Le premier orateur insiste sur l'importance des données pour comprendre le comportement des marchés financiers. Alors qu'au début, seules des données limitées telles que les prix du marché, les ordres d'achat et de vente et la profondeur du livre étaient disponibles, il existe désormais un large éventail de catégories de données à prendre en compte. Il s'agit notamment des données d'actualité, des données sur le sentiment des médias et des données alternatives. Malgré l'hypothèse du marché efficient, qui suggère que les marchés finissent par intégrer toutes les informations, il existe encore des inefficacités à court terme sur le marché. Par conséquent, les données jouent un rôle crucial dans la découverte de nouveaux alpha et la résolution de deux problèmes majeurs du marché : la planification de portefeuille et le contrôle des risques. Le conférencier souligne également l'importance croissante de l'intelligence artificielle (IA) et de l'apprentissage automatique dans le traitement des données.

L'orateur suivant présente le concept d'investissement causal, qui consiste à examiner les relations causales entre différents prédicteurs et variables cibles, plutôt que d'analyser uniquement les corrélations statistiques. En utilisant des données alternatives telles que l'activité des options, les investisseurs peuvent mieux comprendre les causes sous-jacentes des mouvements de prix et améliorer la précision de leurs stratégies de trading. Un exemple de la stratégie de retour à la moyenne est cité, soulignant l'importance de comprendre pourquoi elle échoue parfois. Grâce à l'utilisation de données alternatives pour découvrir les causes des mouvements de prix, les investisseurs peuvent prendre des décisions plus éclairées sur le moment d'appliquer leurs stratégies.

L'importance des données pour les opérateurs du marché, en particulier les données alternatives, est discutée par l'orateur suivant. Les données alternatives font référence à toutes les données qui ne sont pas déjà une norme de l'industrie et forment un écosystème en constante expansion avec de nouveaux acteurs et fournisseurs de données qui émergent continuellement. Ces données peuvent provenir de divers canaux tels que les transactions par carte de crédit, les images satellites, les données des appareils mobiles, les données météorologiques, etc. Le conférencier mentionne également l'utilisation d'outils de traitement du langage naturel pour analyser des documents textuels et générer des indicateurs de sentiment, qui peuvent être précieux pour les investisseurs en complément de leurs stratégies d'investissement.

Le processus d'utilisation des données alternatives dans les stratégies d'investissement est décrit par l'orateur suivant. Il s'agit d'identifier de nouvelles sources d'information, d'incorporer et de transformer les données non structurées en ensembles de données structurées. Après avoir élaboré une stratégie d'investissement, la validation devient une étape cruciale qui nécessite de comprendre la fiabilité des données et la signification statistique des résultats. L'orateur souligne l'importance de ne pas se fier uniquement à des données alternatives et de prendre également en compte les données du marché lors de la création de modèles.

Les conférenciers se penchent sur l'importance des données alternatives pour saisir les tendances du marché et les défis liés au backtesting de ces données. Alors que les traders techniques s'appuyaient auparavant sur des mesures simples comme la moyenne mobile sur 120 jours, il y a maintenant une poussée pour incorporer un plus large éventail de catégories de données pour comprendre les causes de retour. Cependant, étant donné que les données alternatives sont relativement nouvelles, il y a des inquiétudes quant à la façon de les tester et à quel point elles restent cohérentes dans le temps. Comprendre l'impact des stratégies d'investissement nécessite d'évaluer la stabilité du système vis-à-vis des fluctuations aléatoires.

L'utilisation de plates-formes de données alternatives comme Bloomberg Icon et Reuters Quantum par les traders pour développer des stratégies d'investissement robustes est discutée par les intervenants. Bien que ces plateformes aient leurs propres modèles pour quantifier diverses formes de données telles que le sentiment et les actualités, les intervenants recommandent aux traders de créer leurs propres modèles. L'importance d'utiliser des API pour recevoir des entrées de données alternatives est soulignée, et la valeur des sites Web organisés comme le Credit Suisse dans l'analyse des annonces des entreprises est mentionnée. Enfin, les conférenciers notent que des approches étroites et spécialisées peuvent être très efficaces pour analyser le comportement du marché.

Les conférenciers discutent ensuite des divers outils et sites Web qui peuvent être utilisés pour comprendre le comportement des différentes classes d'actifs sur le marché financier et comment suivre le marché en fonction du style d'investissement et de l'horizon temporel. Tout en reconnaissant qu'il n'existe pas de solution unique, ils suggèrent que des informations qualitatives provenant de sites Web comme Bloomberg peuvent être utiles à cet égard. Ils soulignent également l'importance de comprendre le sentiment et les sources de données alternatives telles que les microblogs et les forums de discussion. Cependant, ils notent qu'il n'est pas nécessairement garanti que devenir un expert dans ces domaines conduirait à une meilleure carrière sur le marché financier.

Le conférencier explique ensuite la différence entre le développement de stratégies de trading avancées pour les grands fonds et les stratégies simples pour les traders indépendants. Il est mentionné que les techniques complexes peuvent être plus adaptées aux demandeurs d'emploi dans les grands fonds, tandis que les commerçants indépendants sont invités à commencer par une stratégie de niche qui peut ne pas intéresser les institutions. Cette approche les aide à éviter les coûts élevés associés aux flux de données complexes. L'orateur souligne en outre l'intérêt croissant pour les nouvelles sources de données pour le trading, ce qui en fait un domaine pertinent à apprendre et à poursuivre. Ils mentionnent également qu'ils utilisent personnellement des données alternatives dans une certaine mesure dans leur gestion de fonds et aident les clients à mettre en œuvre des modules basés sur l'apprentissage automatique et le traitement du langage naturel ou à valider leurs propres stratégies à l'aide d'ensembles de données.

Au cours de la session de questions-réponses, une question est soulevée sur Twitter vendant des ticks bleus et si les comptes vérifiés auraient plus de poids dans le traitement du langage naturel (TAL). Au départ, les panélistes ont du mal à comprendre la question, mais admettent plus tard qu'ils ne sont pas qualifiés pour y répondre. La discussion passe ensuite aux sources de données financières traditionnelles adaptées aux débutants et aux étudiants, Bloomberg et Definitive étant mentionnés comme des options potentielles. Il est suggéré que les fournisseurs de données puissent offrir des ensembles de données gratuits avec un certain niveau d'interaction.

L'orateur aborde ensuite l'utilisation de sources de données alternatives pour l'analyse des marchés financiers, en mentionnant spécifiquement la société DGLT, qui collecte des données à partir de sources d'information mondiales et locales. Tout en reconnaissant l'effort requis pour filtrer les informations pertinentes, il est à noter que les données collectées peuvent fournir une perspective historique sur le comportement du marché remontant aux années 1800. Lorsqu'on lui demande si les données alternatives doivent être utilisées comme source unique ou pour la validation aux côtés des données traditionnelles, l'orateur déclare qu'il n'y a pas de règle générale et que cela dépend de la stratégie spécifique utilisée. Cependant, ils soulignent que les données du marché restent le principal moteur et que les données alternatives ne doivent pas être exclusivement utilisées.

L'orateur conclut le webinaire en discutant de l'utilisation de données alternatives sur les marchés financiers et de la manière dont l'apprentissage automatique peut être utilisé pour analyser ces données. Ils soulignent la nécessité de saisir plusieurs types de données, y compris les prix et les données fondamentales, dans les algorithmes prédictifs d'apprentissage automatique. Cependant, ils soulignent également que les données alternatives ne peuvent à elles seules servir de moteur unique et doivent être combinées avec des données sur les prix du marché. Le public est invité à nous contacter pour toute autre question qu'il pourrait avoir.

  • 00:00:00 L'hôte présente le sujet du webinaire, qui est de comprendre le comportement des marchés financiers et le rôle de plusieurs catégories de données. Les panélistes comprennent le professeur Gotham Mitra, le Dr Ernest Chan et le Dr Mateo Campoloni, qui ont une vaste expérience dans les carrières commerciales et universitaires. L'objectif principal du webinaire est d'explorer comment les données de plusieurs catégories jouent un rôle crucial dans la compréhension et la prévision du comportement des marchés financiers, qui est devenu de plus en plus important ces derniers temps. La session fait partie du certificat Sentimentalysis and Alternative Data for Finance proposé par Opticks Systems et QuantInsti.

  • 00:05:00 L'orateur discute de l'importance des données pour comprendre le comportement des marchés financiers. Alors qu'au début, les seules données disponibles étaient les prix du marché, les ordres d'achat et de vente et la profondeur du livre, il existe maintenant de nombreuses autres catégories de données, notamment les données d'actualité, les données sur le sentiment des médias et les données alternatives. Malgré l'hypothèse d'un marché efficient, selon laquelle les marchés finissent par assimiler toutes les informations, il existe encore des inefficacités à court terme. Par conséquent, les données sont importantes pour trouver de nouveaux alpha et résoudre deux problèmes majeurs du marché : la planification du portefeuille et le contrôle des risques. L'orateur note également que la part de l'IA et de l'apprentissage automatique dans les données de connaissance devient de plus en plus importante sur la scène des données.

  • 00:10:00 L'orateur discute du concept d'investissement causal, qui consiste à examiner les relations causales entre différents prédicteurs et variables cibles, plutôt que de simplement analyser les corrélations statistiques. Grâce à l'utilisation de données alternatives, telles que l'activité des options, les investisseurs peuvent comprendre les causes sous-jacentes des mouvements de prix et utiliser ces informations pour améliorer la précision de leurs stratégies de trading. L'orateur cite l'exemple de la stratégie de retour à la moyenne et l'importance de comprendre pourquoi elle échoue parfois. En utilisant des données alternatives pour découvrir les causes des mouvements de prix, les investisseurs peuvent prendre des décisions plus éclairées sur le moment d'exécuter leurs stratégies.

  • 00:15:00 L'orateur discute de l'importance des données pour les opérateurs du marché, en particulier des données alternatives, qui font référence à toutes les données qui ne sont pas déjà un standard de l'industrie. Les données alternatives sont un écosystème en croissance constante avec de nouveaux acteurs et fournisseurs d'ensembles de données qui émergent constamment. Ces données peuvent provenir de diverses sources telles que les transactions par carte de crédit, les images satellites, les données des appareils mobiles, les données météorologiques, etc. Le conférencier mentionne également l'utilisation d'outils de traitement du langage naturel pour traiter des documents textuels et créer des indicateurs de sentiment qui peuvent être utilisés par les investisseurs pour compléter leurs stratégies d'investissement.

  • 00:20:00 L'orateur décrit le processus d'utilisation de données alternatives dans les stratégies d'investissement, qui implique de trouver de nouvelles sources d'informations, d'intégrer les informations et de les transformer d'ensembles de données non structurés en ensembles de données structurés. Après avoir créé une stratégie d'investissement, l'étape cruciale est la validation, qui nécessite de comprendre la fiabilité des données et la signification statistique des résultats. De plus, il est important de ne pas s'appuyer uniquement sur des données alternatives et de prendre également en compte les données du marché lors de la création de modèles.

  • 00:25:00 Les conférenciers discutent de l'importance des données alternatives pour saisir les tendances du marché et des difficultés qui accompagnent le backtesting des données. Alors qu'auparavant, les traders techniques s'appuyaient sur des mesures simples comme la moyenne mobile sur 120 jours, il y a maintenant une pression pour inclure une gamme de différentes catégories de données pour comprendre les causes des rendements. Cependant, les données alternatives ne sont que parce qu'elles n'existaient pas dans le passé, il y a une question de savoir comment les tester et à quel point elles sont cohérentes dans le temps. Les intervenants soulignent que comprendre l'effet des stratégies d'investissement nécessite d'évaluer la stabilité du système par rapport aux fluctuations aléatoires.

  • 00:30:00 Les intervenants discutent de l'utilisation de plates-formes de données alternatives telles que Bloomberg Icon et Reuters Quantum par les traders pour créer des stratégies d'investissement solides. Bien que ces plates-formes aient leurs propres modèles pour quantifier diverses formes de données telles que les données de sentiment et les données d'actualité, il est recommandé aux traders de créer leurs propres modèles. De plus, les conférenciers parlent de l'importance d'utiliser des API pour recevoir des entrées de données alternatives et de la valeur d'utiliser des sites Web organisés comme le Credit Suisse pour analyser les annonces des entreprises. Enfin, les conférenciers notent que des approches étroites et spécialisées peuvent être assez efficaces pour analyser le comportement du marché.

  • 00:35:00 Les conférenciers discutent des différents outils et sites Web qui peuvent être utilisés pour comprendre le comportement des différentes classes d'actifs sur le marché financier, ainsi que de la manière de suivre le marché en fonction du style d'investissement et de l'horizon temporel. Bien qu'il n'y ait pas de solution unique, les informations qualitatives provenant de sites Web comme Boomberg peuvent être utiles. Les conférenciers parlent également de l'importance de comprendre le sentiment et les données alternatives comme les microblogs et les salons de discussion. Cependant, il n'est pas clair si devenir un expert dans ces domaines conduirait nécessairement à une meilleure carrière sur le marché financier.

  • 00:40:00 L'orateur explique la différence entre le développement de stratégies de trading avancées pour les grands fonds et les stratégies simples pour les traders indépendants. Alors que les techniques complexes peuvent être mieux adaptées aux demandeurs d'emploi dans les grands fonds, les traders indépendants feraient mieux de commencer par une stratégie de niche qui peut ne pas intéresser les institutions et d'éviter les coûts élevés associés aux flux de données complexes. L'orateur note également qu'il existe un intérêt croissant pour les nouvelles sources de données pour le trading, ce qui en fait un domaine pertinent à apprendre et à poursuivre. Ils mentionnent également qu'ils utilisent dans une certaine mesure des données alternatives dans leur gestion de fonds et aident également les clients à mettre en œuvre des modules basés sur l'apprentissage automatique et le traitement du langage naturel ou à valider leurs propres stratégies à l'aide d'ensembles de données.

  • 00:45:00 Une question est posée sur Twitter vendant des ticks bleus et si oui ou non les comptes vérifiés seraient davantage pondérés dans le traitement du langage naturel (NLP). Les panélistes ont d'abord du mal à comprendre la question et admettent plus tard qu'ils ne sont pas qualifiés pour y répondre. La discussion passe ensuite aux sources de données financières traditionnelles pour les débutants et les étudiants, avec Bloomberg et Definitive mentionnés comme options potentielles, et la suggestion que les fournisseurs de données puissent offrir des ensembles de données gratuits avec une certaine interaction.

  • 00:50:00 L'orateur discute de l'utilisation de sources de données alternatives pour l'analyse des marchés financiers, mentionnant spécifiquement la société DGLT qui collecte des données à partir de sources d'information mondiales et locales. Bien que le filtrage des informations nécessaires puisse demander beaucoup de travail, les données collectées peuvent remonter aux années 1800, offrant une perspective historique sur le comportement du marché. Lorsqu'on lui demande si les données alternatives doivent être utilisées comme source unique ou pour la validation aux côtés des données traditionnelles, l'orateur déclare qu'il n'y a pas de règle générale et que cela dépend de la stratégie spécifique utilisée. Cependant, l'orateur souligne que les données de marché sont reines et qu'il ne faut pas se fier exclusivement aux données alternatives.

  • 00:55:00 L'orateur discute de l'utilisation de données alternatives sur les marchés financiers et de la manière dont l'apprentissage automatique pourrait être utilisé pour analyser ces données. Il note que plusieurs types de données, y compris les prix et les données fondamentales, devraient être entrées dans l'algorithme prédictif d'apprentissage automatique. Cependant, il mentionne également que les données alternatives ne peuvent pas être utilisées comme un moteur autonome et doivent être couplées avec les prix du marché. Le conférencier conclut le webinaire et encourage les téléspectateurs à poser toutes les questions qu'ils pourraient avoir.
Understanding Financial Market Behaviour: The role of multiple categories of data
Understanding Financial Market Behaviour: The role of multiple categories of data
  • 2023.03.02
  • www.youtube.com
Financial markets are influenced by news, (micro) blogs and other categories of online streaming data. These sources of information reach financial market pa...
 

Introduction à l'investissement factoriel quantitatif



Introduction à l'investissement factoriel quantitatif

Cette vidéo présente le concept d'investissement factoriel quantitatif et sa classification en différents facteurs, notamment la valeur, le momentum, la qualité et la taille. Le conférencier explique que l'investissement factoriel consiste à sélectionner des titres en fonction de facteurs spécifiques censés générer des rendements et ce, pendant de longues périodes. La vidéo couvre différentes méthodes quantitatives qui peuvent être utilisées pour appliquer l'investissement factoriel quantitatif, y compris l'analyse statistique, la modélisation factorielle, l'apprentissage automatique, les modèles d'optimisation, l'analyse de séries chronologiques, les modèles de risque et la simulation montagriale. L'orateur discute également des avantages de l'utilisation de l'investissement factoriel quantitatif et du processus de sélection et de combinaison des facteurs, ainsi que des réponses aux questions liées au sujet, notamment sur les sources de données et l'adéquation au trading à moyenne/haute fréquence.

Dans le webinaire, Varun Kumar, analyste quantitatif chez QuantInsti, fournit une introduction complète à l'investissement factoriel quantitatif. Il commence par expliquer le concept de facteurs, qui sont des sources larges et persistantes de risque et de rendement qui guident les investisseurs vers des rendements quantifiables. Certains facteurs communs incluent la valeur, le momentum, la qualité, la taille et la volatilité. Kumar se concentre sur le facteur qualité à titre d'exemple, ce qui implique d'investir dans des sociétés présentant des caractéristiques de haute qualité. Les ratios financiers tels que le rendement des fonds propres et le taux de croissance de la rentabilité sont utilisés pour quantifier la qualité d'une entreprise. Les actions avec des ratios élevés et des marges élevées sont considérées comme de haute qualité, tandis que celles avec des ratios et des marges plus faibles sont considérées comme de faible qualité. Les données historiques montrent que les portefeuilles composés d'actions de haute qualité ont généré des rendements excédentaires sur de longues périodes.

Kumar se penche ensuite sur la classification des facteurs dans l'investissement factoriel quantitatif. Les facteurs sont classés en sept types, y compris les facteurs macro, les facteurs basés sur le style, les facteurs sectoriels, les facteurs basés sur l'ESG, les facteurs basés sur le sentiment, les facteurs basés sur la liquidité et les facteurs techniques. Il donne un aperçu du fonctionnement de chacun de ces facteurs et de la manière dont ils peuvent être utilisés pour construire des portefeuilles factoriels. Pour illustrer cela, il présente des exemples de stratégies construites à partir de facteurs macroéconomiques et de style. Ces stratégies impliquent l'utilisation de variables telles que la croissance du PIB, le taux d'inflation, le taux d'intérêt et le rendement des capitaux propres pour sélectionner des actions et constituer un portefeuille. Kumar souligne également l'importance de prendre en compte des facteurs tels qu'un rendement plus élevé des capitaux propres et un faible ratio d'endettement lors de la sélection d'actions pour un portefeuille.

Le webinaire explore en outre divers facteurs pouvant être intégrés aux stratégies d'investissement factoriel quantitatif, notamment les facteurs de style, la matrice sectorielle, les critères ESG, le sentiment, la liquidité et les indicateurs techniques. Kumar explique comment ces facteurs peuvent être utilisés pour développer un cadre logique pour la construction de portefeuilles et fournit des exemples concrets de stratégies qui peuvent être mises en œuvre à l'aide de ces facteurs. Il évoque brièvement les critères ESG, c'est-à-dire les critères environnementaux, sociaux et de gouvernance, et leur rôle dans la notation des entreprises en fonction de leur impact sur la société et l'environnement.

L'utilisation de modèles mathématiques et d'analyses statistiques dans l'investissement factoriel quantitatif est également abordée. Kumar souligne que ces méthodes aident à éliminer les biais émotionnels des décisions d'investissement et permettent l'exploration de facteurs moins intuitifs. Il décrit les sept méthodes quantitatives les plus couramment utilisées dans ce domaine, notamment l'analyse statistique, la modélisation factorielle, l'apprentissage automatique, les modèles d'optimisation, l'analyse des séries chronologiques, les modèles de risque et les simulations de Monte Carlo. La vidéo montre comment l'analyse statistique peut être utilisée pour identifier les modèles et les corrélations entre les titres et les facteurs.

Les avantages de l'investissement factoriel quantitatif dans la construction et la gestion de portefeuilles d'investissement sont explorés dans le webinaire. L'un des principaux avantages est la possibilité de simuler des conditions de marché extrêmes, ce qui aide les investisseurs à mieux comprendre les limites de leurs portefeuilles. Le conférencier souligne les différences d'approche entre l'investissement factoriel traditionnel et quantitatif, en utilisant une étude de cas d'un portefeuille d'actions à grande capitalisation avec de faibles ratios cours/bénéfice. Alors que l'investissement traditionnel implique l'identification de facteurs, la détermination de l'univers des actions à grande capitalisation et le calcul des facteurs pour chaque action avant de les trier en fonction des ratios P/E, l'investissement factoriel quantitatif utilise la collecte de données, le prétraitement et la sélection des caractéristiques. Un modèle est construit pour prédire les prix des actions en fonction des caractéristiques sélectionnées.

Le processus d'investissement factoriel quantitatif est expliqué, en soulignant l'importance de construire des modèles précis pour prédire les cours des actions en fonction de caractéristiques spécifiques. L'orateur souligne que cette approche est axée sur les données et plus objective par rapport à l'investissement factoriel traditionnel, permettant une analyse plus précise et fiable. Pour sélectionner les meilleurs facteurs d'investissement, les facteurs doivent être persistants, fonctionner sur différents marchés et secteurs, être robustes à diverses conditions de marché, ne pas être trop sensibles aux changements d'éthique du marché et posséder suffisamment de liquidité et de capacité.

Le webinaire couvre également la combinaison de facteurs dans l'investissement factoriel quantitatif. Cinq méthodes couramment utilisées sont discutées, y compris la pondération égale et la notation factorielle, où chaque facteur est noté en fonction de sa performance historique et une moyenne pondérée est prise pour obtenir une note globale. L'importance de combiner les facteurs est soulignée, car cela réduit le risque du portefeuille, augmente la diversification et minimise la volatilité des performances. L'orateur décrit cinq caractéristiques clés d'un meilleur facteur, notamment être étayé par des preuves empiriques, avoir une base économique ou financière, offrir des opportunités d'investissement à long terme, être investissable et être intuitif et largement accepté.

L'orateur aborde ensuite plusieurs méthodes de combinaison de facteurs dans l'investissement factoriel quantitatif. L'une de ces méthodes est l'analyse en composantes principales (ACP), qui combine plusieurs facteurs en un ensemble plus restreint de composantes non corrélées. Cette approche réduit le nombre de facteurs et résout le problème des facteurs corrélés, également appelé multicolinéarité. Une autre méthode est l'inclinaison factorielle, qui consiste à ajuster les pondérations ou les allocations dans un portefeuille pour mettre l'accent sur un facteur particulier. Cette technique offre de la flexibilité et permet aux investisseurs de cibler des facteurs spécifiques. De plus, l'apprentissage automatique peut être exploité pour sélectionner ou combiner des facteurs en fonction de leurs performances historiques, en capturant efficacement les relations non linéaires. L'orateur souligne l'importance de faire preuve de prudence lors de l'utilisation d'algorithmes d'apprentissage en profondeur, car ils nécessitent des quantités importantes de données et peuvent être sujets à un surajustement. Il est recommandé de les combiner avec des méthodes statistiques traditionnelles pour des résultats optimaux.

En outre, le conférencier répond aux questions de l'auditoire liées à l'investissement factoriel quantitatif. Les questions couvrent divers sujets, tels que l'utilisation de l'évolution des prix et des graphiques à long terme comme facteurs d'investissement, où l'orateur suggère qu'il peut être utilisé comme facteur technique en le définissant de manière appropriée et en étudiant ses performances historiques. La distinction entre les facteurs négociés et non négociés est expliquée, avec un exemple de l'immobilier en tant que facteur non négocié en raison de la difficulté à déterminer la liquidité. L'investissement factoriel quantitatif se concentre principalement sur les facteurs négociés, car leurs données sont facilement accessibles et permettent un backtesting. Le conférencier fournit également des informations pour déterminer si une entreprise est davantage axée sur la valeur ou la croissance, suggérant des techniques telles que l'utilisation du ratio cours / bénéfice pour définir les actions de valeur.

La discussion se poursuit avec l'exploration de différents algorithmes utilisés dans l'investissement factoriel quantitatif. Des algorithmes tels que les réseaux de neurones récurrents (RNN) et la mémoire longue à court terme (LSTM) sont mentionnés, leur pertinence dépendant du type de données analysées. Des techniques d'apprentissage en profondeur peuvent être utilisées pour combiner des facteurs et déterminer les pondérations optimales pour chaque facteur, ce qui améliore la performance du portefeuille. Le conférencier offre des conseils sur les stratégies de facteurs de backtesting et souligne l'importance de tester leur signification statistique sur plusieurs ensembles de données et marchés. L'utilisation des bandes de Bollinger comme indicateur technique pour identifier les marchés latéraux est également mentionnée.

Enfin, le webinaire se termine par une dernière session de questions-réponses, au cours de laquelle le conférencier répond aux questions supplémentaires du public. Les questions incluent le rôle des algorithmes d'apprentissage en profondeur dans la sélection des secteurs industriels, mettant en évidence diverses options telles que les arbres de décision, les réseaux de neurones et les forêts aléatoires. Il est souligné que la sélection de l'algorithme dépend de la tâche spécifique et de l'ensemble de données à portée de main. L'orateur réitère l'importance d'utiliser les algorithmes d'apprentissage en profondeur avec prudence en raison de leurs besoins en données et de leur potentiel de surajustement. Le public est remercié pour sa participation et encouragé à donner son avis sur la séance.

  • 00:00:00 Varun Kumar, analyste quantitatif chez QuantInsti, présente le concept d'investissement factoriel quantitatif et sa classification en différents facteurs tels que la valeur, le momentum, la qualité et la taille. Il explique que l'investissement factoriel implique la sélection de titres en fonction de facteurs spécifiques censés générer des rendements, et que ces facteurs sont techniquement des sources de risque et de rendement étendues et persistantes. Le webinaire couvre différentes méthodes quantitatives qui peuvent être utilisées pour appliquer l'investissement factoriel quantitatif, et les différences entre l'investissement factoriel général et l'investissement factoriel quantitatif. La session se termine par une étude de cas sur la sélection des meilleurs facteurs et une discussion sur la façon de combiner les facteurs.

  • 00:05:00 La vidéo fournit une introduction à l'investissement factoriel quantitatif et explique ce que sont les facteurs. Les facteurs sont des sources étendues et persistantes de risque et de rendement, et ils guident les investisseurs vers un rendement quantifiable particulier. Les facteurs communs incluent la valeur, le momentum, la qualité, la taille et la volatilité. À titre d'illustration, la vidéo se concentre sur le facteur qualité, qui consiste à investir dans des entreprises présentant des caractéristiques de haute qualité. La qualité d'une entreprise est quantifiée à l'aide d'une combinaison de ratios financiers, tels que le rendement des capitaux propres et la rentabilité du taux de croissance. Une action de haute qualité aurait des ratios élevés et des marges élevées, tandis que les actions de faible qualité auraient des ratios inférieurs et de faibles marges. Un portefeuille peut alors être créé avec une combinaison d'actions de haute qualité, qui a historiquement généré des rendements excédentaires sur de longues périodes. Les facteurs doivent être larges et persistants, générant des rendements sur une large gamme d'actifs et sur de longues périodes, respectivement.

  • 00:10:00 L'orateur discute de la classification des facteurs dans l'investissement factoriel quantitatif. Les facteurs sont classés en sept types, y compris les facteurs macro, les facteurs basés sur le style, les facteurs sectoriels, les facteurs basés sur l'ESG, les facteurs basés sur le sentiment, les facteurs basés sur la liquidité et les facteurs techniques. Ils expliquent comment ces facteurs fonctionnent et comment ils peuvent être utilisés pour créer un portefeuille factoriel. Ils fournissent des exemples de stratégies élaborées à l'aide de facteurs macroéconomiques et basés sur le style, qui impliquent l'utilisation de variables telles que la croissance du PIB, le taux d'inflation, le taux d'intérêt et le rendement des capitaux propres pour sélectionner des actions et créer un portefeuille. Le gestionnaire de fonds spéculatifs utilise deux critères pour sélectionner les actions et créer un portefeuille : un rendement des capitaux propres plus élevé et un faible ratio d'endettement.

  • 00:15:00 L'orateur discute de divers facteurs pouvant être utilisés dans les stratégies d'investissement factoriel quantitatif. Ces facteurs comprennent les facteurs de style, la matrice sectorielle, les critères ESG, le sentiment, la liquidité et les indicateurs techniques. Le conférencier explique comment ces facteurs peuvent être utilisés pour créer une logique pour un portefeuille et donne des exemples de stratégies qui peuvent être mises en œuvre en utilisant ces facteurs. Le conférencier explique également brièvement les critères ESG, qui signifient critères environnementaux, sociaux et de gouvernance, et comment les organisations les utilisent pour noter les entreprises en fonction de leur impact sur la société et l'environnement. Enfin, l'orateur répond à une question sur les critères ESG et mentionne qu'ils en discuteront plus en détail dans les prochaines sections.

  • 00:20:00 La vidéo traite de l'investissement factoriel quantitatif et de son utilisation de modèles mathématiques et d'analyses statistiques pour identifier les facteurs et leur relation avec les actions. Ces méthodes permettent d'éliminer les préjugés émotionnels des décisions d'investissement et d'explorer des facteurs moins intuitifs. La vidéo répertorie également les sept méthodes quantitatives les plus couramment utilisées, notamment l'analyse statistique, la modélisation factorielle, l'apprentissage automatique, les modèles d'optimisation, l'analyse des séries chronologiques, les modèles de risque et la simulation montagriale. Enfin, la vidéo aborde brièvement l'utilisation de l'analyse statistique pour identifier les modèles et les corrélations entre les titres et les facteurs.

  • 00:25:00 La vidéo présente l'investissement factoriel quantitatif, qui consiste à utiliser l'analyse statistique pour déterminer la réponse d'une action à certains facteurs. Ces informations sont ensuite utilisées pour concevoir un portefeuille, avec plus d'argent investi dans des actions qui réagissent plus fortement aux facteurs identifiés. Les techniques d'apprentissage automatique sont également abordées comme un moyen de découvrir et de combiner des facteurs et de faire des prédictions sur les performances futures. L'analyse des séries chronologiques peut être utilisée pour analyser les données historiques et identifier les tendances des rendements, tandis que les modèles de risque et les simulations de Monte Carlo peuvent aider à la gestion des risques. Des techniques d'optimisation sont utilisées pour construire des portefeuilles et maximiser l'exposition aux facteurs tout en minimisant les risques et les coûts de transaction.

  • 00:30:00 La vidéo explore les différents avantages de l'utilisation de l'investissement factoriel quantitatif dans la construction et la gestion de portefeuilles d'investissement. L'un des principaux avantages est la possibilité de simuler des conditions de marché extrêmes pour être en mesure de bien comprendre les limites d'un portefeuille. La vidéo met également en évidence les principales différences d'approche entre l'investissement factoriel traditionnel et quantitatif, en utilisant une étude de cas d'un portefeuille d'actions à grande capitalisation avec de faibles ratios cours/bénéfices. L'approche traditionnelle consiste à identifier le facteur et à déterminer l'univers des actions à grande capitalisation avant de calculer le facteur pour chaque action et de les trier des ratios P/E les plus bas aux plus élevés. En revanche, l'approche d'investissement factoriel quantitatif utilise la collecte de données, le prétraitement et la sélection de caractéristiques avant de créer un modèle pour prédire les cours des actions en fonction des caractéristiques.

  • 00:35:00 L'orateur explique le processus d'investissement factoriel quantitatif, qui consiste à construire un modèle pour prédire les prix des actions en fonction de caractéristiques spécifiques et à évaluer la précision du modèle avant de construire un portefeuille. Cette approche est axée sur les données et plus objective que l'investissement factoriel traditionnel, ce qui permet une analyse plus subjective. Le principal avantage de l'investissement factoriel quantitatif est qu'il fournit une analyse plus précise et plus fiable des données. Pour sélectionner les meilleurs facteurs d'investissement, les facteurs doivent être persistants, fonctionner sur différents marchés et secteurs, être robustes aux différentes conditions de marché, pas trop sensibles aux changements d'éthique du marché et investissables avec suffisamment de liquidité et de capacité.

  • 00:40:00 L'instructeur discute des cinq caractéristiques clés d'un meilleur facteur, notamment : être étayé par des preuves empiriques, avoir une base économique ou financière, offrir des opportunités d'investissement à long terme, être investissable et être intuitif et largement accepté. Il est important de combiner les facteurs car cela réduit le risque du portefeuille, augmente la diversification et réduit la volatilité des performances. Il existe cinq méthodes couramment utilisées pour combiner les facteurs, y compris la pondération égale et la notation factorielle, où chaque facteur est noté en fonction de sa performance historique, et une moyenne pondérée est prise pour obtenir une note globale. L'instructeur souligne qu'un bon portefeuille génère non seulement des rendements élevés, mais fonctionne également avec stabilité sur plusieurs cycles et différentes dynamiques de marché.

  • 00:45:00 L'orateur discute de plusieurs méthodes pour combiner des facteurs dans l'investissement factoriel quantitatif. L'une de ces méthodes est l'ACP (analyse en composantes principales) qui combine plusieurs facteurs en un ensemble plus petit de composantes non corrélées. Cela réduit le nombre de facteurs et supprime le problème des facteurs corrélés, connu sous le nom de multicolinéarité. Une autre méthode est l'inclinaison factorielle qui consiste à ajuster les pondérations ou les allocations d'un portefeuille à un facteur particulier. Ceci est flexible et peut être utilisé pour cibler des facteurs spécifiques. Enfin, l'apprentissage automatique peut être utilisé pour sélectionner ou combiner des facteurs en fonction des performances historiques, en capturant les relations non linéaires. L'orateur invite ensuite les questions du public et partage quelques offres pour les participants.

  • 00:50:00 Le conférencier répond à plusieurs questions liées à l'investissement factoriel quantitatif. La première question porte sur l'utilisation de l'action des prix et des graphiques à long terme comme facteur d'investissement, à laquelle l'orateur répond qu'il peut être utilisé comme facteur technique en le définissant correctement et en étudiant ses performances historiques. La deuxième question est de savoir si la capitalisation est un facteur, auquel l'orateur dit que la taille est un facteur, et la capitalisation peut être utilisée comme l'un des facteurs pour déterminer une stratégie en fonction des conditions du marché. L'orateur répond également à une question sur l'endroit où obtenir les données, mentionnant des sites Web tels que Yahoo Finance et des API payantes comme Alpha Vantage. Enfin, l'orateur répond à une question sur l'utilisation de l'investissement factoriel quantitatif dans le trading à moyenne/haute fréquence, en indiquant que l'investissement factoriel est plus adapté aux investisseurs à long terme.

  • 00:55:00 Les algorithmes sont particulièrement utiles pour sélectionner les secteurs industriels. Il existe divers algorithmes d'apprentissage en profondeur qui peuvent être utilisés à cette fin, tels que les arbres de décision, les réseaux de neurones et les forêts aléatoires. Cela dépend de la tâche spécifique et de l'ensemble de données à portée de main. Cependant, il est important de noter que les algorithmes d'apprentissage en profondeur doivent être utilisés avec prudence car ils nécessitent de grandes quantités de données et peuvent être sujets à un surajustement. Il est recommandé de les utiliser en combinaison avec des méthodes statistiques traditionnelles pour des résultats optimaux.

  • 01:00:00 L'orateur discute des différents algorithmes utilisés dans l'investissement factoriel quantitatif, tels que RNN et LSTM, et comment ils dépendent du type de données analysées. L'apprentissage en profondeur peut être utilisé pour combiner des facteurs et déterminer les pondérations à attribuer à chaque facteur pour des performances optimales. Le conférencier fournit également des conseils sur le backtesting d'une stratégie factorielle et sur le test de sa signification statistique sur plusieurs ensembles de données et marchés. Ils suggèrent d'utiliser les bandes de Bollinger comme indicateur technique pour identifier les marchés latéraux. La différence entre les facteurs négociés et non négociés est également expliquée, les facteurs négociés étant basés sur des titres cotés en bourse et les facteurs non négociés étant ceux qui ne peuvent pas être saisis sur les marchés publics.

  • 01:05:00 L'orateur discute de la différence entre les facteurs négociés et non négociés, en utilisant l'immobilier comme exemple de facteur non négocié car la liquidité ne peut pas être facilement déterminée. L'investissement factoriel quantitatif se concentre sur les facteurs négociés, car les données sont facilement accessibles et publiques, ce qui permet de faire des backtests. L'orateur répond également à une question d'un téléspectateur sur la façon de déterminer si une entreprise est davantage axée sur la valeur ou la croissance, en suggérant des techniques telles que l'utilisation du ratio cours/bénéfice pour définir les actions de valeur. Enfin, le public est remercié pour sa participation et encouragé à donner son avis sur la session.
Introduction to Quantitative Factor Investing
Introduction to Quantitative Factor Investing
  • 2023.02.28
  • www.youtube.com
This session covers the concept of factor investing and different types of factor investing strategies including a discussion of passive vs active investing ...
 

Apprentissage automatique pour le trading d'options



Apprentissage automatique pour le trading d'options

Dans le webinaire sur l'apprentissage automatique pour le trading d'options, le conférencier, Varun Kumar Patula, commence par fournir une introduction à l'apprentissage automatique et à son objectif fondamental. Il explique que les algorithmes d'apprentissage automatique sont utilisés pour analyser les données et découvrir des modèles qui peuvent passer inaperçus pour les humains. Varun fait la distinction entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage en profondeur, soulignant que l'apprentissage automatique est un sous-ensemble de l'IA axé sur la formation de modèles pour faire des prédictions ou des décisions basées sur des données. Il classe en outre l'apprentissage automatique en trois types : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement, chacun ayant ses propres caractéristiques et applications.

Le conférencier se penche ensuite sur l'application de l'apprentissage automatique dans le trading d'options, un élément clé du webinaire. La négociation d'options implique l'achat ou la vente de contrats d'options, qui accordent au détenteur le droit d'acheter ou de vendre un actif à un prix spécifié dans un délai précis. Varun souligne le risque élevé lié au trading d'options et explique comment l'apprentissage automatique peut améliorer la précision de l'analyse, réduisant ainsi les risques. Il élabore sur les diverses applications de l'apprentissage automatique dans le trading d'options, y compris la tarification des options, la conception de stratégies de trading, le calcul de la volatilité et la prévision de la volatilité implicite. Ces applications visent à améliorer la prise de décision et à augmenter la rentabilité du trading d'options.

Pour comprendre le besoin d'apprentissage automatique dans le trading d'options, les limites des modèles traditionnels comme le modèle Black-Scholes sont discutées. Le modèle Black-Scholes suppose un taux sans risque et une volatilité constants, ce qui peut ne pas être vrai dans des scénarios réels. Varun mentionne des modèles alternatifs comme le modèle allemand Candy et le modèle Heston, qui ont leurs propres limites et exigences en matière de paramètres d'entrée. La solution proposée consiste à utiliser l'apprentissage automatique en remplacement ou en combinaison de ces modèles, car il permet un ensemble étendu de fonctionnalités et de paramètres d'entrée. Les modèles d'apprentissage automatique peuvent prendre en compte des facteurs tels que la volatilité implicite ou réalisée, les taux d'intérêt et d'autres caractéristiques pertinentes pour déterminer le juste prix des options. Cela permet une tarification plus précise, une sélection des prix d'exercice et des stratégies de couverture. Varun souligne que la recherche empirique indique que les modèles d'apprentissage en profondeur avec plusieurs couches cachées, tels que le modèle perceptron multicouche, surpassent le modèle Black-Scholes, en particulier pour les options qui sont loin de l'argent ou à l'argent.

Le webinaire explore ensuite l'optimisation des décisions de trading à l'aide de modèles d'apprentissage automatique pour les stratégies d'options. Le processus général consiste à analyser le sentiment haussier ou baissier de l'actif sous-jacent et à sélectionner une stratégie appropriée en conséquence. Cependant, de nombreuses stratégies d'options ont faussé les distributions risque-récompense, nécessitant une analyse plus fine. L'apprentissage automatique peut améliorer cette analyse en tenant compte de caractéristiques telles que les rendements passés, le momentum et la volatilité pour fournir des informations sur l'actif sous-jacent. Ces caractéristiques sont ensuite entrées dans un modèle d'apprentissage automatique pour classer la prochaine période de négociation comme haussière ou baissière. La vidéo aborde également les caractéristiques utilisées dans les données de l'indice SP500 et souligne l'importance de l'analyse des caractéristiques dans les décisions de stratégie d'option.

Ensuite, le conférencier se concentre sur la construction de modèles d'apprentissage automatique pour les décisions de négociation sur les spreads d'options verticaux. Ils expliquent que les paramètres d'entrée restent les mêmes que dans l'exemple précédent, où un classificateur d'arbre de décision est utilisé pour classer le jour de bourse suivant comme haussier ou baissier. Pour profiter des options, des spreads comme des spreads d'achat haussiers ou des spreads baissiers de vente sont introduits, car ils limitent le risque. Les modèles d'apprentissage automatique sont combinés pour prévoir la fourchette de négociation et la volatilité du contrat. En tirant parti de ces modèles combinés, les traders peuvent déterminer les paramètres optimaux pour les spreads verticaux dans leurs stratégies de trading tout en prévoyant la volatilité implicite, qui est cruciale dans le trading d'options.

Une autre application de l'apprentissage automatique dans le trading d'options consiste à prévoir la volatilité implicite et à prendre des décisions calculées sur les stratégies d'options. En saisissant la volatilité implicite historique et d'autres caractéristiques pertinentes dans les modèles d'apprentissage automatique, les traders peuvent prévoir la volatilité et sélectionner des stratégies appropriées telles que les chevauchements courts ou les étranglements courts. L'orateur partage une étude de cas où un modèle d'apprentissage automatique a été construit pour prédire la stratégie d'option la plus appropriée sur la base d'une liste de stratégies et de caractéristiques d'entrée, y compris les données sous-jacentes et les données d'options. En concevant un univers de stratégie et en élargissant l'étude pour inclure différents contrats, les traders peuvent utiliser l'apprentissage automatique pour créer et sélectionner la meilleure stratégie qui correspond à leurs objectifs de trading.

Dans le webinaire, l'orateur décrit comment ils ont créé 27 stratégies différentes pour le trading d'options en explorant diverses combinaisons de positions et de contrats. Pour affiner les stratégies, ils les ont filtrées jusqu'à 20 en éliminant les combinaisons qui n'avaient pas de position dans un appelant ou reposaient sur des combinaisons peu pratiques comme les chevauchements courts. Pour déterminer laquelle de ces 20 stratégies offrirait un rendement maximal, l'orateur a utilisé un modèle d'apprentissage automatique, en particulier un modèle de mémoire longue à court terme (LSTM). Ce modèle incorporait des caractéristiques d'entrée des actifs sous-jacents, des options et de la volatilité, et utilisait un système de classification multi-classes pour identifier la stratégie optimale de déploiement.

La vidéo met également en lumière les caractéristiques liées aux grades d'option et à la structure du réseau neuronal utilisé pour le modèle LSTM. En formant le modèle sur environ 10 ans de données, il a généré des étiquettes de stratégie basées sur les caractéristiques d'entrée. Les résultats ont démontré que le modèle d'apprentissage automatique surpassait l'actif sous-jacent au fil du temps. Pour améliorer la précision des prédictions des modèles d'apprentissage automatique pour les options, le conférencier recommande plusieurs bonnes pratiques. Celles-ci incluent l'utilisation de niveaux de probabilité pour un réglage fin, l'utilisation de plusieurs modèles de vision, la mise en œuvre de la technique du classificateur de vote et l'exploitation de la sortie de plusieurs classificateurs pour former un autre modèle d'apprentissage automatique afin d'améliorer la précision et la rentabilité.

En outre, le conférencier explore des méthodes pour améliorer les performances des modèles de classification dans le trading d'options. Ces méthodes impliquent l'utilisation de niveaux de probabilité, l'utilisation de techniques d'ensemble en combinant plusieurs classificateurs et l'utilisation de modèles d'apprentissage automatique pour agréger les sorties de différents modèles. L'importance du réglage des hyperparamètres et des techniques de validation croisée est soulignée pour obtenir une plus grande précision dans les modèles. Le conférencier insiste également sur l'importance du trading sur papier avant de déployer une stratégie avec de l'argent réel. Cette pratique permet aux traders d'identifier et de résoudre tous les problèmes ou défis pratiques avant de risquer le capital réel.

Au cours de la session de questions-réponses qui suit, le conférencier répond aux questions des participants. Les questions couvrent divers sujets, notamment les performances de la stratégie d'apprentissage automatique pour le trading d'options, la méthodologie utilisée pour sélectionner les fonctionnalités du modèle, les avantages de l'apprentissage automatique par rapport aux indicateurs techniques existants, le calcul de l'importance des fonctionnalités et la période de détention appropriée pour le SPY (indice Standard & Poor's 500). L'orateur précise que la performance de la stratégie n'est pas uniquement due à la direction du marché en 2020, car les données utilisées pour le modèle remontent à 2010 et englobent des périodes au-delà de 2020. Ils expliquent que le trading d'options nécessite une analyse plus complexe, en tenant compte de facteurs tels que l'option Grecs et la volatilité implicite, faisant de l'apprentissage automatique un outil précieux. La sélection des fonctionnalités du modèle est basée sur une combinaison d'expérience de trading et de prise de décision éclairée.

Vers la fin du webinaire, le conférencier discute des prérequis pour le cours d'accompagnement, recommandant une connaissance préalable de l'apprentissage automatique et des cours connexes pour maximiser ses avantages. Bien que le cours se concentre principalement sur la création de modèles d'apprentissage automatique pour le trading d'options S&P 500, les concepts peuvent être adaptés et appliqués à d'autres contrats avec une formation et une personnalisation supplémentaires. Le cours ne fournit pas de modèle d'apprentissage automatique prédéfini, mais il fournit aux participants les connaissances et les compétences nécessaires pour construire leurs propres modèles.

Le webinaire donne un aperçu complet de l'application de l'apprentissage automatique dans le trading d'options. Il couvre les bases de l'apprentissage automatique, ses distinctions par rapport à d'autres domaines connexes et les trois types d'algorithmes d'apprentissage automatique. Le webinaire met l'accent sur la nécessité de l'apprentissage automatique dans le trading d'options en raison de sa capacité à améliorer la précision de l'analyse et à atténuer les risques. Diverses applications de l'apprentissage automatique dans le trading d'options, y compris la tarification des options, la conception de stratégies de trading et la prévision de la volatilité implicite, sont discutées. Le webinaire explore également la construction de modèles d'apprentissage automatique pour les spreads d'options verticaux et l'optimisation des décisions de trading.

  • 00:00:00 L'orateur, Varun Kumar Patula, présente l'ordre du jour du webinaire sur l'apprentissage automatique pour le trading d'options. Il commence par une brève introduction à l'apprentissage automatique et à son objectif principal d'utiliser des algorithmes d'apprentissage automatique pour comprendre ou analyser des données et trouver des modèles internes qui manquent généralement aux humains. Varun explique ensuite les différences entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage en profondeur. Il note également qu'il existe trois types d'algorithmes d'apprentissage automatique : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement. Enfin, il souligne la nécessité de l'application de l'apprentissage automatique dans le trading d'options et plonge dans les principales applications qui sont à la fois dans la recherche et la pratique, ainsi que les meilleures pratiques à garder à l'esprit lors de l'application des techniques d'apprentissage automatique pour le trading d'options.

  • 00:05:00 Le conférencier présente le concept d'apprentissage automatique et son application dans divers domaines, en particulier dans les services financiers tels que le trading algorithmique, la gestion de portefeuille et la détection de fraude. L'objectif de ce webinaire est l'application de l'apprentissage automatique pour le trading d'options. L'orateur explique que le trading d'options implique l'achat ou la vente de contrats d'options, qui offrent le choix d'acheter ou de vendre à un prix défini et à une dette spécifique. Les traders utilisent le trading d'options pour se couvrir, générer des revenus ou spéculer. Le conférencier souligne le risque élevé lié au trading d'options et explique comment l'apprentissage automatique peut augmenter la précision de l'analyse, réduisant ainsi le risque. L'apprentissage automatique est utilisé dans la tarification des options, la conception de stratégies de négociation, le calcul de la volatilité et la prévision de la volatilité implicite d'une option. La section conclut en discutant des limites du modèle Black-Scholes couramment utilisé.

  • 00:10:00 Les limites du modèle Black-Scholes, telles que l'hypothèse d'un taux sans risque et d'une volatilité constants, sont discutées, ainsi que d'autres modèles comme le modèle allemand Candy et le modèle Heston, qui ont leurs propres limites concernant les paramètres d'entrée. La solution proposée consiste à mettre en œuvre l'apprentissage automatique en remplacement ou en combinaison de ces modèles, car l'apprentissage automatique permet une augmentation de l'ensemble de fonctionnalités et des paramètres d'entrée étendus, contrairement aux modèles traditionnels. Le modèle ML peut identifier le juste prix des options en utilisant la volatilité implicite ou réalisée, les taux d'intérêt et d'autres caractéristiques comme données d'entrée, permettant la tarification, la sélection du prix d'exercice et les applications de couverture. La recherche empirique montre que le modèle le plus performant est le modèle d'apprentissage en profondeur avec plusieurs couches cachées, le modèle perceptron multicouche, qui surpasse le modèle Black-Scholes, en particulier lorsqu'il est hors de l'argent ou à l'argent.

  • 00:15:00 La vidéo explique comment l'apprentissage automatique peut être utilisé pour optimiser les décisions de négociation à l'aide de stratégies d'état d'option. Le processus général pour un trader consiste à analyser l'actif sous-jacent et à décider s'il est haussier ou baissier, et sur cette base, à sélectionner une stratégie. Cependant, de nombreuses stratégies d'options sont très risquées avec un biais dans la distribution risque-récompense, donc la mise en œuvre de l'apprentissage automatique peut améliorer l'analyse de l'actif sous-jacent et donner une meilleure analyse des sentiments. Le schéma de construction d'une architecture ML implique l'utilisation de modèles ML pour effectuer une analyse des sentiments ou prévoir l'actif sous-jacent. Des caractéristiques telles que les rendements passés, l'élan et la volatilité sont utilisées pour donner des informations sur l'actif, et celles-ci sont entrées dans le modèle d'apprentissage automatique pour classer si la prochaine période de négociation sera haussière ou baissière. La vidéo traite également des fonctionnalités utilisées dans les données d'index SP500 et de l'importance de l'analyse des fonctionnalités.

  • 00:20:00 L'orateur discute de la construction de modèles d'apprentissage automatique pour les décisions de négociation sur les spreads d'options verticaux. Les paramètres d'entrée restent les mêmes que dans l'exemple précédent, où un classificateur d'arbre de décision est utilisé pour classer le jour de bourse suivant comme haussier ou baissier. Pour profiter des options, des spreads sont introduits, tels que des spreads d'achat haussiers ou des spreads baissiers, où le risque est limité. L'idée de combiner des modèles d'apprentissage automatique entre en jeu lorsqu'un modèle prévoit la fourchette de négociation et qu'un autre modèle prévoit si le contrat sera très volatil ou faible. En utilisant les combinaisons de ces modèles, un trader peut décider des paramètres de spread vertical optimaux pour les stratégies de trading, tout en prévoyant la volatilité implicite, ce qui est particulièrement important pour le trading d'options.

  • 00:25:00 L'orateur explique comment les modèles d'apprentissage automatique peuvent être utilisés dans le trading d'options en prévoyant la volatilité implicite et en prenant des décisions calculées sur la stratégie à adopter. En entrant la volatilité implicite historique et d'autres caractéristiques comme entrées pour les modèles d'apprentissage automatique, les traders peuvent prévoir la volatilité et prendre des positions en conséquence avec des stratégies telles que le short straddle ou le short strangle. L'orateur décrit ensuite une étude de cas où un modèle d'apprentissage automatique a été construit pour prédire quelle stratégie d'option déployer en fonction d'une liste de stratégies et de caractéristiques d'entrée telles que les données sous-jacentes et les données d'options. En concevant l'univers de la stratégie et en élargissant l'étude pour inclure différents contrats, les traders peuvent utiliser l'apprentissage automatique pour créer et choisir la meilleure stratégie pour leurs besoins de trading.

  • 00:30:00 L'orateur explique comment ils ont créé 27 stratégies différentes pour le trading d'options en utilisant diverses combinaisons de positions et de contrats. Ils ont filtré ces stratégies jusqu'à 20 en supprimant les combinaisons qui n'incluaient pas de position dans un appelant ou s'appuyaient sur des combinaisons peu pratiques telles que les chevauchements courts. Ils ont ensuite utilisé un modèle d'apprentissage automatique, en particulier un modèle de mémoire longue à court terme, pour déterminer laquelle de ces 20 stratégies fournirait les rendements maximaux. Le modèle a pris les caractéristiques d'entrée des actifs sous-jacents, des options et de la volatilité, et a utilisé un système de classification multi-classes pour déterminer la meilleure stratégie à déployer.

  • 00:35:00 La vidéo traite de l'utilisation de certaines fonctionnalités liées aux grades d'option et de la structure du réseau neuronal utilisé pour le modèle LSTM. Le modèle est formé sur environ 10 ans de données et fournit des étiquettes de stratégie basées sur les caractéristiques d'entrée. Les résultats montrent qu'il surperforme l'actif sous-jacent avec le temps. Les meilleures pratiques suggérées pour une meilleure prédiction des modèles d'apprentissage automatique pour les options incluent l'utilisation de niveaux de probabilité pour un réglage fin, l'utilisation de plusieurs modèles de vision, l'utilisation de la technique du classificateur de vote et la transmission de la sortie de plusieurs classificateurs à un autre modèle ML pour une meilleure précision et rentabilité.

  • 00:40:00 L'orateur discute des méthodes permettant d'améliorer les performances d'un modèle de classification pour le trading d'options, telles que l'utilisation de niveaux de probabilité, la multiplication d'arbres, la combinaison de différents classificateurs grâce à des techniques équitables pour la classe ouvrière et l'utilisation d'un modèle d'apprentissage automatique pour prendre la sortie de plusieurs modèles en entrée. Le conférencier insiste également sur l'importance des techniques de réglage des hyperparamètres et de validation croisée pour une plus grande précision. De plus, l'importance du trading sur papier avant de déployer une stratégie est mise en évidence car cela permet d'identifier tout problème pratique avant d'utiliser de l'argent réel. Une session de questions-réponses suit, avec un participant posant des questions sur l'expérience du conférencier.

  • 00:45:00 L'orateur discute de l'utilisation de Delta dans le trading d'options, déclarant qu'il peut s'agir d'une stratégie rentable en fonction de la capacité de risque-récompense et des actifs sous-jacents du portefeuille. Ils mettent en garde contre le fait de s'appuyer uniquement sur une stratégie de couverture Delta et suggèrent de l'utiliser en conjonction avec d'autres stratégies. L'orateur aborde également des questions sur l'utilisation de modèles qui ne correspondent pas aux prix du marché, le calcul de l'importance des caractéristiques et la période de détention du SPY. Ils expliquent comment calculer l'importance des caractéristiques et indiquent que différentes périodes de détention peuvent être utilisées pour prévoir l'actif sous-jacent.

  • 00:50:00 L'orateur répond aux questions des téléspectateurs concernant les performances de la stratégie d'apprentissage automatique pour le trading d'options et la méthodologie utilisée pour arriver aux fonctionnalités du modèle. Ils expliquent que la performance de la stratégie n'est pas uniquement due au fait que le marché est directionnel en 2020, car les données utilisées pour le modèle remontent à 2010 et vont au-delà de 2020. Interrogé sur les avantages de l'apprentissage automatique par rapport aux indicateurs techniques existants, l'orateur souligne que le trading d'options nécessite une analyse plus complexe des données, y compris les grecs d'options et la volatilité implicite, faisant de l'apprentissage automatique un outil précieux. Enfin, l'orateur explique que les caractéristiques du modèle ont été sélectionnées sur la base d'une combinaison d'expérience dans le commerce et de décisions éclairées.

  • 00:55:00 L'orateur discute des différents facteurs qui entrent dans la prise de décisions commerciales éclairées à l'aide de l'apprentissage automatique, tels que les rendements passés et les indicateurs techniques. Ils mentionnent également l'utilisation de fonctionnalités couramment prises par les commerçants manuels et les courtiers. En réponse à une question sur le modèle LSTM, ils expliquent que si les résultats actuels sont basés sur des données quotidiennes, les algorithmes de trading à haute ou moyenne fréquence peuvent également utiliser des données tick par tick. Une autre question demande le nombre de métiers dans l'ensemble de formation, auquel ils expliquent que cela dépend des cas et que le ratio était de 70:30. Enfin, ils font la différence entre le mélange et l'empilement des modèles Ensemble et expliquent comment le mélange implique de prendre les sorties de plusieurs modèles pour former un nouveau modèle.

  • 01:00:00 Le cours couvre les bases de l'apprentissage automatique et son application au trading d'options. Le cours se concentre sur la création de modèles d'apprentissage automatique spécifiquement pour le trading d'options SP500, mais les concepts peuvent être appliqués à d'autres contrats avec une formation et un réglage supplémentaires. Le cours ne fournit pas de modèle d'apprentissage automatique prêt à l'emploi, mais il donne les connaissances et les compétences nécessaires pour en créer un.

  • 01:05:00 Dans cette section, l'orateur discute des conditions préalables au cours et mentionne qu'une connaissance préalable de l'apprentissage automatique et des cours connexes serait utile pour tirer le meilleur parti de ce cours. Le conférencier reconnaît également les nombreuses questions reçues et assure l'auditoire qu'il y sera répondu à la fin du webinaire par le biais d'un sondage. Le webinaire se termine avec le conférencier remerciant le public et l'encourageant à fournir des commentaires pour améliorer les sessions futures.
Machine Learning for Options Trading | Options Trading Strategies
Machine Learning for Options Trading | Options Trading Strategies
  • 2023.01.19
  • www.youtube.com
This session explains the application of machine learning for options trading. It covers the process of creating options trading strategies using machine lea...
 

Répartition des actifs du portefeuille avec ML et optimisation des actions à dividendes | Projet Algo Trading



Répartition des actifs du portefeuille avec ML et optimisation des actions à dividendes | Projet Algo Trading

La première présentation de l'événement est donnée par Raimondo Mourinho, un ingénieur indépendant en IA et Big Data connu pour son travail avec les petites et moyennes entreprises en Italie, fournissant des solutions d'IA pour diverses fonctions d'entreprise. Mourinho croit en la combinaison de techniques d'apprentissage automatique, de statistiques et de probabilités pour créer des systèmes de trading avancés. Dans sa présentation, il partage son cadre pratique et évolutif pour développer des modèles d'apprentissage automatique dans l'allocation d'actifs de portefeuille.

Mourinho commence par présenter les composants clés nécessaires à la conception d'un tel système. Il souligne l'importance d'adopter un état d'esprit de portefeuille, d'utiliser des modèles d'apprentissage automatique pour convertir les idées en stratégies exploitables et de tirer parti de la puissance des capacités multi-processeurs, multi-cœurs et GPU. Ces ingrédients forment la base de son cadre. Bien qu'il mentionne brièvement le besoin d'une infrastructure lors de la mise en service, il se concentre sur les blocs élémentaires du cadre pour le trading à basse et moyenne fréquence, reconnaissant que la dernière partie du cadre dépasse le cadre de la présentation.

L'orateur se penche ensuite sur les compétences nécessaires à la construction d'un cadre robuste pour l'allocation d'actifs de portefeuille à l'aide de l'apprentissage automatique et de l'optimisation des actions à dividendes en Python. Il insiste sur la nécessité d'une solide compréhension des techniques de portefeuille, de la programmation orientée objet, des techniques de traitement multiple et de la programmation asynchrone. De plus, une expertise dans les outils d'optimisation des hyperparamètres, le langage SQL et la technologie Docker est jugée précieuse. Mourinho explique ensuite la première étape du cadre, qui consiste à optimiser une base de données pour les séries chronologiques, le prétraitement des données, la gestion des données manquantes et des valeurs aberrantes, la normalisation des données et la sélection des actifs dans l'univers d'actifs désigné.

La présentation aborde ensuite la phase de génération alpha, qui correspond à la terminologie de l'apprentissage automatique pour générer des signaux de trading. Mourinho souligne qu'au cours de cette phase, les commerçants intègrent leurs idées à l'aide de divers indicateurs, d'analyses de sentiment et de modèles économétriques. L'étape suivante implique la sélection des caractéristiques, où les caractéristiques redondantes, telles que les caractéristiques constantes et quasi constantes, les caractéristiques non stationnaires et les caractéristiques corrélées linéairement, sont supprimées à l'aide d'une méthode basée sur le rang. De plus, il mentionne l'utilisation de la différenciation fractionnaire, une technique qui maintient la stationnarité souhaitée tout en préservant les informations cruciales dans les caractéristiques. Ces améliorations font partie intégrante du cadre de Mourinho pour la répartition des actifs du portefeuille en utilisant l'apprentissage automatique et l'optimisation des actions à dividendes.

Le rééquilibrage, qui comprend la sélection des actifs et la répartition des pondérations, est expliqué en détail dans le pipeline d'apprentissage. Mourinho utilise une dynamique transversale, basée sur la force relative entre les actifs, pour la sélection des actifs. Pour l'allocation de poids, il combine des techniques traditionnelles telles que l'algorithme de ligne critique, le portefeuille à volatilité inverse et le portefeuille équipondéré avec des modèles d'apprentissage automatique tels que la parité hiérarchique des risques et la contribution hiérarchique égale des risques. Le conférencier présente des résultats de simulation et évalue les performances à l'aide de données historiques. Il mentionne également son intention d'améliorer encore le portefeuille en incorporant des techniques telles que la stratégie Drunken Monkey et la validation croisée combinatoire purgée. De plus, Mourinho souligne l'importance d'une gestion efficace de l'argent lors de l'application de ces techniques à des scénarios de trading en direct.

Pour aborder l'estimation de la variabilité des paramètres, Mourinho recommande d'utiliser des techniques telles que la simulation de Monte Carlo et le bootstrap. Il présente les résultats de son analyse, en se concentrant sur la richesse terminale et les centiles de prélèvement maximum. L'orateur souligne l'importance de rester axé sur les données et de ne pas trop s'attacher à des idées de trading spécifiques. Il conseille également d'atténuer le risque idiosyncratique en employant différentes techniques et d'éviter le surajustement en sélectionnant des systèmes plus simples aux performances comparables. Enfin, il souligne la nécessité de surveiller et d'ajuster en permanence les systèmes de trading en direct en raison de la nature non stationnaire des données de séries chronologiques.

Au cours de la session de questions-réponses, Mourinho répond à plusieurs questions du public. Un participant s'interroge sur l'étape la plus critique du pipeline, à laquelle Mourinho souligne que le prétraitement des données est essentiel et prend du temps. Une autre question tourne autour de la normalisation des données, et Mourinho suggère la pratique courante de soustraire la moyenne et de diviser par l'écart type dans la plupart des cas. En ce qui concerne la suppression de la corrélation linéaire à l'aide de l'analyse en composantes principales (ACP), il reconnaît sa possibilité mais met en garde contre la perte potentielle de sens dans les caractéristiques et suggère d'envisager des modèles comme le ratio de Sharpe pour interpréter efficacement les résultats.

L'orateur discute ensuite de l'utilisation de l'ACP pour la sélection des caractéristiques et de son impact potentiel sur l'interprétabilité des caractéristiques. Il est conseillé aux futurs traders quantitatifs et algorithmiques de considérer EPAT (Executive Program in Algorithmic Trading) comme un point de départ précieux. Ils soulignent que le programme propose des objectifs d'apprentissage complets alignés sur les exigences de l'industrie. Les participants au webinaire se voient offrir une admission anticipée prolongée au programme et peuvent réserver un appel de conseil pour comprendre comment cela peut les aider à atteindre leurs objectifs de carrière, qu'il s'agisse d'établir un bureau de négociation algorithmique ou d'incorporer des technologies et des outils avancés dans leur négociation. stratégies.

Kurt Celestog, chef de projet chez Hong Kong Exchange and Clearing Limited, monte sur scène pour partager son projet sur la gestion de portefeuille, qui prolonge la conférence de Jay Palmer sur la gestion de portefeuille quantitative. Le projet de Celestog se concentre sur l'optimisation du rendement du dividende grâce à la gestion de portefeuille. Son objectif est de générer un flux régulier de revenus de dividendes tout en assurant la stabilité et la croissance des versements de dividendes, tout en maintenant la valeur du portefeuille. Il vise à surpasser l'indice de référence ou l'ETF en termes de rendement des dividendes et de rendement des prix grâce à des techniques de gestion de portefeuille optimales. Celestog a relevé le défi d'acquérir des données sur les dividendes et a développé des fonctions de web scraping pour les télécharger. Il a divisé l'ensemble de données en deux parties, chacune couvrant dix ans et englobant les récessions et les expansions économiques.

Le conférencier discute des défis rencontrés lors du processus de nettoyage des données pour l'optimisation du portefeuille d'actions à dividendes. Les données obtenues à partir du site Web n'étaient pas propres et nécessitaient des modifications et une normalisation pour exprimer les dividendes en dollars, en particulier avec les premiers dividendes initialement présentés sous forme de pourcentages. Les données sur les prix proviennent de Yahoo Finance et des mesures telles que le rendement annuel du dividende, la croissance du dividende et la croissance moyenne ont été calculées. Un ratio composite a été dérivé pour toutes les actions sélectionnées afin de créer deux portefeuilles : un portefeuille à pondération égale et un portefeuille à pondération optimisée. L'orateur visait à analyser si une seule optimisation, suivie d'une période de détention de dix ans, surperformerait l'indice de référence et l'ETF.

L'orateur partage ensuite les résultats du projet d'optimisation de portefeuille utilisant des techniques d'apprentissage automatique. Les graphiques présentés représentent des bulles vertes dans le quadrant supérieur gauche, représentant les cinq actions avec la métrique combinée la plus élevée. Les portefeuilles à pondération égale et à pondération optimale ont affiché des rendements moyens et des rendements en dividendes supérieurs à ceux de l'indice de référence. Cependant, au cours des dix années suivantes, les valeurs bancaires et technologiques ont gagné en popularité, entraînant une baisse de la performance du portefeuille optimisé par rapport à l'indice de référence. Pour améliorer les performances, le conférencier a expérimenté le rééquilibrage régulier des portefeuilles et la sélection des cinq meilleures actions en fonction de la métrique choisie. Les portefeuilles rééquilibrés ont surperformé l'indice de référence et ont affiché un rendement en dividendes plus élevé.

L'orateur souligne comment l'optimisation du portefeuille et le rééquilibrage régulier peuvent conduire à des rendements de dividendes plus élevés et surperformer les indices de référence, en particulier avec des actions à dividendes comme les fiducies de placement immobilier (REIT). En rééquilibrant les portefeuilles tous les six mois et en explorant différentes périodes rétrospectives, l'orateur a réussi à surperformer l'indice en termes de rendement moyen du dividende, de croissance du dividende, de rendement et de diminution des prélèvements. Cependant, ils reconnaissent les défis liés à l'obtention et au nettoyage des données et notent que la fonction de rééquilibrage peut être complexe, suggérant l'utilisation de la programmation orientée objet pour résoudre cette complexité. Dans l'ensemble, le conférencier souligne que l'optimisation de portefeuille et le rééquilibrage régulier sont des outils précieux pour les investisseurs.

L'orateur souligne qu'un rééquilibrage fréquent du portefeuille est crucial pour obtenir une surperformance. Cependant, en raison de la rareté de la disponibilité des données sur les dividendes pour les actions à dividendes, il est difficile de rééquilibrer plus fréquemment qu'une ou deux fois par an. L'orateur souligne également la nécessité de poursuivre les travaux sur le projet, y compris l'exploration de différents critères d'optimisation, l'incorporation de plus d'actions dans le portefeuille pour une diversification accrue et la réalisation de backtesting approfondis. Ils suggèrent d'élargir l'univers des lectures et de discuter de l'impact des coûts de transaction sur la performance du portefeuille.

Lors de la séance de questions-réponses, Celestog répond aux questions du public. Un participant s'interroge sur la performance du portefeuille équipondéré par rapport au portefeuille optimisé. Celestog explique que le portefeuille équipondéré a généralement bien performé, mais que le portefeuille optimisé a produit des rendements plus élevés, démontrant l'efficacité des techniques d'optimisation de portefeuille. Un autre participant s'interroge sur l'impact des coûts de transaction sur la performance du portefeuille. Celestog reconnaît que les coûts de transaction peuvent avoir un impact significatif et suggère de les intégrer dans le processus d'optimisation pour obtenir une représentation plus précise des performances réelles. Il mentionne également l'importance de prendre en compte le glissement dans les scénarios de trading en direct et conseille aux participants de tester minutieusement leurs stratégies à l'aide de données historiques avant de les mettre en œuvre dans le trading en direct.

Dans l'ensemble, les présentations du webinaire ont mis en lumière les aspects pratiques de l'allocation d'actifs de portefeuille à l'aide de techniques d'apprentissage automatique et d'optimisation pour les actions à dividendes. Les conférenciers ont souligné l'importance du prétraitement des données, de la sélection des fonctionnalités, du rééquilibrage et de la surveillance régulière pour obtenir de bons résultats. Ils ont également souligné la nécessité d'un apprentissage continu, de l'adaptabilité et de l'exploration de différentes stratégies pour naviguer dans la nature dynamique des marchés financiers. Le public a acquis des informations précieuses sur les défis, les techniques et les avantages potentiels de l'utilisation de l'apprentissage automatique dans la gestion de portefeuille.

  • 00:00:00 La première présentation porte sur l'allocation d'actifs du portefeuille présenté par Raimondo Mourinho. Mourinho est un ingénieur indépendant en IA et Big Data qui travaille avec diverses petites et moyennes entreprises en Italie pour proposer des solutions d'IA de bout en bout pour les fonctions de l'entreprise telles que le marketing, les RH, les ventes et la production. Il croit en la combinaison de techniques d'apprentissage automatique avec des statistiques et des probabilités pour concevoir des systèmes de trading supérieurs. Dans la présentation, Mourinho partage son cadre pratique et évolutif pour le développement de l'apprentissage automatique dans l'allocation d'actifs de portefeuille.

  • 00:05:00 L'orateur présente le cadre évolutif d'allocation de pondération du portefeuille et explique les ingrédients nécessaires à la conception d'un tel système. Les trois ingrédients incluent la conception d'un système avec un état d'esprit de portefeuille, l'utilisation de modèles d'apprentissage automatique pour convertir les idées et l'exploitation des capacités multi-processeurs, multi-cœurs et GPU. L'orateur partage également les blocs élémentaires du cadre pour le trading à basse et moyenne fréquence et mentionne brièvement le besoin d'une infrastructure lors de la mise en service. L'orateur ne couvre pas la dernière partie du cadre car elle sort du cadre de la présentation.

  • 00:10:00 L'orateur discute des compétences requises pour créer un cadre d'allocation d'actifs de portefeuille à l'aide de l'apprentissage automatique et de l'optimisation des actions à dividendes en Python avec des cours. Des compétences telles que la connaissance des techniques de portefeuille, la programmation orientée objet, les techniques de multi-traitement et la programmation asynchrone sont nécessaires. L'utilisation d'outils d'optimisation d'hyper-paramètres, la connaissance du langage SQL et de la technologie Docker sont également importantes. L'orateur aborde ensuite la première étape du cadre, qui consiste à optimiser une base de données pour les séries chronologiques, le prétraitement des données, le traitement des données manquantes et des valeurs aberrantes, la normalisation des données et la sélection des actifs dans l'univers des actifs.

  • 00:15:00 L'orateur discute de la phase de génération alpha en termes de terminologie d'apprentissage automatique, communément appelée par les commerçants la phase de génération alpha. Au cours de cette phase, le trader ajoute toutes les idées qui lui viennent à l'esprit en utilisant divers indicateurs, analyses de sentiment et modèles économétriques. L'étape suivante est la phase de sélection des caractéristiques, où les caractéristiques inutiles sont supprimées, y compris les caractéristiques constantes et quasi constantes, les caractéristiques non stationnaires et les caractéristiques corrélées linéairement à l'aide d'une méthode basée sur le rang. L'orateur mentionne également l'utilisation de la différenciation fractionnaire, qui permet la stationnarité souhaitée tout en conservant certaines informations dans la fonction elle-même. Ce sont les améliorations sur lesquelles le conférencier travaille dans le cadre de son cadre d'allocation d'actifs de portefeuille avec ML et d'optimisation pour les actions à dividendes.

  • 00:20:00 L'orateur explique la phase de rééquilibrage du pipeline d'apprentissage, qui implique la sélection d'actifs et l'allocation de poids. Pour la sélection des actifs, l'orateur utilise un élan transversal basé sur la force relative entre les actifs. Pour l'allocation de poids, des techniques traditionnelles comme l'algorithme de ligne critique, le portefeuille à volatilité inverse et le portefeuille à pondération égale sont utilisées avec des modèles d'apprentissage automatique comme la parité de risque hiérarchique et la contribution de risque égale hiérarchique. Les résultats des simulations sont présentés et l'orateur évalue les performances à l'aide de données historiques. L'orateur prévoit d'améliorer le portefeuille en ajoutant des techniques telles que la stratégie Drunken Monkey et la validation croisée combinatoire purgée. Enfin, le conférencier souligne l'importance de la gestion de l'argent lors de l'application de ces techniques au trading en direct.

  • 00:25:00 L'orateur discute de l'importance d'estimer la plage de variabilité des paramètres et suggère d'utiliser des techniques telles que la simulation de Monte Carlo et le bootstrap pour y parvenir. Ils présentent ensuite les résultats de leur analyse en se concentrant sur la richesse terminale et les centiles de prélèvement maximum. L'orateur insiste sur la nécessité d'être axé sur les données et de ne pas tomber amoureux des idées de trading. Ils recommandent également d'atténuer le risque idiosyncrasique en utilisant différentes techniques et en évitant le surajustement en choisissant des systèmes plus simples avec des performances comparables. Enfin, ils soulignent la nécessité de surveiller et d'ajuster les systèmes de négociation en direct en raison de la nature hautement non stationnaire des séries chronologiques.

  • 00:30:00 Les conférenciers discutent de quelques questions du public sur l'allocation des actifs du portefeuille à l'aide du ML et de l'optimisation pour les actions à dividendes. Un membre de l'auditoire demande quelle étape du pipeline mérite le plus d'attention, ce à quoi Raymond répond que le prétraitement des données est essentiel et l'étape la plus chronophage. Une autre question porte sur la normalisation des données, et Raymond suggère que la soustraction de la moyenne et la division par l'écart type fonctionnent bien dans la plupart des cas. Enfin, interrogé sur la suppression de la corrélation linéaire à l'aide de l'ACP, Raymond mentionne que c'est possible, mais avertit que cela pourrait entraîner la perte du sens de la caractéristique et suggère d'utiliser des modèles comme Sharpe Ratio pour expliquer les résultats.

  • 00:35:00 L'orateur discute de l'utilisation de l'ACP pour la sélection des fonctionnalités et de la perte potentielle de sens des fonctionnalités après l'application de l'ACP. Il conseille aux aspirants traders quantitatifs et algorithmiques de considérer EPAT comme un bon début et mentionne que le programme offre des objectifs d'apprentissage complets alignés sur les besoins de l'industrie. L'admission anticipée au programme est étendue aux participants au webinaire, et ils peuvent réserver un appel de conseil pour comprendre comment le programme peut les aider à atteindre leurs objectifs de carrière, y compris le démarrage d'un bureau de trading algo ou l'application de technologies et d'outils avancés dans leurs stratégies de trading.

  • 00:40:00 Kurt Celestog, chef de projet à Hong Kong Exchange and Clearing Limited, partage son projet sur la gestion de portefeuille, qui étend la conférence quantitative de Jay Palmer sur les gestionnaires de portefeuille à l'optimisation du rendement des dividendes grâce à la gestion de portefeuille. Sa motivation est d'obtenir un flux de revenu de dividendes régulier tout en s'assurant que ses versements de dividendes sont stables et augmentent avec le temps et que la valeur du portefeuille ne diminue pas avec le temps. Il vise à battre l'indice de référence ou l'ETF à la fois en termes de rendement des dividendes et de rendement des prix grâce à des techniques de gestion de portefeuille optimales. Celestog a relevé le défi d'obtenir des données sur les dividendes et a dû coder des fonctions de grattage Web pour les télécharger et a divisé l'ensemble de données en deux parties, de 10 ans chacune, couvrant les récessions et les expansions économiques.

  • 00:45:00 L'orateur discute des défis rencontrés dans le nettoyage des données pour l'optimisation du portefeuille d'actions à dividendes. Les données du site Web n'étaient pas propres, ce qui a dû être modifié et normalisé pour que les dividendes soient exprimés en dollars, les premiers dividendes étant en pourcentages. Les données sur les prix ont été obtenues auprès de Yahoo Finance et des mesures telles que le rendement annuel des dividendes, la croissance des dividendes, la croissance moyenne parmi d'autres mesures des prix ont été calculées à partir des données. Un ratio composite a été calculé pour toutes les différentes actions sélectionnées qui a été utilisé pour créer deux portefeuilles, l'un à pondération égale et l'autre à pondération optimisée. L'intervenant a voulu analyser si une seule optimisation, suivie d'un maintien du portefeuille pendant dix ans, surperformerait l'indice de référence et l'ETF.

  • 00:50:00 L'orateur discute des résultats de l'optimisation de son portefeuille avec le projet d'apprentissage automatique. Le quadrant supérieur gauche des graphiques affiche des bulles vertes représentant les cinq actions avec la métrique combinée la plus élevée. L'orateur a calculé les portefeuilles équipondérés et pondérés de manière optimale, tous deux avec un rendement moyen et un rendement en dividendes supérieurs à ceux de l'indice de référence. Cependant, au cours des dix années suivantes, les actions bancaires et technologiques sont devenues plus populaires et le portefeuille optimisé a commencé à faire moins bien que l'indice de référence. Le conférencier a tenté d'améliorer ses performances en rééquilibrant chaque période et en sélectionnant les cinq meilleures actions en fonction de la métrique choisie. Les portefeuilles rééquilibrés surperforment l'indice de référence et ont un rendement en dividendes plus élevé.

  • 00:55:00 L'orateur explique comment l'optimisation du portefeuille et le rééquilibrage régulier peuvent permettre d'obtenir un rendement en dividendes plus élevé et de surperformer les indices de référence, en particulier avec des actions à dividendes telles que les fiducies de placement immobilier (REIT). En rééquilibrant les portefeuilles tous les six mois et en utilisant différentes périodes rétrospectives, le conférencier a pu surperformer l'indice à la fois en termes de rendement moyen du dividende, de croissance du dividende, de rendement et de diminution des prélèvements. Cependant, l'obtention et le nettoyage des données se sont avérés difficiles, et la fonction de rééquilibrage était complexe, ce qui pouvait être résolu à l'aide de la programmation orientée objet. Dans l'ensemble, le conférencier suggère que l'optimisation du portefeuille et le rééquilibrage régulier peuvent être des outils précieux pour les investisseurs.

  • 01:00:00 L'orateur note qu'un rééquilibrage fréquent du portefeuille est nécessaire pour une surperformance, mais la rareté des données sur les dividendes pour les actions ou les lectures de dividendes rend difficile le rééquilibrage plus fréquemment qu'une ou deux fois par an. L'orateur souligne également la nécessité de poursuivre les travaux sur le projet, tels que l'exploration de différents critères d'optimisation, l'ajout de plus d'actions au portefeuille pour une plus grande diversification et un backtesting plus approfondi. Ils suggèrent également d'étendre l'univers des lectures et des stocks et de conserver une base de données personnelle en raison de l'historique limité et du biais de survie. Enfin, ils répondent aux questions du public sur la région de marché limitée utilisée dans le projet et la procédure d'optimisation du poids utilisée.

  • 01:05:00 L'orateur explique comment les valeurs aberrantes peuvent affecter les modèles d'apprentissage automatique, en particulier la régression linéaire et les réseaux de neurones. Ces modèles sont très sensibles aux valeurs aberrantes et, par conséquent, l'orateur recommande de traiter les valeurs aberrantes à l'aide de techniques telles que les plages interquartiles, le lasso et la régression de crête. Cependant, il suggère que les modèles linéaires fournissent toujours les meilleurs résultats en trading, il est donc important de traiter les valeurs aberrantes. Le conférencier offre également des conseils sur ce qu'il faut pour devenir un commerçant algo, recommandant une approche multidisciplinaire qui comprend la compréhension des marchés, la microstructure, les compétences de codage et les concepts d'apprentissage automatique.

  • 01:10:00 Le conférencier discute de l'importance d'apprendre et de comprendre comment appliquer les langages de programmation, tels que Python, pour diversifier et gérer efficacement son portefeuille d'investissement. Ils soulignent les avantages de suivre un cours complet sur le trading algo qui couvre les fonctions du marché, le codage et la gestion des risques, même pour ceux qui n'ont pas l'intention de s'engager dans le trading à haute fréquence. L'intensité et l'exhaustivité du cours offrent quelque chose pour tout le monde et fournissent une bonne base pour une utilisation personnelle dans sa vie financière. Les conférenciers concluent par une discussion sur leurs plans futurs et la demande d'exploration plus approfondie de sujets liés au trading algo dans les sessions à venir.
Portfolio Assets Allocation with ML and Optimization for Dividend Stocks | Algo Trading Project
Portfolio Assets Allocation with ML and Optimization for Dividend Stocks | Algo Trading Project
  • 2022.12.13
  • www.youtube.com
EPAT project presentations on “Portfolio Asset Allocation with Machine Learning: A Practical and Scalable Framework for Machine Learning Development” by two ...
Raison: