Quantitativer Handel - Seite 7

 

Martin Scholl (Universität Oxford): „Studying Market Ecology Using Agent-Based Models“



Martin Scholl (Universität Oxford): „Studying Market Ecology Using Agent-Based Models“

Martin Scholl, ein Forscher von der Universität Oxford, hat sich intensiv mit dem Studium der Marktökologie mithilfe agentenbasierter Modelle befasst. Im Gegensatz zu traditionellen Ansätzen, die auf Annahmen wie der Hypothese eines effizienten Marktes beruhen, stellt Scholl die im neoklassischen Finanzwesen häufig verwendete Gleichgewichtstheorie mit rationalen Erwartungen in Frage. Er glaubt, dass diese Theorie von allen Teilnehmern ein perfektes Verständnis der realen Welt verlangt, was angesichts der kognitiven Einschränkungen sowohl von Privatanlegern als auch von Fondsmanagern unrealistisch ist. Stattdessen plädiert er für die Anwendung von Werkzeugen aus der Biologie zur Analyse realer Finanzdaten und bietet so eine neue Perspektive für das Verständnis der Finanzmärkte.

Um die Marktökologie zu erforschen, vergleicht Scholl Anlagestrategien mit Arten in der Biologie, wobei einzelne Anleger Individuen einer bestimmten Art repräsentieren. Der mit einer bestimmten Strategie investierte Gesamtreichtum ist vergleichbar mit der Häufigkeit oder Gesamtpopulationsgröße dieser Art. In einem Spielzeugmodell eines Investmentspiels stellt Scholl ein vereinfachtes Szenario vor, in dem Agenten wählen können, ob sie ihr Vermögen auf einem Geldmarktkonto belassen oder in eine Aktie investieren möchten, die Dividenden zahlt. Dieses Modell ermöglicht die Untersuchung verschiedener Anlagestrategien und Einwände gegen die neoklassische Annahme perfekter Rationalität.

Scholl identifiziert verschiedene Anlagestrategien, die in agentenbasierten Modellen zur Untersuchung der Marktökologie eingesetzt werden. Die erste ist eine völlig rationale Strategie, bei der der Nettoinventarwert zwischen Aktien und Bargeld aufgeteilt wird. Ein Value-Investor schätzt die Wachstumsrate der Dividende, um Zukunftsprognosen zu erstellen und den zukünftigen Kurs der Aktie zu verstehen. Bei der zweiten Strategie handelt es sich um Trendfolger, die aktuelle Preise analysieren und Trends ableiten. Die dritte Strategie umfasst Lärmhändler, die in den Markt eintreten, um den Liquiditätsbedarf zu decken, aber kurzfristig nicht preissensibel sind. Allerdings ist ihr Prozess des umkehrenden Rauschens auf einer langen Zeitskala mit dem Grundwert verbunden.

Um Marktmechanismen zu simulieren und Marktökologie zu untersuchen, nutzen Scholl und sein Team agentenbasierte Modelle mithilfe von Softwarepaketen. Sie stellen die Vergleichbarkeit zwischen verschiedenen Durchläufen des Modells sicher, indem sie Ausstattungen festlegen und die anfänglichen Ausstattungen auf Individuen verschiedener Arten aufteilen und so den relativen Anteil verfolgen. Die Simulationen laufen über einen Zeitraum von 200 Jahren und ermöglichen die Beobachtung des durchschnittlichen jährlichen Ertrags für jede Art. Interessanterweise stellen sie fest, dass es für jede Strategie unabhängig von der Häufigkeit mindestens eine Region gibt, in der sie am profitabelsten ist.

In seinen Experimenten untersucht Scholl das Verhalten von Trendfolgern und die Auswirkungen der Reinvestition von Gewinnen. Er beobachtet, dass der Markt die meiste Zeit in einer instabilen, chaotischen Region mit großen Ausreißern verbringt, was zu fleckigem Rauschen führt. Wenn Anleger ihre Gewinne reinvestieren, schwanken die Verlaufskurven um einen identifizierten zentralen Punkt, konvergieren jedoch nicht vollständig in Richtung dieses. Eine zunehmende Konzentration von Trendfolgern führt zu einer höheren Volatilität der Renditen. Scholl führt die schnelle Abkehr von den Trendfolgern auf die Rationalität der Anleger und eine positive Autokorrelation im Dividendenprozess zurück.

Scholl erklärt, dass agentenbasierte Modelle verwendet werden können, um eine Finanzgemeinschaftsmatrix zu erstellen, ähnlich den in der Biologie verwendeten Räuber-und-Beute-Volterra-Gleichungen. Die Rendite einer bestimmten Strategie wird mit der Bevölkerungsgröße gleichgesetzt, und die Sensitivität der Rendite auf Änderungen der Bevölkerungsgröße stellt die Gemeinschaftsmatrix dar. Auf dem Finanzmarkt entsteht Wettbewerb zwischen verschiedenen Strategien, wenn Preise von Gleichgewichtspunkten abweichen. Scholl betont, dass Finanzmärkte eine Dichteabhängigkeit aufweisen, was die Wechselwirkungen zwischen Arten komplexer macht als in biologischen Systemen. Diese Dichteabhängigkeit führt zu Szenarien wie blasenartigen Preiserhöhungen, erkennt jedoch an, dass solche Situationen unrealistisch sind.

Im Kontext der Marktökologie diskutiert Scholl die praktischen Implikationen seiner Erkenntnisse. Er stellt ein lineares Modell vor, das die Artenvielfalt nutzt, um die Beziehungen zwischen verschiedenen Arten von Raubtieren zu beschreiben und so die Marktergebnisse zu beeinflussen. Dieser Ansatz unterstreicht die Mehrdimensionalität von Investitionen und zeigt, wie wichtig es ist, Strategien angemessen zu dimensionieren, um Verluste zu vermeiden oder in stark dichteabhängigen Finanzmärkten zum Opfer zu werden. Es stellt die traditionelle Ansicht in Frage, dass Aktienkurse alle verfügbaren fundamentalen Informationen widerspiegeln, und stellt Finanzmärkte als komplexe Systeme dar, die von verschiedenen Bedingungen beeinflusst werden.

Scholl geht weiter auf die Verwendung eines einfachen linearen Modells innerhalb agentenbasierter Modelle zur Untersuchung der Marktökologie ein. Durch die Analyse der Bestände und der relativen Häufigkeit der Marktaktivitäten stellte er fest, dass dieser Ansatz die von Abteilungen abgeleiteten Modelle übertraf, die Rationalität voraussetzen und Fundamentaldaten automatisch übersetzen. Er erkennt jedoch die Grenzen seines Modells an und betont die Notwendigkeit weiterer Forschung, um seinen Realismus zu verbessern. Ein Aspekt, den er anspricht, ist die Sensibilität des Modells gegenüber unterschiedlichen Rezepten und Definitionen, insbesondere in Bezug auf Trendfolge. Während Dividenden in seinem Modell eine wichtige Rolle spielen, würde die Einbeziehung realistischerer Elemente für reale Finanzmärkte zusätzliche Schritte erfordern.

In Bezug auf die Anpassungsfähigkeit der Überzeugungen der Agenten in seinem Modell weist Scholl darauf hin, dass bei Marktoperationen Fondsmanager häufig über längere Zeiträume hinweg die in Prospekten dargelegten Strategien befolgen. Dies deutet auf eine Tendenz hin zu mechanischen Asset-Allokationsprozessen hin. Infolgedessen neigt Scholl dazu, weniger adaptives Verhalten und weniger Intelligenz zu modellieren. Er betont jedoch, dass andere Forscher seiner Gruppe an der Universität Oxford aktiv die Anwendung evolutionärer Algorithmen zur Änderung von Parametern und sogar zur Entwicklung neuer Strategien erforschen.

Der Forschungsschwerpunkt von Martin Scholl liegt auf der Untersuchung der Marktökologie mithilfe agentenbasierter Modelle. Er hinterfragt traditionelle Finanztheorien und -annahmen, indem er Konzepte aus der Biologie anwendet, um die Finanzmärkte besser zu verstehen. Durch den Vergleich von Anlagestrategien mit Arten in der Biologie, die Analyse verschiedener Strategien und die Simulation von Marktmechanismen deckt Scholl die Komplexität von Finanzmärkten und das Zusammenspiel verschiedener Strategien auf. Seine Ergebnisse deuten darauf hin, dass die Finanzmärkte stark von der Dichte abhängig sind und dass die richtige Dimensionierung der Anlagestrategien von entscheidender Bedeutung ist, um Verluste zu vermeiden und in diesem dynamischen Ökosystem zur Beute zu werden. Scholls Arbeit liefert wertvolle Einblicke in die Natur von Märkten als komplexe Systeme und steht im Gegensatz zur traditionellen Ansicht, dass Aktienkurse ausschließlich fundamentale Informationen widerspiegeln.

  • 00:00:00 Martin Scholl von der Universität Oxford diskutiert seine Studie zur Marktökologie anhand agentenbasierter Modelle. Er erklärt, dass er sich nicht auf gängige Annahmen wie die Hypothese eines effizienten Marktes konzentriert, sondern sich mit der in der neoklassischen Finanzwelt verwendeten Gleichgewichtstheorie mit rationalen Erwartungen auseinandersetzt, da diese verlangt, dass das Verständnis aller Teilnehmer mit der realen Welt übereinstimmt. Er verrät auch, dass es in der Finanzliteratur über 300 Faktormodelle gibt, was es schwierig macht, das beste zu verwenden, und dass es physikalische Grenzen für die kognitiven Fähigkeiten sowohl von Privatanlegern als auch von Fondsmanagern gibt. Darüber hinaus erörtert er, wie wichtig es ist, Werkzeuge aus der Biologie auf reale Daten anzuwenden, um die Finanzmärkte besser zu verstehen.

  • 00:05:00 Martin diskutiert, wie Marktökologie mithilfe agentenbasierter Modelle untersucht werden kann. Er erklärt, dass Anlagestrategien mit Arten in der Biologie verglichen werden können, wobei einzelne Anleger den Individuen einer bestimmten Art entsprechen. Der mit einer bestimmten Strategie investierte Gesamtreichtum ist die Häufigkeit oder Gesamtpopulationsgröße dieser Art. Scholl stellt ein Spielzeugmodell eines Anlagespiels vor, bei dem Agenten die Wahl haben, ihr Vermögen auf einem Geldmarktkonto zu belassen oder in eine Aktie zu investieren, die Dividenden zahlt. Das Modell arbeitet mit einer Aktie, was eine vereinfachende Annahme darstellt, die in den meisten Fällen eindeutige Clearingpreise ermöglicht. Scholl geht auch auf die neoklassische Annahme eines perfekten rationalen Investors ein und hebt Einwände gegen diesen Ansatz hervor.

  • 00:10:00 Martin Scholl erklärt das Konzept der Marktökologie anhand von Metaphern aus der Biologie. Er unterteilt die Agenten auf dem Markt nach ihren Teilnahmegründen und führt die Überschussnachfragefunktion als Möglichkeit zur Definition einer Strategie ein. Er erklärt, wie eine Signalfunktion im Anlageprozess verwendet wird und wie verschiedene Investmentfonds dazu neigen, sich auf der Grundlage der Beschaffung von Informationen und Analysen auf unterschiedliche Dinge zu spezialisieren. Die Aufteilung der Strategien ist in sich entwickelnden Märkten von entscheidender Bedeutung, da es von Vorteil ist, sich auf eine bestimmte Nische zu spezialisieren, um etwas zu optimieren.

  • 00:15:00 Martin Scholl diskutiert die verschiedenen Strategien, die in agentenbasierten Modellen zur Untersuchung der Marktökologie verwendet werden. Die erste Strategie ist eine völlig rationale Strategie, bei der der Nettoinventarwert zwischen Aktien und Bargeld aufgeteilt wird. Ein Value-Investor schätzt die Wachstumsrate der Dividende, um eine Prognose zu erstellen, die dabei hilft, den Kurs der Aktie in der Zukunft zu verstehen. Die zweite Strategie basiert auf Trendfolgern, die sich die aktuellen Preise ansehen und diese Trends extrapolieren. Schließlich umfasst das Modell Noise-Händler, die auf den Markt kommen, um den Liquiditätsbedarf zu decken, aber nicht empfindlich auf den Preis reagieren, sodass ihr Signal auf kurzer Zeitskala zufällig aussieht. Ihr Prozess des Rauschens mit Umkehrung des Mittelwerts ist jedoch über einen langen Zeitraum mit dem Grundwert verbunden und kehrt langsam zum Mittelwert zurück, wie von Buscher und Kollegen geschätzt.

  • 00:20:00 Martin erklärt, wie sie Marktmechanismen mithilfe agentenbasierter Modelle simulieren und so Marktökologie untersuchen können. Aufgrund der Vielzahl möglicher Lösungen ist es schwierig, die Simulation analytisch zu behandeln. Daher verwenden sie ein Softwarepaket, um die verschiedenen Marktmechanismen zu simulieren. Sie legen Dotierungen fest, um sicherzustellen, dass die Ergebnisse zwischen verschiedenen Modellläufen vergleichbar sind. Sie teilen auch die Anfangsausstattung auf die Individuen verschiedener Arten auf und verfolgen den relativen Anteil. Sie lassen die Simulation 200 Jahre lang laufen und betrachten den durchschnittlichen jährlichen Ertrag für jede der Arten. Sie stellen fest, dass es für alle drei Strategien mindestens eine Region gibt, in der sie am profitabelsten sind, auch wenn die Art in dieser Region nicht am häufigsten vorkommt.

  • 00:25:00 Martin Scholl von der Universität Oxford diskutiert ein Experiment mit Trendfolgern, bei dem die Preise von den Grundwerten abweichen, was aufgrund der zufälligen Realisierung des Dividendenprozesses und des eingeführten Rauschens zu massiven Gewinnen und Verlusten führt. Das System verbringt den größten Teil seines Entwurfs in einem instabilen, chaotischen Bereich mit großen Ausreißern, die gesprenkeltes Rauschen erzeugen. Im zweiten Experiment durften Anleger Gewinne reinvestieren, und die Flugbahnen wurden im Simplexverfahren mit Umverteilung des Reichtums verfolgt, konvergierten jedoch leicht in Richtung des identifizierten zentralen Punkts und schwankten stattdessen von einer Seite zur anderen. Das System befindet sich in der Regel in einer Region um den identifizierten attraktiven Fixpunkt, und der Markträumungspreis wird an jedem Handelstag bekannt gegeben, was sich auf die Bewertung der Händler und die Preise auswirkt.

  • 00:30:00 Martin erklärt die verschiedenen Flusslinien, die man durch Monte-Carlo-Experimente bei der Analyse eines Fixpunkts in einem System mit Trendfolgern, Value-Investoren und Noise-Tradern erhält. Die Dicke der Linien gibt an, wie viel Vermögen jährlich zwischen den Strategien umverteilt wird, was zeigt, wie eine Fülle von Trendfolgern zu massiven Verlusten im System führen kann. Scholl betont weiterhin, dass Crowding bei Trendfolgern anders funktioniert als bei Value-Investoren und dass eine zunehmende Konzentration von Trendfolgern zu einer höheren Volatilität der Renditen führt. Die Hauptursache dafür, dass sich das System schnell von Trendfolgern entfernt, ist die Rationalität der Anleger und eine positive Autokorrelation im Dividendenprozess.

  • 00:35:00 Martin Scholl erklärt, wie agentenbasierte Modelle zur Untersuchung der Marktökologie verwendet werden können und wie die Financial Community Matrix aufgebaut werden kann. Scholl zieht eine Analogie zu den Räuber-und-Beute-Volterra-Gleichungen, die in der Populationsdynamik in der Biologie verwendet werden und zur Beschreibung der Dynamik verschiedener Populationen verwendet werden, nämlich wie verschiedene Arten basierend auf der Populationsgröße interagieren. Er weist darauf hin, dass dieses Konzept auch auf Finanzmärkte angewendet werden kann, wo die Rückkehr einer bestimmten Strategie als Populationsgröße betrachtet würde und die Empfindlichkeit der Rückkehr einer Art gegenüber Änderungen der Populationsgröße die Gemeinschaftsmatrix darstellen würde.

  • 00:40:00 Martin von der Universität Oxford erklärt, wie die Arten in der Finanzmarktökologie im Gleichgewichtspunkt mit sich selbst konkurrieren, da alle diagonalen Einträge negativ und alle positiven Einträge positiv sind. Das System ist stabil, da der Fixpunkt stabil ist und eine Gemeinschaftsmatrix aufweist, die gegenüber bestimmten Veränderungen in der Bevölkerung robust ist. Wenn sich der Markt jedoch ziemlich weit von den Gleichgewichtspunkten entfernt, kommt es zu einem Wettbewerb zwischen Trendfolgern und Value-Investoren, obwohl es viele Value-Investoren gibt. Die Dichteabhängigkeit macht die Wechselwirkungen zwischen Arten komplexer als die biologische und kommt im Finanzwesen weitaus häufiger vor als in der Natur. In der instabilen Region, in der die Preise divergieren, profitieren Trendfolger von anderen Trendfolgern und der Preis steigt weiterhin blasenartig an, aber dieses Szenario ist ziemlich unrealistisch.

  • 00:45:00 Martin Scholl diskutiert die Vorteile von Trendfolgern auf einer kurzen Zeitskala, da sie von Trendfolgern profitieren können, die etwas langsamer sind als sie, weil sie an der Spitze verkaufen können oder zumindest nicht, bevor der Preis vollständig abgestürzt ist. In diesem Modell sind die Trendfolger jedoch einfach und agieren im gleichen Zeitrahmen, unabhängig von der Strategie einer Person. Scholl erörtert auch, wie ein passiver Fonds oder ein Index-Tracker als Fonds dargestellt werden könnte, der über eine Konsensverteilung des Vermögens auf bestimmte Vermögenswerte verfügt. Ein höherer Anteil an Indexern würde das System stabiler machen und das Gesamtsystem dämpfen. Schließlich weist Scholl darauf hin, dass er all diese Informationen berechnet hat, um die binären Beziehungen zwischen Arten zu verstehen, was zu einem sogenannten Nahrungsnetz führte.

  • 00:50:00 Martin spricht über das Studium der Marktökologie mithilfe agentenbasierter Modelle. Scholl erklärt, dass Knoten unterschiedliche Arten sind und Kanten die Wechselwirkungen zwischen ihnen sind. Anhand des trophischen Niveaus können sie bestimmen, welche Art das niedrigste Gewinnniveau hat, was bedeutet, dass sie keine anderen Arten erbeutet, und welche Art das höchste Verkehrsaufkommen aufweist, was bedeutet, dass sie alle anderen Arten erbeutet, was sie zum Spitzenprädator macht. Scholl erklärt, wie sich das Verkehrsaufkommen je nach Dichte dramatisch ändert und wie jede Gruppe einem Dividendenrabatt folgt, wobei der Value-Investor auf Noise-Trader setzt und der Trendfolger Korrelationen ausnutzt.

  • 00:55:00 Martin Scholl erklärt die praktischen Implikationen des Studiums der Marktökologie anhand agentenbasierter Modelle. Ein auf Marktqualität und Fehlpreisen basierendes Experiment zeigt, dass ein einfaches lineares Modell, das die Artenvielfalt nutzt, recht gut funktioniert, um die Beziehung zwischen verschiedenen Arten von Raubtieren zu beschreiben, die sich auf die Marktergebnisse auswirken. Das entwickelte Modell ermöglicht die Beobachtung der Mehrdimensionalität von Investitionen und verdeutlicht, dass Strategien unterschiedliche Auswirkungen auf die Marktqualität haben. Laut Scholls Studie sind die Finanzmärkte stark von der Dichte abhängig, was bedeutet, dass Anleger ihre Strategie angemessen dimensionieren sollten, um keine Verluste zu erleiden oder selbst zur Beute zu werden. Dieser Ansatz ermöglicht die Beschreibung von Märkten als komplexes System, das von verschiedenen Bedingungen beeinflusst wird, im Gegensatz zum traditionellen Finanzwesen, wo davon ausgegangen wird, dass Aktienkurse alle verfügbaren fundamentalen Informationen widerspiegeln.

  • 01:00:00 In diesem Abschnitt des Videos diskutiert Martin Scholl seinen Einsatz eines einfachen linearen Modells zur Untersuchung der Marktökologie mithilfe agentenbasierter Modelle. Bei der Betrachtung der Bestände und der relativen Häufigkeit der Marktaktivitäten stellte er fest, dass dieser Ansatz eine bessere Prognose bot als die Verwendung von von Abteilungen abgeleiteten Modellen, die Rationalität voraussetzen und Fundamentaldaten automatisch übersetzen. Er erörtert auch die Grenzen seines Modells und die Notwendigkeit weiterer Forschung, um es realistischer zu machen. Eine Frage, die er beantwortet, betrifft die Empfindlichkeit des Modells gegenüber unterschiedlichen Rezepten und Definitionen, insbesondere im Hinblick auf die Trendverfolgung, die seiner Meinung nach in seinem Modell hauptsächlich von Dividenden abhängt, aber weitere Schritte erfordern würde, um es für die reale Finanzwelt realistischer zu machen Märkte.

  • 01:05:00 Martin Scholl diskutiert seinen Ansatz zur Untersuchung der Marktökologie mithilfe agentenbasierter Modelle. Scholl geht nicht davon aus, dass Agenten in seinem Modell in der Lage sind, ihre Überzeugungen anzupassen. Bei Marktoperationen sind Fondsmanager in der Regel jahrzehntelang dabei, die in einem Prospekt dargelegten Strategien zu verfolgen, was darauf hindeutet, dass der Prozess der Vermögensallokation tendenziell mechanisch abläuft. Scholl tendiert bei seiner Modellierung zu weniger adaptivem Verhalten und weniger Intelligenz. Andere in der Forschungsgruppe der Universität Oxford arbeiten jedoch an der Anwendung evolutionärer Algorithmen, um Parameter von Strategien zu ändern und sogar neue zu entwickeln.
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
  • 2022.03.23
  • www.youtube.com
Abstract: This talk presents a mathematical analogy between financial trading strategies and biological species and shows how to apply standard concepts fro...
 

Kevin Webster: „Wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren“



Kevin Webster: „Wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren“

In einem YouTube-Video befasst sich Kevin Webster mit der Frage, wie Preisauswirkungen buchhalterische Gewinn- und Verlustrechnungen (GuV) verzerren können. Er betont die Bedeutung einer genauen Modellierung der Preisauswirkungen für ein effektives Risikomanagement und betont die Bedeutung des Liquiditätsrisikomanagements, um zu vermeiden, dass eine illiquide Position verbleibt. Webster räumt ein, dass es verschiedene Preisauswirkungsmodelle gibt, sie sind sich jedoch bei den meisten Daten im Allgemeinen einig.

Der Vortrag befasst sich zunächst mit der Schnittstelle zwischen Preisauswirkungen und Liquiditätsrisiko und weist insbesondere darauf hin, dass die Liquidität wichtiger Märkte vor der Finanzkrise oft als selbstverständlich angesehen wurde. Webster veröffentlicht aussagekräftige Zitate, die veranschaulichen, wie Preisauswirkungen eine Illusion von Gewinn erzeugen und zu Preisverzerrungen weg von den finanziellen Werten führen. Das Ziel des Vortrags besteht darin, dieses Konzept mathematisch zu formalisieren und einen quantitativen Rahmen bereitzustellen, der auf der Schätzung der Marktauswirkungen einer Liquidation basiert, um die Illusion eines Gewinns zu beseitigen.

Webster erklärt den Preiseinfluss als ein kausales Modell für den Handel, bei dem aggressiverer Handel die Preise weiter in die Höhe treibt und umgekehrt. Preisauswirkungsmodelle werden häufig bei der Transaktionskostenanalyse und der optimalen Ausführung eingesetzt und dienen als Pre-Trade-Tools zur Schätzung der erwarteten Transaktionskosten und zur Optimierung von Ausführungsstrategien. Er präsentiert einen simulierten Transaktionskostenanalysebericht, der es Händlern ermöglicht, die Leistung ihrer Algorithmen vierteljährlich zu bewerten, wobei der Schwerpunkt auf der Minimierung des Order-Slippages liegt und sowohl mechanische Bewegungen als auch Alpha-Slippage berücksichtigt werden.

Der Redner erörtert die von der Europäischen Wertpapier- und Marktaufsichtsbehörde (ESMA) veröffentlichten Leitlinien zu Liquiditätsstresstests, bei denen die Liquidation von Vermögenswerten während Marktstressphasen simuliert wird. Um das Risiko zu reduzieren, sind die Simulation von Marktreaktionen wie Preisverwerfungen und der Einsatz von Absicherungsstrategien von entscheidender Bedeutung. Webster verweist auf verschiedene Literatur zu Liquiditätsstresstests und Preisauswirkungen auf die Gewinn- und Verlustrechnung, darunter die Arbeiten von Cascioli, Boucheron, Farmer und Regulierungsausschüssen wie ESMA und dem Baffled Committee. Er betont die Notwendigkeit von Liquiditätsstresstests, um Situationen abzumildern, die sich auf die Gewinn- und Verlustrechnung auswirken und zu hohen Liquidationskosten führen könnten.

Es wird das Konzept eines Trading Footprint eingeführt, das die verzerrende Wirkung von Preisauswirkungen auf die buchhalterische Gewinn- und Verlustrechnung misst und verschiedene Definitionen von Gewinn und Verlust miteinander verknüpft. Webster stellt ein einfaches Notverkaufsmodell vor, um die bedeutenden Schlussfolgerungen zur Bilanzierung von Gewinn und Verlust zu veranschaulichen, die im Casadio-Bouchard-Farmer-Papier gezogen werden. Er erklärt, wie die Zahl, die Händler und Plattformmanager täglich beobachten, ihre endgültige Gewinn- und Verlustrechnung überschätzt, was nach Abschluss des Handels zu einer Deflation führt. Diese Inflationseigenschaft kann jedoch in Echtzeit gemessen und angezeigt werden, was den Händlern verwertbare Informationen liefert. Webster weist darauf hin, dass Verluste bei der Positionsinflation oft vorübergehender Natur sind und von der Risikotoleranz abhängen.

Es werden die Fragen im Zusammenhang mit der Bewertung einer Aktienposition und deren Auswirkungen auf die Gewinne und Verluste eines Unternehmens erörtert. Webster betont die Unklarheit bei der Bestimmung, welche Preise zur Kennzeichnung der Aktienposition verwendet werden sollen, und den Unterschied zwischen der buchhalterischen Gewinn- und Verlustrechnung und der fundamentalen Gewinn- und Verlustrechnung, die von Handelsalgorithmen verwendet wird. Der Handels-Fußabdruck ist definiert als die Differenz zwischen buchhalterischer Gewinn- und Verlustrechnung und grundlegender Gewinn- und Verlustrechnung, wobei Unklarheiten behoben werden, wenn die Position geschlossen wird. Der Redner untersucht die Positionsinflation und geht dabei von bestimmten Annahmen aus, unter denen diese Eigenschaft gilt. Das Aufprallmodell und seine beiden Fälle, der ursprüngliche OW-Maulwurf und der von Fruehwirth und Bond untersuchte W-Maulwurf, werden ebenfalls angesprochen.

Webster erklärt, dass für ein sinnvolles Modell eine No-Arbitrage-Bedingung zwischen Lambda und Beta sowie eine Bedingung der Selbstfinanzierungsgleichung erfüllt sein müssen. Er befasst sich mit der Berechnung der erwarteten Gewinne und Verluste zum Abschlusszeitpunkt und wie der Handelsfußabdruck zu einer Verzerrung der buchhalterischen Gewinne und Verluste führt. Die Positionsinflationseigenschaft führt dazu, dass die Position während der Positionseingabephase ansteigt, während der Haltephase bestehen bleibt und sich schließlich verflüchtigt. Alle diese Aspekte können in Echtzeit auf einem Handelsbildschirm beobachtet werden und bieten Händlern wertvolle Erkenntnisse.

Webster erläutert weiter die durch Preisauswirkungen verursachten Verzerrungen in der Gewinn- und Verlustrechnung. Er erläutert, wie Händler auch ohne Alpha profitable Geschäfte tätigen können, warnt jedoch davor, dass diese Gewinne aufgrund der Transaktionskosten nur von kurzer Dauer sind. Die frühzeitige Überwachung von Preisverwerfungen ist entscheidend, um Verluste zu vermeiden. Darüber hinaus weist Webster darauf hin, dass Portfoliomanager es vorziehen, ihre Portfolios als Ganzes zu betrachten, und führt das Konzept eines stationären Portfolios ein, das die Größe und den Umsatz eines Portfolios in der mathematischen Finanzwelt steuert.

Anschließend wird das Konzept eines stationären Portfolios im Hinblick auf die Schätzung laufender Transaktionskosten untersucht. Durch das Verständnis der Zeitskala des Propagators können Händler abschätzen, in welchem Ausmaß ihre Positionen überhöht sind und welche Illusion von Gewinn sie bei der Liquidierung ihrer Positionen verlieren könnten. Webster demonstriert das Framework anhand empirischer Daten und demonstriert seine Anwendbarkeit auf reale Szenarien. Er wendet das Rahmenwerk auf ein Notverkaufsmodell an und erläutert die Unterschiede zwischen buchhalterischer Gewinn- und Verlustrechnung und fundamentaler Gewinn- und Verlustrechnung und hebt hervor, wie sie verschiedene objektive Funktionen basierend auf der Risikoaversion eines Händlers beeinflussen.

Der Redner befasst sich mit den Auswirkungen von Notverkäufen oder der Handelsaktivität anderer Marktteilnehmer auf die Gewinne und Verluste und die Position eines Händlers. Eine aggressive Absicherung kann zu Crowding-Effekten und Positionsinflation führen, was zu dauerhaften Verlusten führt. Die genaue Modellierung der Preisauswirkungen ist für ein effektives Risikomanagement von entscheidender Bedeutung. Dabei wird Wert auf die Steuerung des Liquiditätsrisikos gelegt, um zu verhindern, dass am Ende illiquide Positionen entstehen.

Webster räumt ein, dass es zwar viele verschiedene Preisauswirkungsmodelle gibt, sie sich jedoch bei den meisten Daten im Allgemeinen einig sind. Allerdings kann es zu Unterschieden im Ausmaß und in der Dauer der Dauer der Auswirkungen kommen. Vorübergehende Luxationen können einige Tage bis zu einem Monat dauern. Aus Sicht des Risikomanagements gibt es eine klare Vorgehensweise, während aus Händler- und Leistungssicht effektive Kommunikation zum Schlüsselfaktor wird. Wenn Händler verstehen, ob Gewinne und Verluste mechanisch sind oder nicht, und den mechanischen Teil entfernen, können sie sich auf das tatsächliche Alpha oder den tatsächlichen Vorteil ihrer Geschäfte konzentrieren.

Der Redner erläutert das Prinzip „Keine Preismanipulation“ und betont, dass Händler Gewinne erzielen, selbst wenn sie diese nicht aufrechterhalten können, da sie irgendwann verschwinden werden. Die Positionsinflation führt im Laufe der Zeit zu einer Deflation des Handelswerts oder zu einer sofortigen Liquidation, was zu einer Gewinn- und Verlustrechnung von Null oder sogar zu einem negativen Ergebnis führt. Daher müssen sich Händler auf andere Variablen verlassen, um nachhaltige Gewinne zu erzielen. Webster untersucht weiter die Korrelation zwischen dem anfänglichen Auswirkungszustand, den durch den Rest des Marktes verursachten Auswirkungen und den Auswirkungen der Absicherungen des Händlers und des Restes des Marktes.

Zusammenfassend liefert Kevin Webster ein umfassendes Verständnis dafür, wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren können. Er beleuchtet die zusätzlichen Kosten bei Liquiditätsregimen mit hoher Volatilität und deren Korrelation mit dem breiteren Markt und betont deren Auswirkungen auf die Verzerrung. Aus regulatorischer Sicht dürften Unternehmensanleihen und Versicherungsgesellschaften stärker von dieser Tendenz betroffen sein. Während Webster zugibt, dass ihm detaillierte Antworten für Märkte außerhalb von Aktien fehlen, liefert er eine solide mathematische Grundlage zum Verständnis der Preisauswirkungen und ihrer möglichen Verzerrung der Gewinne und Verluste.

  • 00:00:00 ist die Grundlage dieses Vortrags darüber, wie der Preiseffekt die buchhalterische Gewinn- und Verlustrechnung verzerrt. Motiviert wird der Vortrag durch die Schnittstelle zwischen Preisauswirkungen und Liquiditätsrisiko sowie durch die Tatsache, dass die Liquidität wichtiger Märkte vor der Finanzkrise oft als selbstverständlich angesehen wurde. Der Redner liefert zwei aussagekräftige Zitate, die die durch Preisauswirkungen verursachte Profitillusion veranschaulichen und wie sie zu Preisverwerfungen weg von den finanziellen Werten führt. Der Vortrag zielt darauf ab, diese Idee mathematisch zu formalisieren und einen quantitativen Rahmen bereitzustellen, der auf den geschätzten Marktauswirkungen einer Liquidation basiert, um diese Profitillusion zu beseitigen.

  • 00:05:00 Der Redner erörtert den Preiseinfluss als kausales Modell für den Handel und wie er dazu führt, dass der Preis bei aggressiverem Handel weiter ansteigt und umgekehrt. Die Branche nutzt Preisauswirkungsmodelle zur Transaktionskostenanalyse und optimalen Ausführung, und Praktiker nutzen sie als Pre-Trade-Tool, um die erwarteten Transaktionskosten einer Order abzuschätzen und die Ausführungsstrategie zu optimieren. Der Redner gibt einen simulierten TCA-Bericht, um diese Liquiditätsperspektive nachzuahmen, damit Händler vierteljährlich bewerten können, wie sich ihre Algorithmen entwickeln. Händler versuchen, Order-Slippage zu minimieren, und Preisauswirkungen und Alpha-Slippage kommen ins Spiel, je nachdem, wie viel Prozent des Order-Slippage durch mechanische Bewegungen oder Alpha verursacht werden.

  • 00:10:00 Kevin Webster erörtert die von der Europäischen Wertpapier- und Marktaufsichtsbehörde veröffentlichten Richtlinien zur Durchführung von Liquiditätsstresstests, bei denen die Liquidation von Vermögenswerten in Marktstressphasen simuliert wird. Er erklärt außerdem, wie wichtig es ist, Reaktionen des Marktes zu simulieren, beispielsweise Preisverwerfungen, und wie Absicherungen das Risiko reduzieren können. Darüber hinaus überprüft er zwei Literaturstränge zu Liquiditätsstresstests und Preisauswirkungen auf die Gewinn- und Verlustrechnung, darunter die Arbeiten von Cascioli Boucheron Farmer und Regulierungsbehörden wie dem Baffled Committee und der ESMA. Abschließend betont er die Notwendigkeit von Liquiditätsstresstests, um Situationen zu vermeiden, die sich auf die Gewinn- und Verlustrechnung auswirken und hohe Liquidationskosten verursachen könnten.

  • 00:15:00 Der Redner erörtert die Erkenntnisse aus verschiedenen Dokumenten zu Liquiditätsstresstests, einschließlich der Notwendigkeit für Entscheidungsträger, sie zu nutzen, und ihrer simulationsbasierten Struktur. Sie empfehlen einen speziellen Aufsatz von Francelli zur Simulation von Preisverwerfungen bei Marktstress sowie zwei Aufsätze von Schweizer und Urzua, die einen alternativen Beweis für das OB-Modell liefern und dessen Anwendbarkeit erheblich verbessern. Der Redner stellt außerdem das Konzept eines Trading-Fußabdrucks vor, der verschiedene Definitionen von Gewinn und Verlust miteinander verknüpft und die verzerrende Wirkung von Preisauswirkungen auf die buchhalterische Gewinn- und Verlustrechnung misst. Schließlich erstellten sie ein einfaches Notverkaufsmodell, um die aussagekräftigen Schlussfolgerungen des Casadio-Bouchard-Farmer-Papiers zur Bilanzierung von Gewinn und Verlust zu veranschaulichen.

  • 00:20:00 Kevin Webster erörtert, wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren können. Er erklärt, wie die Zahl, die Händler und Plattformmanager täglich betrachten, ihre endgültige Gewinn- und Verlustrechnung überschätzt und nach Abschluss des Handels sinkt. Allerdings kann die Inflationseigenschaft in Echtzeit gemessen und angezeigt werden, sodass sie für Händler umsetzbar ist. Webster weist darauf hin, dass der Anteil der Positionsinflation an Verlusten häufig vorübergehender Natur ist und von der Risikotoleranz abhängt. Er schließt mit einer Einführung in den mathematischen Aufbau, die Variablen und die Mengen, die Händler bei der Berechnung von Gewinn und Verlust berücksichtigen müssen.

  • 00:25:00 In diesem Abschnitt erklärt Kevin Webster die Probleme im Zusammenhang mit der Bewertung einer Aktienposition und wie sie sich auf den Gewinn und Verlust (P&L) eines Unternehmens auswirkt. Er spricht über die Unklarheit bei der Bestimmung, welche Preise zur Kennzeichnung der Aktienposition verwendet werden sollen, und über die Differenz zwischen der buchhalterischen Gewinn- und Verlustrechnung und der fundamentalen Gewinn- und Verlustrechnung, die der Handelsalgorithmus verwendet. Er definiert den Trading-Fußabdruck als die Differenz zwischen der buchhalterischen Gewinn- und Verlustrechnung und der fundamentalen Gewinn- und Verlustrechnung und erklärt, wie die Unklarheit beseitigt wird, wenn die Position geschlossen wird. Er erörtert auch die Positionsinflation und stellt einige Annahmen vor, unter denen diese Eigenschaft gilt. Abschließend erwähnt er das Aufprallmodell und seine beiden Fälle, den ursprünglichen OW-Maulwurf und den W-Maulwurf, die Fruehwirth und Bond untersucht haben.

  • 00:30:00 Kevin Webster erklärt, dass es für ein sinnvolles Modell eine No-Arbitrage-Bedingung zwischen Lambda und Beta sowie eine Selbstfinanzierungsgleichungsbedingung geben muss, die erfüllt sein muss. Er erläutert außerdem, wie die erwartete Gewinn- und Verlustrechnung zum Abschlusszeitpunkt berechnet wird und wie der Handelsfußabdruck zu einer Verzerrung der buchhalterischen Gewinn- und Verlustrechnung führt. Abschließend erörtert er, wie die Eigenschaft der Positionsinflation dazu führt, dass die Position während der Positionseintrittsphase ansteigt, während der Haltephase anhält und sich schließlich verflüchtigt. All dies kann in Echtzeit und auf einem Handelsbildschirm beobachtet werden.

  • 00:35:00 In diesem Abschnitt erklärt Kevin Webster, ein Finanzexperte, die Preisauswirkungsverzerrungen, die in der Buchhaltungs-GuV auftreten. Er erörtert, wie Händler profitable Geschäfte tätigen können, selbst wenn ihr Handel kein Alpha aufweist, warnt aber auch davor, dass diese Gewinne aufgrund der Transaktionskosten nicht lange anhalten werden und dass Händler diese Preispositionen frühzeitig überwachen sollten, um Verluste zu vermeiden. Darüber hinaus erklärt er, dass Portfoliomanager es vorziehen, ihr Portfolio als Ganzes zu betrachten, und er definiert ein stationäres Portfolio, um die Größe und den Umsatz eines Portfolios in der mathematischen Finanzwelt zu kontrollieren.

  • 00:40:00 Kevin Webster diskutiert das Konzept eines stationären Portfolios und wie es zur Schätzung laufender Transaktionskosten verwendet werden kann. Durch die Kenntnis der Zeitskala des Propagators können Händler abschätzen, wie stark ihre Position aufgebläht ist und welche Illusion von Gewinn sie verlieren könnten, wenn sie beginnen, ihre Position zu liquidieren. Anschließend simuliert Webster das Framework anhand empirischer Daten und betont, dass diese Formeln auf reale Szenarien angewendet werden können. Abschließend wendet er das Rahmenwerk auf ein Notverkaufsmodell an und erklärt die Unterschiede zwischen buchhalterischer Gewinn- und Verlustrechnung und fundamentaler Gewinn- und Verlustrechnung und wie sie abhängig von der Risikoaversion eines Händlers unterschiedliche objektive Funktionen beeinflussen können.

  • 00:45:00 Kevin erläutert, wie sich Notverkäufe oder die Handelsaktivitäten anderer Marktteilnehmer auf die Gewinne und Verluste und die Position eines Händlers auswirken können. Er zeigt, dass eine aggressive Absicherung zu Crowding-Effekten und Positionsinflation führen kann, was zu dauerhaften Verlusten führen kann. Darüber hinaus betont er die Bedeutung einer genauen Modellierung der Preisauswirkungen für ein effektives Risikomanagement und betont die Bedeutung der Steuerung des Liquiditätsrisikos, bevor eine illiquide Position entsteht. Abschließend stellt er fest, dass es zwar viele verschiedene Preisauswirkungsmodelle gibt, diese sich jedoch in der Regel in den meisten Daten einig sind.

  • 00:50:00 Der Redner erörtert, wie sich unterschiedliche Wirkungsmodelle nicht nur hinsichtlich der Höhe oder Änderung der Preiswirkung, sondern auch der Dauer bis zum Verschwinden der Wirkung widersprechen können. Sie sind ein Beispiel für eine vorübergehende Luxation, die einige Tage bis einen Monat dauern kann. Wenn Händler oder Performance-Manager jedoch ihre Positionen entzerren oder ein Risikomanagement durchführen möchten, sollte jedes Wirkungsmodell ausreichen und es gibt einen umsetzbaren Satz, um effektiv mit den Stakeholdern zu kommunizieren. Aus Sicht des Risikomanagements gibt es ein klares Maßnahmenpaket. Im Gegensatz dazu ist es aus Trader- und Performance-Perspektive meist eine Kommunikationssache. Wenn man versteht, ob Gewinn/Verlust mechanisch ist oder nicht, indem man den mechanischen Teil des Gewinns/Verlusts entfernt, kann man sich auf das tatsächliche Alpha oder den tatsächlichen Vorsprung im Handel konzentrieren .

  • 00:55:00 Kevin Webster erklärt, dass das Prinzip der „Keine Preismanipulation“ bedeutet, dass Händler, selbst wenn sie Gewinne erzielen, diese nicht festhalten können, da sie sich irgendwann verflüchtigen. Die Inflation der Proof-Position führt im Laufe der Zeit zu einer Deflation des Handelswerts oder zur sofortigen Liquidation, was zu einer Gewinn- und Verlustrechnung von Null oder sogar zu einem negativen Ergebnis führt. Händler müssen sich auf andere Variablen verlassen, um Gewinne zu erzielen, da die Positionsinflation nicht zulässt, dass Gewinne dauerhaft werden. Webster erörtert außerdem die Korrelation zwischen dem anfänglichen Auswirkungszustand, den anfänglichen Auswirkungen, die durch den Rest des Marktes verursacht werden, und den Auswirkungen der Absicherungen des Händlers und des Rests des Marktes.

  • 01:00:00 Kevin Webster erörtert, wie der Preiseffekt die Gewinn- und Verlustrechnung verzerrt. Er erklärt, dass die zusätzlichen Kosten bei Liquiditätsregimen mit hoher Volatilität und die Korrelation mit dem Rest des Marktes einen erheblichen Teil zu dieser Tendenz beitragen können. Aus regulatorischer Sicht wären Unternehmensanleihen und Versicherungsunternehmen wahrscheinlich stärker von dieser Tendenz betroffen. Er gibt jedoch zu, dass er keine allzu detaillierte Antwort parat hat, da er sich nicht sicher ist, wie er bestimmte Fragen außerhalb von Aktien beantworten soll. Insgesamt liefert er ein mathematisches Verständnis der Preisauswirkungen und wie diese die Gewinne und Verluste verzerren können.
Kevin Webster: "How Price Impact Distorts Accounting P&L"
Kevin Webster: "How Price Impact Distorts Accounting P&L"
  • 2022.02.16
  • www.youtube.com
Full Talk Title: "How Price Impact Distorts Accounting P&L - Revisiting Caccioli, Bouchaud and Farmer's Impact-Adjusted Valuation"This presentation revisits ...
 

Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"



Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"

Laura Leal, a researcher from Princeton University, delivered an informative presentation on the application of deep neural networks in high-frequency finance. She emphasized the limitations of conventional solutions and explored the advantages of utilizing neural networks in this domain. Leal highlighted their ability to adapt to complex factors like autocorrelation and intraday seasonality, which traditional models struggle with. By leveraging neural networks, traders can achieve optimal execution by minimizing market impact and trading smoothly.

To address concerns about the black box nature of neural networks, Leal introduced the concept of explainability. She discussed the projection of neural network control onto a lower-dimensional manifold, enabling a better understanding of the associated risks and the deviation from familiar risk sectors. The team evaluated the performance of the neural network control, comparing it with the classic closed-form PDE (partial differential equation) solution. They examined the value function, mark-to-market wealth, and relative errors in projections to assess the accuracy and effectiveness of the neural network approach.

Leal delved into the intricacies of training the neural network, emphasizing the importance of incorporating real-world data and accurate dynamics. She also proposed a multi-preference controller that allows traders to input their risk preferences, enabling quicker adaptation to new market conditions. By considering risk aversion parameters and incorporating a trader's preferences, the neural network can generate a solution to the stochastic optimization problem in high-frequency finance.

The presenter discussed the structure of the neural network used for risk control, highlighting its recurrent nature. While the network is not excessively deep, it employs a recurring structure at each time step, updating weights simultaneously. The inputs to the network include time and inventory, while the output is the control itself—determining the optimal amount of stocks to trade at each time step. To address the challenge of limited financial data availability, transfer learning is employed, simulating data using Monte Carlo methods.

Leal outlined the process of projecting the neural network control onto a linear function space using linear regression. This projection technique facilitates a better understanding of the non-linear functions of the neural network and their alignment with closed-form control solutions. The results demonstrated the impact of incorporating seasonality and risk aversion parameters on the model's reaction to the market. Additionally, the presenter emphasized the significance of gamma, which is typically set to two in the literature but showed a non-linear solution when taken as three over two.

The performance and accuracy of the neural network control in executing trades for high-frequency finance were thoroughly evaluated. Leal compared the value function, mark-to-market wealth, and relative errors in projections across different scenarios and gamma values. While the neural network exhibited superior performance, it executed trades in a non-linear manner, deviating from the known control solution. This raised questions about the decision to trade using the neural network and determining appropriate margin levels based on its divergence from the established solution.

Leal explored the benefits of the multi-preference controller approach, allowing traders to input their risk conversion parameters and start trading immediately with a pre-trained model. While the neural network solution took longer to execute than the PDE solution, it offered greater flexibility and adaptability to different risk preferences. To enhance explainability, Leal proposed a projection idea using linear regression, reducing computational burden while retaining the multi-preference capability. She also highlighted the broader applications of the neural network approximation concept, suggesting its relevance in other financial problems, such as hedging.

The training process for the neural network in high-frequency finance was discussed, emphasizing offline training to avoid latency issues associated with online reinforcement learning. The network takes time, inventory, and potentially risk aversion parameters as inputs and produces a rate as output. Leal also described the fine-tuning procedure in transfer learning, transitioning from simulated data to real data increments obtained from the Toronto Stock Exchange once the network has converged. The presenter underscored the importance of using real-world data and accurate dynamics during the training process, as it enhances the network's ability to capture the complexities of high-frequency finance.

In the subsequent section, Laura Leal provided insights into the inputs and objective function employed in the neural network for high-frequency finance. The neural network incorporates the inventory as a proportion of the average volume for a specific stock during a day, allowing for a normalized representation. The objective function is framed as a maximization problem, with the output serving as the control for optimal execution. The structure of the neural network is based on function approximation, utilizing two input nodes and four hidden layers to capture the underlying relationships.

Addressing a question about the discrepancy between two control solutions, Leal clarified that it could be interpreted as a reflection of the changing utility of the investor. By adjusting the gamma parameter, different utility functions can be employed, leading to variations in the control solutions. In their research, the team chose the gamma value of three halves based on empirical testing with actual traders, which resulted in satisfactory performance.

Leal further highlighted that the neural network's output is observable and analyzable. They can monitor the positions taken by the network and how they evolve throughout the trading day, providing transparency and insights into the decision-making process. This level of interpretability and understanding allows traders to gain confidence in the neural network's execution strategies.

The challenges associated with developing functional controls for high-frequency finance were also discussed by Leal. While an average control process can provide overall insights into trade execution, it may not accurately represent the behavior of individual trajectories. The dynamics of the market, such as the emergence of meme stocks, necessitate the adaptation of control methods to capture evolving conditions effectively.

In conclusion, Laura Leal's presentation shed light on the complexities of creating effective controls in the realm of high-frequency finance. By leveraging deep neural networks, researchers and traders can overcome the limitations of traditional models and adapt to the intricate dynamics of this domain. The incorporation of risk preferences, explainability measures, and real-world data contributes to the development of robust and adaptable control solutions. Through their work, Leal and her team offer valuable insights and solutions that pave the way for more efficient and informed decision-making in high-frequency finance.

  • 00:00:00 Laura Leal presents her joint work with Matthias and Charlotte on using a deep neural network to solve the problem of optimal execution in high-frequency finance. The goal is to avoid large market impact and trade as smoothly and stealthily as possible. The team introduces the idea of explainability to address the concern of neural networks being a black box, where they project the neural network control onto a lower-dimensional manifold to understand better the risk and how far away the neural network solution is from the familiar risk sector. They evaluate the performance, looking at the value function, wealth marked market, and relative errors in projections and compare the neural network solution with the classic closed-form PDE solution.

  • 00:05:00 Laura Leal from Princeton University discusses how neural networks can improve on the limitations of traditional solutions, like PD (partial differential) models, which struggle to adapt to the complexities of high-frequency finance like auto-correlation, heavy tails, and intraday seasonality. However, neural networks can be time-consuming to run, so she proposes a multi-preference controller that inputs a trader's risk preferences to more quickly adapt to new days, generating a solution to the stochastic optimization problem. Leal then provides an overview of the literature, including optimal execution models, and explains the state variables like inventory, control, and price that the neural network can learn from in high-frequency finance.

  • 00:10:00 Laura discusses the evolution of the price process in high-frequency finance and how it is affected by the speed of trading. She explains how the faster you trade, the more liquidity you consume, which pushes the price up and generates a permanent market impact. The objective criterion to minimize depends on the control, which is the speed of trading, and has a terminal component and a running cost component. The terminal cost is broken down into three parts, which include the final wealth in cash, penalty for holding inventory, and how much the final inventory can be sold for. The running cost is a penalty for holding inventory throughout the day, and these two parameters are essential for risk management. Leal also discusses how gamma is significant for their neural network solution and is usually taken equal to two in the literature.

  • 00:15:00 Laura Leal, a speaker from Princeton University, explains the use of a neural network to learn approximation in a high-frequency finance problem where the value function has some quadratic term on the inventory. The equivalent solution when using a neural metric is different from optimizing control mu as the neural network's parameters have to be chosen. The neural network is used for all the time steps, enabling it to learn how to react based on the price, inventory, and wealth of the agent. The process uses a feed-forward, fully connected neural network structure with time and inventory inputs. However, the inputs can be generalized in many ways to include more inputs than the risk preference parameters used in the video for illustrative purposes.

  • 00:20:00 Laura Leal explains the structure of the neural network that is used for risk control in high-frequency finance. The network is not very deep, but it is recurrent, reusing the same structure at each time step to update the weights simultaneously. The input to the network is time and inventory, and the output is the control, which is the neural network itself, outputting for each time step a certain amount of stocks to trade. Transfer learning is used to simulate data using Monte Carlo instead of using expensive or sparse financial data. The data used is from the Toronto Stock Exchange for January 2008 to December 2009, and the neural network is used to address issues of heavy tails, autocorrelation, and intraday seasonality.

  • 00:25:00 In this section, Laura Leal explains the process of projecting the control attained by the neural network onto the space of linear functions of q using linear regression to find beta1 and beta2 terms to determine the r squared, showing how much of the non-linear functions of the neural network can be projected onto the space of closed-form controls. The results showed that when adding functionality to the code, such as seasonality and learning the risk aversion parameters of the agent, there was a significant impact on the model's reaction to the market, but when considering gamma equals 3 over 2, there was a non-linear solution for the neural network.

  • 00:30:00 Laura examines the performance and accuracy of the neural network control in executing trades for high-frequency finance. She compares the value function and mark to market wealth for different scenarios and gamma values. She also evaluates the relative error in the projection and notes that while the neural network has a better performance, it is executing in a non-linear way that is different from the known control. This raises questions on whether or not to trade using the neural network and how much margin to set based on its distance from the comfortable known solution.

  • 00:35:00 In this section, Laura discusses her findings on the multi-preference controller for optimal execution in high-frequency finance. Leal found that the neural network solution takes longer to execute than the PDE solution for all sets of parameters because the former is reacting to seasonality. However, with this approach, traders can input their current risk conversion parameters and start trading immediately with something that has already been trained. Leal also proposes explainability through a projection idea which uses a linear regression and a multi-preference version of the same problem to remove some of the computational burden. Additionally, Leal discusses other papers in her thesis and how this neural network approximation idea can be applied to many other financial problems, including hedging.

  • 00:40:00 Laura Leal discusses the training process for the neural network used in high-frequency finance. She explains that the network is trained offline, rather than through online reinforcement learning, in order to avoid latency issues. Once the network has been trained, it takes in time and inventory inputs, potentially with risk aversion parameters, and outputs a rate. The end user does not need to understand the inner workings of the network. Leal also explains the fine-tuning procedure used in transfer learning, which involves switching to real data increments from the Toronto Stock Exchange after the network has converged. Finally, she addresses questions about pre-processing and optimization, emphasizing the importance of using real-world data and accurate dynamics in the training process.

  • 00:45:00 In this section of the video, Laura Leal discusses the inputs and objective function used in the neural network for high-frequency finance. The neural network takes the inventory as a proportion of the average volume for that stock during a day, which is taken as a value between minus one and one. The objective function is a maximization problem with the output being a control, and the structure of the neural network is based on function approximation. Leal also explains that there are two input nodes and four hidden layers in the neural network's structure. Lastly, she addresses a question about the difference between two control solutions and clarifies that it could be interpreted as a result of the changing of the investor's utility.

  • 00:50:00 Laura discusses the differences between the gamma 2 and three halves models and their utility functions. She explains that with gamma 2, the solution is no longer a closed-form solution, and instead, an approximated solution is produced via a neural network. The reason for choosing gamma three halves was due to testing it with actual traders within a firm, and it resulted in good performance. Additionally, Leal confirms that the neural network output can be observed and analyzed, and they do know what positions it takes and how they change throughout the day.

  • 00:55:00 In this section, Laura Leal discusses the challenges of making a functional control for high-frequency finance. While an average control process can provide insight into how the execution of a trade will look, it may not be entirely accurate when looking at a single trajectory. She also addresses a question about the use of a two-block method for optimization and explains how the method would need to adapt to changing dynamics, such as with meme stocks. Overall, Leal's presentation sheds light on the intricacies of creating functional controls for high-frequency finance.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
  • 2021.11.17
  • www.youtube.com
Laura Leal (Princeton University) is our last speaker for the Fall 2021 seminar series. Her topic is called "Learning a Functional Control for High-Frequency...
 

Zihao Zhang (Oxford-Man Institute) – „Deep Learning für Market-by-Order-Daten“



Zihao Zhang (Oxford-Man Institute) – „Deep Learning für Market-by-Order-Daten“

Zihao Zhang, Postdoktorand am Oxford-Man Institute und Teil der Forschungsgruppe für maschinelles Lernen, stellt die jüngsten Arbeiten seines Teams zur Anwendung von Deep Learning auf Marktdaten nach Bestellung vor. Ihr Schwerpunkt liegt auf Marktmikrostrukturdaten, insbesondere dem Limit-Orderbuch, das wertvolle Einblicke in die allgemeine Nachfrage- und Angebotsdynamik für ein bestimmtes Finanzinstrument liefert. Durch die Kombination von Market-by-Order- und Limit-Orderbuchdaten haben Zhang und sein Team herausgefunden, dass sie die Signalvarianz reduzieren und bessere Vorhersagesignale erhalten können. Diese Anwendung ihres Modells birgt Potenzial für die Verbesserung der Handelsausführung und Market-Making-Strategien.

Zhang beginnt seinen Vortrag mit einer kurzen Einführung in Marktmikrostrukturdaten und betont dabei insbesondere die Bedeutung von Markt-nach-Order-Daten. Diese Datenquelle bietet im Vergleich zu den Limit-Orderbuchdaten, denen in der vorhandenen Literatur mehr Aufmerksamkeit geschenkt wird, hochgradig detaillierte Informationen und liefert häufige Aktualisierungen und Ereignisse. Er stellt ihr Deep-Learning-Modell vor und erläutert die Netzwerkarchitekturen, die sie für die Analyse von Markt-nach-Order-Daten entwickelt haben. Zhang betont, dass ihre Arbeit das erste Vorhersagemodell darstellt, das Markt-nach-Order-Daten zur Vorhersage hochfrequenter Bewegungen nutzt und eine alternative Informationsquelle bietet, die die Möglichkeiten für die Alpha-Entdeckung erweitert.

Als nächstes befasst sich Zhang mit dem Konzept des Limit-Order-Buchs, das als umfassende Aufzeichnung aller ausstehenden Limit-Orders für ein Finanzinstrument zu einem bestimmten Zeitpunkt dient. Er betont, dass Diagrammdaten zwar Informationen mit niedriger Frequenz liefern, der Preis einer Aktie jedoch tatsächlich durch das Limit-Orderbuch, eine multivariate Zeitreihe, dargestellt wird. Zhang erklärt, wie das Limit-Orderbuch auf der Grundlage der übermittelten Aufträge in verschiedene Preisstufen unterteilt wird, wobei jede Preisstufe aus zahlreichen kleinen Aufträgen besteht, die von verschiedenen Händlern segmentiert werden. Er erläutert auch, wie das Orderbuch aktualisiert wird, wenn neue Nachrichten eingehen, wodurch neue Positionen eingeführt, bestehende Orders storniert oder aktuelle Orders geändert werden können. Zhang weist darauf hin, dass die abgeleiteten Daten aus dem Limit-Order-Buch das Gesamtverhältnis zwischen Nachfrage und Angebot für ein bestimmtes Finanzinstrument offenbaren, und sein Ziel besteht darin, festzustellen, ob die Nutzung von Market-by-Order-Daten, die Informationen über die Auftragserteilung und -stornierung enthalten, zusätzliche Erkenntnisse liefern kann um Vorhersagen zu treffen.

Zukünftig untersucht Zhang, wie Markt-nach-Order-Daten beim Deep Learning genutzt werden können, um Marktbewegungen vorherzusagen. Obwohl die Nachrichtenzeichenfolgen in Market-Order-Daten im Vergleich zum Limit-Order-Buch geringere Ausmaße haben, bieten sie zusätzliche Informationen, die für Prognosen genutzt werden können. Zhang erklärt, wie vergangene Ereignisse in 2D-Matrizen umgewandelt werden können und so Bilder entstehen, die zur Vorhersage in ein neuronales Netzwerk eingespeist werden können. Die resultierenden Merkmale aus der Faltungsschicht können dann in die wiederkehrenden neuronalen Schichten integriert werden, um die Struktur zu lernen und zusätzliche Abhängigkeiten zu erfassen. Die letzte Ebene erstellt Vorhersagen basierend auf einem Klassifizierungsaufbau unter Verwendung von Schwellenwerten.

Zhang geht weiter auf die Netzwerkarchitektur ein, die für Vorhersagen mithilfe von Limit-Orderbuchdaten verwendet wird. In diesem Fall werden die ersten beiden Komponenten durch Nachrichten einzelner Händler ersetzt und die Faltungsschichten werden durch eine LSTM-Schicht oder Aufmerksamkeitsschicht ersetzt. Zhang erklärt kurz den Aufmerksamkeitsmechanismus, der die Einzelpunktvorhersage erleichtert und eine Encoder-Decoder-Struktur beinhaltet. Der Encoder extrahiert aus den Eingabezeiten aussagekräftige Merkmale und fasst sie in einem verborgenen Zustand zusammen, während der Decoder die Vorhersage generiert. Mithilfe der Normalisierung wird anhand des Mittelpreises ermittelt, ob es sich bei einer Order um einen Kauf oder Verkauf handelt.

Im folgenden Abschnitt stellt Zhang die Ergebnisse ihres Modells vor, das mit einer Gruppe von Assets trainiert, auf einen ähnlichen Maßstab normalisiert und mit verschiedenen Modellen wie dem einfachen linearen Modell, dem mehrschichtigen Perzeptron, dem LSTM und dem Aufmerksamkeitsmodell getestet wurde, wobei beide Grenzreihenfolgen berücksichtigt wurden Buchdaten und reine Umgebungsdaten. Die Ergebnisse deuten darauf hin, dass Vorhersagesignale aus den Umgebungsdaten eine geringere Korrelation mit den Signalen aus dem Limit-Orderbuch aufweisen, was darauf hindeutet, dass eine Kombination dieser beiden Quellen die Signalvarianz verringern, von der Diversifizierung profitieren und bessere Vorhersagesignale liefern kann. Daher weist ein Ensemblemodell, das die Vorhersagesignale beider Datentypen mittelt, die beste Leistung auf.

Zhang geht weiter auf die potenziellen Vorteile der Einbeziehung von Market-by-Order-Daten (MBO) in Vorhersagen ein und hebt die Möglichkeit hervor, mit diesen Daten Feature-Engineering durchzuführen. Er präsentiert die Ergebnisse für Vorhersagehorizonte im Bereich von zwei bis 20 Ticks im Voraus und weist auf ähnliche Verhaltensweisen hin, die für 50 und 100 Ticks im Voraus beobachtet wurden. Zhang geht auch auf Fragen aus dem Publikum ein, darunter die Möglichkeit, ein einzelnes Modell unter Verwendung aller Instrumente für eine verbesserte Generalisierung zu trainieren, und die Quelle der MBO-Daten von der London Stock Exchange. Als Antwort auf die Frage eines Zuschauers, ob man sich auf NF1 statt auf PNL konzentrieren solle, stimmt Zhang zu und erkennt an, dass PNL ein relevanterer Maßstab für den Erfolg ist.

Zhang erörtert außerdem die Verwendung von Vorhersagesignalen und verschiedene Möglichkeiten, sie zu definieren, z. B. die Verwendung eines Rohsignals oder das Festlegen eines Schwellenwerts basierend auf Softmax-Wahrscheinlichkeiten. Er fasst die wichtigsten Punkte des Papiers zusammen, in denen die Modellierung von Market-by-Order-Daten (MBO) anstelle von Limit-Orderbuchdaten und das Testen von Deep-Learning-Modellen, einschließlich des LSTM-Retentionsmechanismus, vorgeschlagen wird. Die Ergebnisse zeigen, dass eine Kombination aus MBO- und Limit-Orderbuchdaten die besten Ergebnisse liefert. Zhang geht auf Fragen des Publikums zur Autokorrelation zwischen Marktbewegungen, zum Herausfiltern von Rauschgeschäften und zur Motivation für die Verwendung von CNN-Ebenen bei der Modellierung von Limit-Order-Bildern ein.

Im folgenden Abschnitt erklärt Zhang, wie das Auftragsbuch als räumliche Struktur behandelt werden kann, die mithilfe von Convolutional Neural Networks (CNNs) effektiv erkundet werden kann. Die Verwendung eines CNN zum Extrahieren von Informationen aus jedem Preisniveau hat sich für Vorhersagen als wertvoll erwiesen. Die Schicht des langen Kurzzeitgedächtnisses (LSTM) wird den mehrschichtigen Perzeptronen vorgezogen, da sie den zeitlichen Datenfluss aufrechterhält und vergangene Ereignisse für die Erstellung von Vorhersagen zusammenfasst. Zhang weist darauf hin, dass die Vorteile der Verwendung eines Aufmerksamkeitsmechanismus aufgrund der Natur finanzieller Zeitreihen begrenzt sind. Das Papier enthält eine detaillierte Beschreibung der in ihrem Modell verwendeten Hyperparameter.

Zhang geht auf die Bedenken hinsichtlich der großen Anzahl von Parametern ein, die in neuronalen Netzwerkmethoden verwendet werden, und ihrer Wirksamkeit bei der Vorhersage des Aktienmarktes. Er räumt ein, dass die Fülle an Parametern Anlass zur Kritik geben kann, betont jedoch, dass sein Team nur wenige modellspezifische Parameter verfeinert hat. Sie haben noch nicht darüber nachgedacht, die Geld-Brief-Spanne als Erfolgskriterium zu verwenden, erkennen aber das Potenzial für weitere Untersuchungen. Zhang glaubt, dass ihr Modell einen praktischen Wert für die Handelsausführung und Market-Making-Strategien hat. Er erwähnt jedoch, dass, wenn man beabsichtigt, den Spread zu überschreiten, ein Downsampling der Daten erforderlich sein kann, da die häufigen Aktualisierungen der Orderbuchdaten die Handelsausführung erschweren können. Schließlich aggregieren sie bei der Modellierung des Elo-Limit-Orderbuchs die Gesamtgröße auf jeder Preisebene, anstatt Informationen über einzelne Ordergrößen einzubeziehen.

Im abschließenden Abschnitt erklärt Zhang die Unterschiede zwischen Markt-nach-Order- und Markt-nach-Preis-Daten. Markt-nach-Order-Daten ermöglichen die Verfolgung einzelner Aufträge, was mit Markt-nach-Preis-Daten nicht möglich ist. Mit der richtigen Feature-Entwicklung können Market-by-Order-Daten zusätzliche Informationen liefern und Alpha generieren. Zhang erläutert auch, wie sein Modell mit Preisänderungen einer bestimmten Limit-Order umgeht, während die Größe unverändert bleibt. Jede neue Nachricht mit aktualisierten Preisen wird als neues Update behandelt und bereichert den Datensatz.

Insgesamt zeigt die Präsentation von Zihao Zhang die Anwendung von Deep Learning auf Market-by-Order-Daten und unterstreicht deren Potenzial, wertvolle Erkenntnisse aus Marktmikrostrukturdaten zu gewinnen. Durch die Kombination von Market-by-Order- und Limit-Orderbuchdaten konnte Zhangs Team die Reduzierung der Signalvarianz und die Generierung verbesserter Vorhersagesignale nachweisen. Ihre Arbeit verspricht eine Verbesserung der Handelsabwicklung und Market-Making-Strategien und leistet einen wertvollen Beitrag auf dem Gebiet der Finanzmarktanalyse.

  • 00:00:00 Zihao Zhang, Postdoktorand am Oxford Man Institute und Teil der Forschungsgruppe für maschinelles Lernen, präsentiert seine aktuelle Arbeit mit Brian Ling und Stefan Loren über die Anwendung eines Deep-Learning-Modells auf Market-by-Order-Daten. Zhang beginnt mit einer kurzen Einführung in die Marktmikrostrukturdaten, einschließlich des Limit-Orderbuchs und der Market-by-Order-Daten. Er betont, dass letztere wohl die detaillierteste Informationsquelle ist, die im Vergleich zu den Limit-Orderbuchdaten mehr Aktualisierungen und Ereignisse liefert, in der aktuellen Literatur jedoch weitgehend vernachlässigt wird. Zhang stellt ihr Deep-Learning-Modell vor und bespricht die Netzwerkarchitekturen, die sie für diese Art von Daten entwickelt haben. Er betont außerdem, dass es sich bei ihrer Arbeit um das erste Vorhersagemodell handelt, das marktbasierte Auftragsdaten zur Vorhersage hochfrequenter Bewegungen verwendet, und dass es eine orthogonale Informationsquelle darstellt, die das Universum der Alpha-Entdeckung erweitert.

  • 00:05:00 Zihao erklärt das Konzept eines Limit-Orderbuchs, das eine Aufzeichnung aller ausstehenden Limit-Orders für ein Finanzinstrument zu einem bestimmten Zeitpunkt ist. Er betont, dass Diagrammdaten zwar Informationen mit niedriger Häufigkeit liefern, der Preis einer Aktie jedoch tatsächlich eine multivariate Zeitreihe ist, die durch das Limit-Orderbuch dargestellt wird. Zhang erklärt, wie das Limit-Orderbuch auf der Grundlage der übermittelten Aufträge in verschiedene Preisstufen sortiert wird und jede Preisstufe aus vielen kleinen Aufträgen besteht, die von verschiedenen Händlern segmentiert werden. Er erläutert auch, wie das Orderbuch aktualisiert wird, wenn eine neue Nachricht eingeht, mit der eine neue Position hinzugefügt, eine bestehende Order storniert oder bestehende Orders aktualisiert werden können. Zhang weist darauf hin, dass die abgeleiteten Daten aus dem Limit-Order-Buch die Gesamtnachfrage- und Angebotsbeziehung für ein bestimmtes Finanzinstrument zeigen, und sein Fokus liegt darauf, herauszufinden, ob dies mithilfe der Market-by-Order-Daten, die Informationen über die Platzierung und Stornierung von Aufträgen enthalten, möglich ist Bereitstellung zusätzlicher Informationen für Vorhersagen.

  • 00:10:00 Zihao Zhang erläutert, wie Marktauftragsdaten für Deep Learning genutzt werden können, um Vorhersagen über Marktbewegungen zu treffen. Während die Nachrichtenzeichenfolgen in Marktauftragsdaten eine geringere Dimension haben als das Limit-Auftragsbuch, liefern sie zusätzliche Informationen, die für Prognosen verwendet werden können. Zhang erklärt, dass Bilder vergangener Ereignisse als 2D-Matrix geformt und zur Vorhersage in ein neuronales Netzwerk eingegeben werden können. Die resultierenden Merkmale aus der Faltungsschicht können dann in die wiederkehrenden neuronalen Schichten eingefügt werden, um die Struktur und zusätzliche Abhängigkeiten zu lernen. Die letzte Ebene gibt Vorhersagen basierend auf einem Klassifizierungsaufbau unter Verwendung von Schwellenwerten aus.

  • 00:15:00 Zihao Zhang vom Oxford-Man Institute erklärt die Netzwerkarchitektur, die für Vorhersagen aus Limit-Orderbuchdaten verwendet wird, wobei die ersten beiden Komponenten durch Nachrichten von einzelnen Händlern ersetzt werden und die Faltungsschichten durch eine LSTM-Schicht oder Aufmerksamkeit ersetzt werden Schicht. Zhang erklärt auch kurz den Aufmerksamkeitsmechanismus, der in diesem Fall für die Einzelpunktvorhersage verwendet wird und eine Encoder- und Decoderstruktur umfasst, wobei der Encoder aus den Eingabezeiten sinnvolle Merkmale extrahiert und sie in einem verborgenen Zustand zusammenfasst, während der Decoder die Vorhersage generiert . Die Normalisierung wird verwendet, um anhand des Mittelpreises zu bestimmen, ob es sich bei einer Order um einen Kauf oder Verkauf handelt.

  • 00:20:00 In diesem Abschnitt des Videos präsentiert Zihao Zhang die Ergebnisse des Modells, das mit einer Gruppe von Assets trainiert, auf einen ähnlichen Maßstab normalisiert und an verschiedenen Modellen wie dem einfachen linearen Modell, mehrschichtigen Wahrnehmungen, LSTM usw. getestet wurde Aufmerksamkeitsmodell, das sowohl Limit-Order-Gruppendaten als auch reine Umgebungsdaten verwendet. Die Ergebnisse zeigen, dass die Vorhersagesignale aus den Umgebungsdaten weniger mit den Signalen aus dem Limit-Orderbuch korrelieren, was darauf hindeutet, dass eine Kombination dieser beiden Signale die Signalvarianz verringern, von der Diversifizierung profitieren und bessere Vorhersagesignale liefern kann. Somit liefert das Ensemble-Modell, das die Vorhersagesignale aus beiden Datentypen mittelt, die beste Leistung.

  • 00:25:00 Zihao Zhang erörtert die potenziellen Vorteile der Einbeziehung von Market-by-Order-Daten (MBO) in Vorhersagen und erwähnt die Möglichkeit, mit den Daten Feature-Engineering durchzuführen. Es wurden die Ergebnisse für den Vorhersagehorizont von zwei bis 20 Ticks im Voraus angezeigt, wobei ähnliche Verhaltensweisen für 50 und 100 Ticks im Voraus beobachtet wurden. Zhang beantwortet auch Fragen zur Zielgruppenimplementierung, einschließlich der Möglichkeit, ein einzelnes Modell unter Verwendung aller Instrumente für eine verbesserte Generalisierung zu trainieren, und der Herkunft der MBO-Daten von der London Stock Exchange. Ein Zuschauer stellt Fragen, die sich auf NF1 statt auf PNL konzentrieren. Zhang stimmt dem zu und erkennt an, dass PNL ein relevanterer Maßstab für den Erfolg ist.

  • 00:30:00 Zihao Zhang diskutiert die Verwendung von Vorhersagesignalen und die verschiedenen Arten, wie sie definiert werden können, z. B. die Verwendung eines Rohsignals oder das Festlegen eines Schwellenwerts für die Wahrscheinlichkeit aus dem Softmax. Er fasst das Papier zusammen, in dem vorgeschlagen wird, Market-by-Order-Daten (MBO) anstelle von Limit-Orderbuchdaten zu modellieren und Deep-Learning-Modelle einschließlich des LSTM-Retentionsmechanismus zu testen. Die Ergebnisse zeigen, dass eine Kombination aus MBO- und Limit-Orderbuchdaten die besten Ergebnisse liefert. Zhang geht auch auf Fragen des Publikums zur automatischen Korrelation zwischen Marktbewegungen, zum Herausfiltern von Rauschgeschäften und zur Motivation für die Verwendung von CNN-Ebenen bei der Modellierung von Limit-Order-Bildern ein.

  • 00:35:00 In diesem Abschnitt des Videos erklärt Zihao Zhang vom Oxford-Man Institute, wie das Auftragsbuch als räumliche Struktur behandelt werden kann, die mit denselben Ebenen erkundet werden kann. Der Einsatz eines Convolutional Neural Network (CNN) zum Extrahieren von Informationen aus jedem Preisniveau erwies sich als hilfreich für Vorhersagen. Die Schicht des langen Kurzzeitgedächtnisses (LSTM) wurde gegenüber mehrschichtigen Wahrnehmungen gewählt, da sie den Zeitfluss nicht verzerrt und vergangene Ereignisse zusammenfasst, um Vorhersagen zu treffen. Es wurde festgestellt, dass die Vorteile der Verwendung eines Aufmerksamkeitsmechanismus aufgrund der Eigenschaft finanzieller Zeitreihen begrenzt sind. Das Papier enthält eine detaillierte Beschreibung der verwendeten Hyperparameter.

  • 00:40:00 Zihao Zhang diskutiert die Anzahl der in neuronalen Netzwerkmethoden verwendeten Parameter und ihre Wirksamkeit bei der Vorhersage des Aktienmarktes. Er weist darauf hin, dass die große Anzahl an Parametern zwar ein Kritikpunkt an neuronalen Netzwerkmethoden sein kann, er und sein Team jedoch nur wenige Parameter für ihr spezifisches Modell optimiert haben. Sie haben nicht in Betracht gezogen, die Geld-Brief-Spanne als Erfolgskriterium zu verwenden, räumen jedoch ein, dass dies weiter untersucht werden könnte. Zhang glaubt, dass die Anwendung ihres Modells für Handelsausführungs- und Market-Making-Strategien nützlich ist, aber wenn man den Spread überschreiten möchte, muss man möglicherweise die Daten heruntersampeln, um einen Handel durchzuführen, da die Buchdaten oft zu oft aktualisiert werden können Mache einen Handel. Schließlich aggregieren sie bei der Modellierung des Elo-Limit-Orderbuchs die Gesamtgröße auf jeder Preisebene, anstatt Informationen über einzelne Ordergrößen einzubeziehen.

  • 00:45:00 In diesem Abschnitt erklärt Zihao Zhang vom Oxford-Man Institute die Unterschiede zwischen den Daten „Markt nach Bestellung“ und „Markt nach Preis“. Die Markt-nach-Order-Daten ermöglichen die Verfolgung einzelner Aufträge, was mit den Markt-nach-Preis-Daten nicht möglich ist. Mit dem richtigen Feature-Engineering können auftragsbezogene Marktdaten zusätzliche Informationen liefern und Alpha generieren. Darüber hinaus erläutert Zhang, wie sein Modell mit Preisänderungen einer bestimmten Limit-Order umgeht, während die Größe unverändert bleibt. Er erklärt, dass jede neue Nachricht mit aktualisierten Preisen als neues Update behandelt wird.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
  • 2021.10.27
  • www.youtube.com
Next up in the Cornell-Citi webinar series is Dr. Zihao Zhang, who spoke on Tuesday, Oct. 26.Abstract: Market by order (MBO) data - a detailed feed of indiv...
 

Vineel Yellapantula (Cornell MFE '20): „Quantifizierung von Text in SEC-Einreichungen“


Vineel Yellapantula (Cornell MFE '20): „Quantifizierung von Text in SEC-Einreichungen“

Vineel Yellapantula stellt sein Sommerprojekt vor, das die Anwendung von Techniken der Verarbeitung natürlicher Sprache (NLP) zum Handel mit Aktien auf der Grundlage von Textinformationen aus SEC-Einreichungen beinhaltet, wobei der Schwerpunkt insbesondere auf dem MD&A-Abschnitt liegt. Ziel des Projekts ist es, jedem Bericht der 430 auf dem US-Markt vertretenen Aktien eine Bewertung zuzuweisen und ihre Leistung zu analysieren, indem sie basierend auf der Bewertung in fünf Quantile gruppiert werden. Yellapantula verwendet traditionelle Methoden wie Kosinus und Jaccard-Ähnlichkeit, um den Ähnlichkeitswert zwischen Texten zu bestimmen, wobei sich die Jaccard-Ähnlichkeit im Laufe der Zeit als konsistenter erweist. Er untersucht auch die Erstellung eines Sentiment-Analysemodells unter Verwendung wiederkehrender neuronaler Netze (RNNs) mit Keras für einen Textdatensatz und erreicht mit seinem Modell eine beeindruckende Genauigkeit von 87,5 %.

Während der Präsentation betont Yellapantula, wie wichtig es ist, für jedes spezifische Problem die geeignete Methode auszuwählen und zusätzliche Daten einzubeziehen, um die Ergebnisse zu verbessern. Er hebt die Fülle an Informationen hervor, die durch Textdaten verfügbar sind, insbesondere in 10-K-Anmeldungen, und erwähnt, dass Faktoren, die anhand früherer Dokumente entwickelt wurden, effektiver sein können als solche, die sich ausschließlich auf das vorliegende Dokument stützen. Yellapantula zeigt verschiedene Alternativen für den Einsatz von Deep-Learning-Techniken mit Textdaten auf, darunter Glove, Word2vec, BERT und RNNs. Er schlägt außerdem vor, mehr Datenquellen wie 8-K-Einreichungen und Nachrichtenzyklen einzubeziehen, um die Vorhersagekraft der Modelle zu verbessern. Er räumt jedoch ein, dass in seiner Studie ein Auswahlfehler vorliegt, da sie sich auf Aktien mit guter Performance konzentriert, die von 2007 bis 2020 im Index vertreten waren.

Im Abschnitt zur Stimmungsanalyse erklärt Yellapantula den Prozess der Erstellung eines Modells mithilfe von RNNs mit Keras. Die Schritte umfassen die Tokenisierung des Textes, um seine Bedeutung zu verstehen, die Reduzierung der Dimensionalität durch Einbettungen und die Verwendung einer LSTM-Schicht und einer dichten Schicht mit einer Sigmoidfunktion zur Stimmungsklassifizierung. Er demonstriert die Anwendung dieses Ansatzes anhand von IMDB-Rezensionen, wobei er die Rezensionslänge auf 500 Wörter beschränkt und kürzere Rezensionen mit Nullen auffüllt, um die Konsistenz zu gewährleisten. Durch strenge Auswertungen erreicht Yellapantula mit seinem Sentiment-Analysemodell eine Genauigkeit von 87,5 %.

Darüber hinaus betont Yellapantula die Bedeutung der Informationskorrelation bei der Bestimmung der Wirksamkeit von Faktoren und ihrer Konsistenz im Zeitverlauf. Er verweist auf eine Studie, die darauf hindeutet, dass Unternehmen mit stabiler Berichterstattung tendenziell eine gute Leistung erbringen, was darauf hinweist, dass dies ein vielversprechender Faktor ist, den es zu untersuchen gilt. Abschließend dankt Yellapantula dem Publikum für sein Interesse und freut sich auf weiteres Engagement in der Zukunft.

Das Projekt von Vineel Yellapantula demonstriert die Anwendung von NLP-Techniken, um wertvolle Erkenntnisse aus Textinformationen in SEC-Einreichungen zu gewinnen. Durch die Zuordnung von Bewertungen zu Berichten und die Analyse ihrer Leistung trägt seine Arbeit zum Verständnis darüber bei, wie Sprache den Aktienhandel beeinflussen kann. Darüber hinaus zeigt seine Untersuchung der Stimmungsanalyse mithilfe von RNNs das Potenzial von Deep Learning bei der Erfassung von Stimmungen aus Textdaten. Durch eine sorgfältige Auswahl der Methodik und die Einbindung zusätzlicher Datenquellen betont Yellapantula die Möglichkeit, die Genauigkeit und Wirksamkeit solcher Modelle zu verbessern.

  • 00:00:00 In diesem Abschnitt beschreibt Vineel Yellapantula sein Sommerprojekt, bei dem es um den Einsatz von Techniken der Verarbeitung natürlicher Sprache (NLP) für den Aktienhandel ging, basierend auf Textinformationen in den SEC-Unterlagen, insbesondere im MD&A-Abschnitt. Das Projekt konzentrierte sich darauf, für jeden Bericht der 430 auf dem US-Markt vertretenen Aktien einen Score zu ermitteln und ihre Performance zu analysieren, nachdem sie basierend auf dem Score in fünf Quantile gruppiert wurden. Vineel verwendete traditionelle Methoden wie Kosinus und Jaccard-Ähnlichkeit, um einen Wert für die Ähnlichkeit zwischen Texten zu ermitteln, wobei sich die Jaccard-Ähnlichkeit im Laufe der Zeit als konsistenter erwies. Vineel erwähnt auch, dass zu diesem Zweck Deep-Learning-Techniken wie RNNs eingesetzt werden können.

  • 00:05:00 In diesem Abschnitt erklärt Vineel Yellapantula, wie man ein Stimmungsanalysemodell unter Verwendung wiederkehrender neuronaler Netze (RNNs) mit Keras für einen Textdatensatz erstellt. Der Prozess umfasst die Tokenisierung des Textes, um seine Bedeutung zu verstehen, die Reduzierung der Dimensionalität mithilfe von Einbettungen und die anschließende Verwendung einer LSTM-Ebene und einer dichten Ebene mit einer Sigmoidfunktion, um die Stimmung des Textes zu klassifizieren. Vineel zeigt, wie er die Daten mithilfe von IMDB-Rezensionen verarbeitete, indem er die Länge der Rezensionen auf 500 Wörter begrenzte und die kürzeren mit Nullen auffüllte, um eine einheitliche Länge zu gewährleisten. Er konnte mit seinem Modell eine Genauigkeit von 87,5 % erreichen.

  • 00:10:00 In diesem Abschnitt des Videos erörtert Vineel Yellapantula die Fülle an Informationen, die durch Textdaten verfügbar sind, insbesondere in 10-K-Einreichungen. Er weist darauf hin, dass durch diese Einreichungen viele Faktoren entwickelt werden können und dass Faktoren, die frühere Dokumente nutzen, effektiver sein können als solche, die sich ausschließlich auf das vorliegende Dokument konzentrieren. Darüber hinaus weist Yellapantula darauf hin, dass es verschiedene Alternativen für den Einsatz von Deep Learning mit Textdaten gibt, wie etwa Glove, Word2vec, BERT und RNNs. Er betont, dass die Auswahl der richtigen Methode für das spezifische Problem von entscheidender Bedeutung ist und die Einbeziehung von mehr Daten, wie etwa 8-K-Einreichungen und Nachrichtenzyklen, zu besseren Ergebnissen führen kann. Schließlich räumt Yellapantula ein, dass es in seiner Studie eine gewisse Auswahlverzerrung gibt, da er sich auf Aktien mit guter Performance konzentrierte, die von 2007 bis 2020 im Index vertreten waren.

  • 00:15:00 In diesem Abschnitt erörtert Vineel Yellapantula die Bedeutung der Informationskorrelation bei der Bestimmung, ob ein Faktor funktioniert oder nicht, sowie die Konsistenz von Faktoren im Zeitverlauf. Er erwähnt auch eine Studie, die ergab, dass Unternehmen mit stabiler Berichterstattung eine gute Leistung erbringen, was darauf hinweist, dass dies ein guter Faktor ist, den es zu untersuchen gilt. Abschließend dankt er dem Publikum für sein Interesse und freut sich auf ein Wiedersehen im Herbst.
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
  • 2021.05.12
  • www.youtube.com
CFEM alumnus Vineel Yellapantula discusses his summer project at AbleMarkets under Prof. Irene Aldridge, “Quantifying Sentiment in SEC Filings.” By utilizing...
 

Peter Carr (NYU) „Stoptions“ feat. Lorenzo Torricelli (Universität Parma)



Peter Carr (NYU) „Stoptions“ feat. Lorenzo Torricelli (Universität Parma)

Peter Carr stellt ein Finanzprodukt namens „Stopptions“ vor, das Funktionen von Terminkontrakten und Put-Optionen kombiniert. Mit Stoppoptionen kann der Eigentümer ungünstige Preisänderungen vermeiden, indem er ein bermudanisches Put-Optionselement einbaut. Carr erklärt das Konzept der Optionen und liefert ein Beispiel für eine dreitägige Option mit verschiedenen damit verbundenen Etagen. Anschließend geht er auf die Bewertung von eintägigen und zweitägigen Stopps ein, wobei letztere über zwei Etagen verfügen und die Flexibilität haben, entweder am ersten oder am zweiten Tag auszuüben.

Carr untersucht darüber hinaus die Stopptionsbewertung für längere Zeiträume, indem er sich mit der Rückwärtsrekursion, der Bewertung eines verheirateten Puts und der Verwendung von Pseudosummen befasst. Er schlägt vor, die logistische Verteilung zu nutzen, um Preisänderungen bei verheirateten Put-Optionen darzustellen. Der Wert von Stoptions kann mithilfe einfacher Formeln für „At-the-Money“-Optionen ermittelt werden, und Bewertung und Absicherung können analytisch erfolgen.

Carr schließt den Artikel mit einer Diskussion der Herausforderungen ab, die mit der Einführung solcher Optionen durch den Markt verbunden sind. Er betont, wie wichtig es ist, einen Käufer und einen Verkäufer für diese Produkte zu finden, und teilt seine Gespräche mit potenziellen Käufern und Verkäufern. Darüber hinaus räumt Carr ein, dass das Stoptions-Modell eine Alternative zu bestehenden Modellen wie Black-Scholes und Bachelier darstellt, aber möglicherweise nicht für jede Situation optimal geeignet ist. Dennoch betont er, dass ihr Modell darauf abzielt, die Vielzahl binärer Operationen mit besonderer Bedeutung im Finanzwesen zu erfassen.

In einem späteren Abschnitt schlagen Carr und Lorenzo Torricelli ein „Stopptions“-Modell vor, das ein konjugiertes Paradigma und eine logistische Verteilung verwendet. Dieses Modell bietet Flexibilität in der Laufzeitstruktur mit einem einzigen Parameter und ermöglicht die Anpassung verschiedener Laufzeitstrukturen auf einmal. Allerdings passt es möglicherweise nicht perfekt zum Markt, da die implizite Volatilität nach unten zeigt. Die Autoren erkennen die Grenzen ihres Modells an und erkennen die unzähligen binären Operationen im Finanzwesen an, die ihr Modell erfassen soll. Sie diskutieren die Optionalität zwischen einem Streik und einer einzelnen Option sowie die wiederholte Optionalität durch Pseudosummierung. Der Abschnitt endet mit gegenseitiger Wertschätzung und Vorfreude auf den Besuch der Seminare des jeweils anderen.

  • 00:00:00 Peter Carr stellt „Stopptions“ vor, ein neues Finanzprodukt, das eine Mischung aus einem Terminkontrakt und einer Put-Option ist. Die Stoption hat einen Basiswert und eine feste Laufzeit sowie eine tägliche Überwachung, wobei der Eigentümer jede Preisänderung des Basiswerts erfasst. Die Stoption unterscheidet sich von einem Futures-Kontrakt dadurch, dass der Eigentümer dank des Put-Optionselements eine ungünstige Preisänderung vermeiden kann. Der Put ist bermudisch, was bedeutet, dass der Eigentümer ihn am Ende eines beliebigen Tages ausüben kann und die Preisänderung dieses Tages durch eine Untergrenze ersetzt, eine vertraglich festgelegte Konstante, die eine beliebige Funktion der Zeit sein kann.

  • 00:05:00 Peter Carr erklärt das Konzept von Optionen und wie sie in Finanzvereinbarungen funktionieren. Eine Option ist ein Finanzprodukt, das die Wahl ermöglicht, wann das Risiko von Preisänderungen eingestellt werden soll, solange der Stop-Shooting-Kontrakt länger als einen Tag dauert, was für Flexibilität sorgt. Man kann eine Option nur einmal ausüben, und dann muss man sie ausüben. Der Begriff Option bezieht sich auf den Zeitpunkt, an dem das Engagement in dem Basiswert durch Ausübung beendet werden soll. Carr veranschaulicht dieses Konzept am Beispiel einer Drei-Tage-Option und skizziert die drei verschiedenen Etagen, die mit dieser Option verbunden sind. Der Vertrag erlischt dann, wenn man die Option ausübt, was nur einmal geschehen darf. Obwohl solche Verträge derzeit nicht gehandelt werden, sind sie in viele Finanzvereinbarungen eingebettet.

  • 00:10:00 Peter Carr bespricht ein Beispiel für einen Vertrag mit Bermuda-Übungsstil namens „Stopptions“. Obwohl es sich nicht um einen direkten Handel handelt, können Stoptions helfen, Bermuda-Swaptions und ihre Unterschiede zu auf Preisniveau geschriebenen Optionen zu verstehen. Durch die Annahme iid-Preisänderungen wird die Stoptionsbewertung auf Funktionsiteration reduziert, und indem den Preisänderungen eine bestimmte Verteilungsannahme auferlegt wird, wird die Bewertung auf Pseudoaddition reduziert. Die aus Stopptions gewonnenen Erkenntnisse können für liquid gehandelte Bermuda-Optionen genutzt werden, und Carr erläutert weiter die Bewertung von ein- und zweitägigen Stopptionen. Eintägige Stopps zahlen einen festen Mindestbetrag, während zweitägige Stopps zwei Zinssätze haben und entweder am ersten oder zweiten Tag ausgeübt werden können.

  • 00:15:00 In diesem Abschnitt bespricht Peter Carr die Auszahlung am Ende des zweiten Tages, wenn die Übung dann und dort erledigt wird. Er wird als u1 bezeichnet und am Ende des ersten Tages berechnet. Carr weist darauf hin, dass u1, da es sich am Ende des ersten Tages um eine bekannte Konstante handelt, genauso gut am Ende des ersten Tages angenommen werden könnte. Darüber hinaus schlägt Carr vor, u1 zum Zeitpunkt Null herauszurechnen und die a1-Auszahlung auf a1 - u1 zu ändern. Dadurch ähnelt die Auszahlung einem verheirateten Put oder einem auf u1 geschriebenen Put, wobei u1 zur Put-Auszahlung addiert wird. Carr erklärt, dass, sobald ein Modell zur Bewertung einer Vanilla-Option existiert, eine mehrtägige Option, einschließlich einer zweitägigen Option, durch Berechnung des eingebetteten Puts bewertet werden kann.

  • 00:20:00 In diesem Abschnitt diskutieren Peter Carr von der NYU und Lorenzo Torricelli von der Universität Parma, wie man zweitägige und dreitägige Optionen bewertet, indem man davon ausgeht, dass Preiserhöhungen statistisch unabhängig voneinander sind und die gleiche Verteilung aufweisen. Sie verwenden eine in der Statistik übliche Annahme, die als iid (unabhängig und identisch verteilt) bekannt ist, für eine Folge von Zufallsvariablen. Um einen verheirateten Put für eine zweitägige Option zu bewerten, verwenden sie eine Notation, die einen bekannten Teil der Auszahlung, genannt a1, und den heutigen Preis des Basiswerts, genannt a2, umfasst. Für eine dreitägige Option führen sie einen Fortsetzungswert ein, den sie mit cv bezeichnen, und verwenden dynamische Programmierung, um seinen Wert zu berechnen.

  • 00:25:00 Peter Carr erklärt den Prozess der Rückwärtsrekursion und die Bewertung eines verheirateten Puts. Er beginnt am zweiten Tag, weil alle Unsicherheiten, die das Problem mit sich bringt, am Ende des zweiten Tages gelöst sind. Er legt den Fortsetzungswert am zweiten Tag fest, wenn noch eine Ausübungsmöglichkeit übrig ist, also am dritten Tag, und geht dann zurück zum ersten Tag, um den Wert der Auszahlung und den Fortsetzungswert zu berechnen. Anschließend geht er zurück zum Zeitpunkt Null am Bewertungstag und berechnet den Fortführungswert und den Payoff, also den Wert eines Married Puts. Der Mittelwert der zufälligen Auszahlung ist der zuvor berechnete Married-Put-Wert, und die Parameter, die zur Verteilung der Preisänderungen beitragen, sind zum Zeitpunkt Null bekannt.

  • 00:30:00 In diesem Abschnitt diskutiert Peter Carr die Bewertung eines Married Puts mit einem Strike A1, dessen Basiswert ein anderer Married Put mit einem Strike A2 ist. Er erklärt, dass diese Bewertung darin besteht, eine Funktion mit einem Parameter zu iterieren, der sich zu verschiedenen Zeiten unterscheiden kann, und der Funktion zu erlauben, sich selbst zusammenzusetzen. Bei der iterierten Funktion handelt es sich um eine eintägige Vanilla-Married-Put-Wertfunktion im europäischen Stil, und Carr weist darauf hin, dass eine Funktion, die diesen Wert beschreibt und in geschlossener Form iteriert, mithilfe der sogenannten assoziativen Funktionsgleichung gefunden werden kann. Indem die verheiratete Put-Wert-Funktion direkt bewertet wird und gefordert wird, dass sie die Assoziativitätsfunktionsgleichung löst, kann die risikoneutrale Verteilung mithilfe der Breeden-Litzenberger-Ergebnisse bestimmt werden. Der Abschnitt endet mit einer Erläuterung, dass mit einer Funktion aus einem Argument und einem invertierbaren g der verheiratete Put-Wert bestimmt werden kann.

  • 00:35:00 Peter Carr erklärt das Konzept einer Pseudosumme, die eine Kombination aus zwei Argumenten in einer Funktion ist. Durch die Verwendung einer Umkehrfunktion kann diese Größe verwendet werden, um den Wert einer n-basierten Option durch wiederholte Pseudosummen der Etagen zu ermitteln. Um diese Methode Arbitrage-frei zu machen, muss die Funktion sorgfältig ausgewählt und als risikoneutrale Erwartung ihrer Auszahlung dargestellt werden. Carr verrät, dass der Generator dieser Methode ein Logarithmus einer beliebigen Basis sein muss und der Skalar b positiv sein muss. Der verheiratete Put muss auch angemessen ausgewertet werden, indem natürliche Logarithmus-Kehrwerte verwendet werden, was eine zweifache Differenzierung in Bezug auf den Strike erfordert, um die Verteilungsfunktion zu erhalten. Letztendlich geht es bei dieser Methode darum, auf einen Proportionalfaktor von b zurückzugreifen, der nicht die Standardabweichung, sondern proportional zu dieser ist.

  • 00:40:00 Peter Carr diskutiert die Verwendung der logistischen Verteilung zur Darstellung von Preisänderungen bei der Married-Put-Option. Er leitet eine Formel für den verheirateten Put mit einem Strike a1 und einem zugrunde liegenden Mittelwert a2 ab, indem er die Exponentialfunktion eines Finanzprodukts mit zwei zugrunde liegenden Komponenten verwendet. Er bezeichnet dies als Pseudosumme und erweitert die Menge der reellen Zahlen um minus Unendlich als neutrales Element. Er erklärt, dass dadurch eine kommutative Monoidstruktur entsteht, die nur mit einer Arbitrage-freien Optionsbewertung und einer symmetrischen logistischen Verteilung mit exponentiellen Enden möglich ist. Die logistische Verteilung ermöglicht eine explizite kumulative Verteilungsfunktion und gilt als freundlicher als die Normalverteilung. Carr geht davon aus, dass der Umfang der logistischen Verteilung eine zunehmende Funktion der Zeit bis zur Fälligkeit der Option ist.

  • 00:45:00 Peter spricht über „Stopptions“, einen Vertrag, der die Merkmale von Optionen und Swaps kombiniert. Stoppoptionen beinhalten den Austausch einer logistischen Zufallsvariablen gegen eine andere, wobei die Variablen unabhängig und identisch verteilt sind. Um einen Stopp mit n Tagen zu bewerten, muss man eine Funktion b von t angeben, die die Breite der logistischen Verteilung mit der Länge des Zeithorizonts verbindet. Der Wert einer bermudanischen Anlage mit Boden wird durch einfache Formeln ermittelt, und die Bewertung und Absicherung kann analytisch erfolgen. Bei einer „At-the-Money“-Stoption wächst der Wert auf einfache Weise, nämlich im Logarithmus der Zeit.

  • 00:50:00 Peter Carr diskutiert das Preismodell „stopoptions“, das iid-Inkremente annimmt und die Bewertung auf eine iterierte Funktionsbewertung reduziert. Durch die Annahme einer logistischen Verteilung für die gemeinsamen Inkremente vereinfacht sich das Modell weiter zu einer Pseudosumme einer bestimmten Art, die als Logsummen-Exponentialfunktion bezeichnet wird. Aufgrund der Haftungsbeschränkung müssen die zugrunde liegenden Wertpapierpreise real und nicht negativ sein. Das Modell kann auf Aktien ausgeweitet werden, indem der Optionsvertrag neu definiert wird, um Preisrelative zu multiplizieren, anstatt Preiserhöhungen hinzuzufügen. Die resultierende Verteilung zur Unterstützung einer positiven Zufallsvariablen wird als Conjugate Power Digum bezeichnet. Dabei handelt es sich um eine Heavy-Tail-Verteilung mit negativer Schiefe, was sie zu einer guten Wahl macht. Für dieses Modell gibt es zukünftige Forschungsmöglichkeiten und es kann auf praktische Anwendungen angewendet werden, beispielsweise auf synchronisierte Verträge mit Sitzungen der Federal Reserve.

  • 00:55:00 Peter Carr, Professor an der NYU, diskutiert die Akzeptanz einer Art Option durch den Markt und den Prozess der Suche nach einem Käufer und einem Verkäufer. Er spricht über sein Gespräch mit dem Chef-Exotenhändler der Bank of America, der Interesse am Kauf der Option gezeigt hatte, und den möglichen Verkäufern, etwa einer Versicherungsgesellschaft oder einem Pensionsplan. Der Adoptionsprozess beinhaltet die Suche nach einem Käufer, und Peter teilt mit, dass er diesbezüglich einen Zoom-Anruf mit einem Freund geplant hat, der für eine Versicherungsgesellschaft arbeitet. Das Gespräch endet mit Lorenzo Torricellis Diskussion über Finanzmodelle, die auf der Logistikverteilung und den damit verbundenen Prozessen basieren.

  • 01:00:00 In diesem Abschnitt erörtert Peter Carr die technischen Details der Abgabenstruktur der Log-Retouren des Positivmodells und der Renditen in den Modellen, zu denen die Log-Logistic-, Skew-Logistic- und Logistic-Return-Prozesse gehören. Er erklärt, dass diese Prozesse reine Sprungprozesse sind und als eine unendlich teilbare Zeitfamilie betrachtet werden können, für die ein Theorem die Existenz eines additiven Prozesses garantiert, der stochastisch stetig mit unabhängigen Inkrementen ist. Darüber hinaus unterstützt dieser additive Prozess die implizite Preisverteilung, die der Wertpapierverteilungsformel zugrunde liegt. Carr erklärt dann, dass dieser Prozess von Natur aus ein Markt ist und dass er über gute wünschenswerte Eigenschaften verfügt, die einfache Preisformeln unterstützen. Abschließend stellt er die Ergebnisse numerischer Tests und einen Dichtevergleich der logistischen Preismodelle mit Standardnormalmodellen vor.

  • 01:05:00 Peter Carr diskutiert die Unterschiede zwischen der Form der Normal- und Logistikverteilung im CPDA-Modell. Er stellt fest, dass sich im CPDA-Modell die Schiefe und Form der Verteilung mit der Zeit ändern, während dies in der normalen Welt nicht der Fall ist. Beim Vergleich zwischen der Normalverteilung und der Logistikverteilung stellt er fest, dass die Verteilungen recht ähnlich sind, die Kurtosis jedoch deutlich zu erkennen ist. Er zeigt auch die Ergebnisse seines kumulativen Systemaufbaus, wobei er beobachtet, dass er deutlich flexiblere Formen erzeugen kann, etwa eine explodierende Variante und einen kurzfristigen, sehr steilen Anstieg der Schiefe. Abschließend diskutiert er die impliziten Volatilitätsflächen für die cpda-Modelle und stellt fest, dass die Volatilitätsfläche mit nur wenigen Parametern flexibel sein kann.

  • 01:10:00 Peter Carr von der NYU und Lorenzo Torricelli von der Universität Parma diskutieren ihr vorgeschlagenes „Stopptions“-Modell, das ein konjugiertes Paradigma und eine logistische Verteilung verwendet, um eine völlig flexible Termstruktur mit nur einem Parameter zu erstellen. Der eine Parameter erzeugt gleichzeitig mehr Breite und mehr negative Schiefe, muss aber zwischen Null und Eins liegen, um zu verhindern, dass der Momentenmittelwert nicht existiert. Das Modell kann jede Laufzeitstruktur bei einem Strike berücksichtigen, passt aber möglicherweise nicht immer optimal zum Markt, da es ein absteigendes Diagramm erzeugt, im Gegensatz zu aufsteigenden Diagrammen der impliziten Volatilität gegenüber dem Strike. Carr und Torricelli erkennen an, dass ihr Modell eine Alternative zu den Black-Scholes- und Bachelier-Modellen darstellt, gehen jedoch davon aus, dass ihr Modell nicht für jede Situation gut genug sein wird. Sie argumentieren, dass es unzählige binäre Operationen mit ähnlichen Eigenschaften wie Addition und Multiplikation gibt, die für das Finanzwesen von besonderer Bedeutung sind und die ihr Modell erfassen soll.

  • 01:15:00 In diesem Abschnitt diskutieren Peter Carr und Lorenzo Torricelli die Idee der Optionalität zwischen einem Strike und einer Single, wie einer europäischen Option, sowie wiederholter Optionalität als wiederholte Pseudosummierung, was Bermuda die Remutantenoption ist. Sie erwähnen, wie wichtig es ist, bei der Auswahl einer Distribution zu berücksichtigen, dass es mehr als zwei Binäroperationen gibt, und beenden die Diskussion, indem sie sich gegenseitig danken und sich auf die Teilnahme an den Seminaren des jeweils anderen freuen.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
  • 2021.04.14
  • www.youtube.com
Abstract: We introduce a new derivative security called a stoption. After paying an upfront premium, the owner of a stoption accrues realized price changes ...
 

Lorenzo Torricelli (Universität Parma) – „Additive Logistikprozesse in der Optionspreisgestaltung“



Lorenzo Torricelli (Universität Parma) – „Additive Logistikprozesse in der Optionspreisgestaltung“

Lorenzo Torricelli, ein angesehener Professor an der Universität Parma, befasst sich mit den Feinheiten der Optionspreisgestaltung, indem er das additive Logistikmodell und die selbstähnliche Spezifikation untersucht. In seiner aufschlussreichen Präsentation erläutert er die Formel für die Preisgestaltung von Vanilla-Optionen mithilfe dieser innovativen Modelle und veranschaulicht deren Anwendung anhand eines Dichtevergleichs zwischen dem logistischen Preismodell und traditionellen Normalmodellen.

Darüber hinaus führt Torricelli eine Benchmark-Analyse der kumulativen Termstruktur für das Logistikmodell im Vergleich zu einer linearen Drehung der Termstruktur für homogene Modelle durch. Seine aufschlussreichen Beobachtungen zeigen, dass das Logistikmodell deutlich mehr Flexibilität bei der Gestaltung der Termstruktur bietet und damit einen bemerkenswerten Vorteil gegenüber herkömmlichen Ansätzen bietet.

Um ein umfassendes Verständnis zu ermöglichen, untersucht Torricelli auch die mit diesen Modellen verbundenen Volatilitätsflächen. Er stellt fest, dass im Modell eine positive Verzerrung vorliegt, die auf die verzerrte Verteilung der logarithmischen Erträge und die Wölbung der logistischen Verteilung zurückzuführen ist. Er betont jedoch, dass es in der Logistikverteilung selbst keine Schiefe gibt, da sie symmetrisch ist. Torricelli erörtert außerdem die Auswirkungen modaler Parameter auf die Struktur der Volatilitätsterme und erkennt das Potenzial für Verbesserungen bei der gewählten Parametrisierung an.

Abschließend betont Torricelli, dass die aus diesen Modellen abgeleiteten Optionsformeln explizit und bekannt sind und ihre praktische Umsetzung erleichtern. Besonders lobt er die beeindruckende Geschwindigkeit, die beim Leistungstest gezeigt wurde. Als Beweis für Transparenz und akademische Zusammenarbeit plant Torricelli, den mit diesen Modellen verbundenen Code öffentlich zugänglich zu machen, was Forschern und Praktikern gleichermaßen zugute kommt.

  • 00:00:00 Lorenzo Torricelli von der Universität Parma stellt Finanzmodelle vor, die auf der Logistikverteilung basieren, beginnend mit Bewertungsgleichungen für Optionsfunktionale und Funktionen zur Bewertung des Leistungsstandes. Durch die Ableitung nach k erhält man die implizite Wertpapierpreisverteilung, und die logistische Funktion ist mit dem real bewerteten Basiswert verknüpft, während die logistische Skew-Verteilung mit dem positiven Preisprozess verbunden ist, der sich aus der Merit-Put-Bewertung ergibt . Die unendlich teilbare Struktur der Verteilungen wird als Zeitfamilie betrachtet und die Existenz eines additiven Prozesses überprüft, was zu stochastisch kontinuierlichen Prozessen mit unabhängigen Inkrementen führt, die die implizite Preisverteilung unterstützen und die Formel der Aussage bestimmen.

  • 00:05:00 Lorenzo Torricelli, Professor an der Universität Parma, diskutiert das additive Logistikmodell und die selbstähnliche Spezifikation bei der Optionspreisgestaltung. Er erklärt die Formel zur Preisgestaltung von Vanilla-Optionen anhand der Modelle und instanziiert sie anhand des Preises der Termfunktion. Er zeigt einen Dichtevergleich zwischen dem Logistikpreismodell und den Normalmodellen und stellt fest, dass sich die Form der Verteilung des Logistikmodells mit der Zeit ändert, während dies bei der Form der Normalverteilung nicht der Fall ist. Er vergleicht auch die kumulative Termstruktur für das Logistikmodell mit einer linearen Revolution der Termstruktur für homogene Modelle und beobachtet bei ersteren viel flexiblere Formen.

  • 00:10:00 Lorenzo Torricelli diskutiert die Diagramme für das CPDA-Modell und die impliziten Volatilitätsflächen für die SLA- und CPDA-Modelle. Die Volatilitätsflächen zeigen, dass das positive Modell aufgrund der schiefen Verteilung der logarithmischen Renditen und der Kurtosis der logistischen Verteilung eine Schiefe aufweist. Die logistische Verteilung weist jedoch keine Schiefe auf, da sie symmetrisch ist. Torricelli erwähnt, dass sich die Modalparameter in ähnlicher Weise auch auf die Struktur der Volatilitätsterme auswirken und dass bei der gewählten Parametrisierung Spielraum für Verbesserungen besteht. Insgesamt sind die Optionsformeln explizit und bekannt und der Geschwindigkeitstest verlief sehr schnell. Der Code wird ebenfalls veröffentlicht.
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
  • 2021.04.12
  • www.youtube.com
On April 13th, 2021, as part of the Cornell-Citi Financial Data Science Seminar Series, Lorenzo Torricelli explains his work on logistic models in conjunctio...
 

Yumeng Ding (Cornell MFE '20) – „Interpretation von Modellen für maschinelles Lernen“



Yumeng Ding (Cornell MFE '20) – „Interpretation von Modellen für maschinelles Lernen“

Yumeng Ding, ein erfahrener Forscher, befasst sich mit der Interpretation von Modellen des maschinellen Lernens für Aktienkursvorhersagen. In ihrer umfassenden Analyse untersucht sie eine Reihe von Interpretierbarkeitsmethoden, darunter partielle Abhängigkeitsdiagramme, Bedeutung von Permutationsmerkmalen, Kantenstatistiken und LIME, um Licht auf das Innenleben dieser Modelle zu werfen. Durch den Einsatz dieser Methoden möchte Ding den Beitrag einzelner Faktoren und ihre interaktiven Auswirkungen bei der Vorhersage von Aktienkursen entschlüsseln.

Dings Studie dreht sich um drei Arten von Faktoren: Technik, Qualität und Wert, die als Eingaben für verschiedene Modelle des maschinellen Lernens wie Klassifikatoren und Regressionen verwendet werden. Mithilfe der zuvor erwähnten Interpretationsmethoden entschlüsselt sie die komplizierten Beziehungen zwischen diesen Faktoren und Aktienkursprognosen. Durch rigoroses Backtesting entdeckt Ding, dass nichtlineare Modelle lineare Modelle hinsichtlich der Leistung übertreffen. Darüber hinaus stellt sie fest, dass die Auswirkungen verschiedener Faktoren zeitliche Schwankungen aufweisen, was die dynamische Natur der Aktienkursvorhersage unterstreicht. Letztendlich identifiziert Ding AdaBoost als das am besten geeignete Modell für sein spezifisches Szenario.

Wichtig ist, dass Ding die Bedeutung von Interpretierbarkeitsmethoden für das Verständnis von Modellen des maschinellen Lernens hervorhebt. Sie betont, dass der Vektoransatz zwar schnelle Einblicke in die prädiktivsten Interaktionen liefert, die Qualität dieser Interaktionen jedoch nur unzureichend aufdeckt. Ding betont den Wert der Verwendung zweidimensionaler Teilabhängigkeitsdiagramme zur effektiven Visualisierung einfacherer Interaktionen. Darüber hinaus empfiehlt sie die Liniendiagrammmethode, um die Feinheiten einzelner Interaktionen zu untersuchen und lokale Effekte zu visualisieren, sofern die Daten ausreichend frei von Rauschen sind.

Ding fasst ihre Erkenntnisse zusammen und betont zwei wichtige Erkenntnisse aus ihrem Projekt. Erstens bestätigt sie, dass maschinelle Lernmodelle aufgrund ihrer Fähigkeit, komplexe Interaktionseffekte zu erfassen, in den meisten Szenarien lineare naive Regressionen übertreffen. Zweitens betont sie die Machbarkeit der Interpretation von Modellen des maschinellen Lernens durch den Einsatz verschiedener Interpretationsmethoden. Diese Techniken ermöglichen es Forschern, die individuellen Beiträge von Faktoren aufzuklären und ihre interaktiven Einflüsse auf Vorhersagen zu verstehen.

  • 00:00:00 Yumeng Ding diskutiert ihren Ansatz zur Interpretation von Modellen des maschinellen Lernens, die zur Erstellung von Aktienkursvorhersagen verwendet werden. Sie nutzten drei Arten von Faktoren – technische Faktoren, Qualität und Wert –, um mithilfe verschiedener maschineller Lernmodelle wie Klassifikatoren und Regressionen Vorhersagen zu treffen. Um ihre Modelle zu interpretieren, verwendeten sie Interpretierbarkeitsmethoden wie partielle Abhängigkeitsdiagramme, Permutationsmerkmalsbedeutung, Kantenstatistiken und LIME, die eine Aufschlüsselung einzelner Merkmalseffekte und ihrer Wechselwirkungen ermöglichten. Durch ihr Backtesting stellten sie fest, dass nichtlineare Modelle lineare Modelle übertrafen und sich die Faktoreffekte im Laufe der Zeit änderten. Sie kamen zu dem Schluss, dass AdaBoost das beste Modell für ihr Szenario sei.

  • 00:05:00 Yumeng Ding diskutiert verschiedene Methoden zur Interpretation von Modellen des maschinellen Lernens. Sie betont, dass der Vektoransatz zwar schnell und effizient die prädiktivsten Interaktionen findet, aber nur die Stärke und nicht die Qualität der Interaktionen zeigt. Sie betont, dass eine zweidimensionale partielle Abhängigkeit notwendig ist, um einige einfache Interaktionen zu visualisieren. Ding schlägt vor, dass sich die Linienplotmethode eignet, um in die Details einzelner Interaktionen einzutauchen und lokale Interaktionen zu visualisieren, vorausgesetzt, die Daten sind nicht zu verrauscht. Abschließend stellt sie fest, dass ihr Projekt zwei Erkenntnisse hervorhebt: Erstens übertreffen Modelle des maschinellen Lernens lineare naive Regressionen in den meisten Szenarien aufgrund ihrer Fähigkeit, Interaktionseffekte zu erfassen. Zweitens ist die Interpretation von Modellen des maschinellen Lernens mit den verschiedenen verfügbaren Interpretierbarkeitsmethoden möglich, mit denen wir erklären können, wie einzelne Faktoren sowohl einzeln als auch interaktiv zu Vorhersagen beitragen.
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
  • 2021.03.12
  • www.youtube.com
March 9, 2021CFEM alumna Yumeng Ding discusses her team capstone project, which was titled, “Interpreting Machine Learning Models.” By utilizing Machine Lear...
 

Silvia Ruiz (Cornell MFE '20): „Wie man Aktienbewegungen mithilfe von NLP-Techniken vorhersagt“



Silvia Ruiz (Cornell MFE '20): „Wie man Aktienbewegungen mithilfe von NLP-Techniken vorhersagt“

Silvia Ruiz, eine kürzliche Absolventin des Cornell MFE-Programms, teilt Erkenntnisse aus ihrem Projekt, das sich auf die Vorhersage von Aktienkursen mithilfe von NLP-Techniken (Natural Language Processing) konzentriert. Das Ziel der Forschung ihres Teams bestand darin, den Zusammenhang zwischen Unternehmensanmeldungen, wie z. B. 10-K- und 10-Q-Berichten, und den daraus resultierenden Auswirkungen auf die Aktienkurse zu untersuchen. Um dies zu erreichen, sammelten sie einen umfangreichen Datensatz bestehend aus 1.095 Berichten von der EDGAR-Website, die 50 Unternehmen in fünf Sektoren des S&P 500 umfassten.

Zunächst experimentierten Ruiz und ihr Team mit wörterbuchbasierten Modellen, stießen jedoch auf Einschränkungen in ihrer Wirksamkeit. Um dieses Problem anzugehen, verwendeten sie fortschrittliche Methoden wie das Word-to-Back-Modell und Finberg, die sich als entscheidend für das Verständnis der in den Unternehmensunterlagen enthaltenen kontextuellen Nuancen erwiesen. Darüber hinaus verwendeten sie verschiedene Stimmungsmaße, darunter Wortpolarität und -komplexität, sowie ein xg-Boost-Modell, um Aktienkursbewegungen vorherzusagen.

Die Genauigkeit ihrer Vorhersagen wurde über zwei verschiedene Zeitrahmen bewertet. Kurzfristig erreichte ihr Modell eine bemerkenswerte Genauigkeit von 61 %, während es langfristig eine respektable Genauigkeit von 53 % zeigte. Indem sie diese Prognosen als Signale für Anlageentscheidungen nutzten, übertrafen sie ein gleichgewichtetes Portfolio. Ruiz betont jedoch die Notwendigkeit weiterer Forschung in verschiedenen Sektoren, um die Präzision und Generalisierbarkeit ihrer Ergebnisse zu verbessern.

Silvia Ruiz schließt ihre Diskussion ab, indem sie großzügig ihre Kontaktinformationen zur Verfügung stellt und einen Link zum Repository ihres Projekts auf Github bereitstellt. Diese Geste ermutigt zu Folgeanfragen und fördert die Zusammenarbeit bei der Weiterentwicklung des Verständnisses und der Anwendung von NLP-Techniken im Bereich der Aktienkursvorhersage.

  • 00:00:00 Silvia Ruiz, eine junge Cornell MFE-Absolventin, spricht über ihr Projekt zur Frage, ob Aktienkurse mithilfe von NLP-Techniken vorhergesagt werden können. Sylvia und ihr Team wollten die Auswirkungen von Unternehmensanmeldungen wie 10k und 10q auf die Aktienkurse eines Unternehmens untersuchen und sammelten Daten von 1095 Berichten von der Edgar-Website von 50 Unternehmen des S&P 500 aus fünf Sektoren. Sie fanden heraus, dass die Verwendung wörterbuchbasierter Modelle nicht effektiv war und die Methoden des Word-to-Back-Modells und Finbergs erforderten, um den Kontext zu verstehen. Schließlich verwendeten sie verschiedene Stimmungsmaße, darunter Wortpolarität und -komplexität, und führten ein xg-Boost-Modell mit der Variablen zur Vorhersage von Aktienkursen durch.

  • 00:05:00 Silvia Ruiz erklärt, wie sie versuchte, Aktienbewegungen mithilfe von NLP-Techniken vorherzusagen. Sie erwähnt, dass ihr Team die Marktrenditen berücksichtigte, indem es die Aktienkurse vor der Veröffentlichung des Berichts und fünf Tage danach ermittelte und sie mit der Marktrendite verglich. Die langfristige und kurzfristige Genauigkeit lag bei 61 %, die langfristige bei 53 %, und sie nutzten ihre Prognosen als Signale für Investitionen in Aktien. Ihre Strategie war effektiver als das gleichgewichtete Portfolio, für genauere Ergebnisse sind jedoch weitere Untersuchungen erforderlich, insbesondere in verschiedenen Sektoren. Sie teilt ihre Kontaktinformationen und den Github-Link für weitere Anfragen mit.
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
  • 2021.05.12
  • www.youtube.com
Silvia Ruiz will discuss her CFEM capstone project, which was titled, “How to Predict Stock Movements Using NLP Techniques.” By utilizing NLP techniques, the...
 

Charles-Albert Lehalle: „Ein Versuch, die Verarbeitung natürlicher Sprache zu verstehen“



Charles-Albert Lehalle: „Ein Versuch, die Verarbeitung natürlicher Sprache zu verstehen“

In dieser Videopräsentation befassen sich Charles-Albert Lehalle und sein Team mit den Anwendungen der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) im Finanzbereich. Ihre Diskussion dreht sich um drei Schlüsselbereiche: Stimmungsanalyse, Aktienkursvorhersage und Transaktionskostenmodellierung. Sie erkennen die mit NLP verbundenen Herausforderungen an, wie etwa das Risiko einer Überanpassung und Voreingenommenheit bei Einbettungen, und schlagen mögliche Lösungen vor, einschließlich Multitasking-Lernen und der Erweiterung von Lexika. Das Team untersucht sowohl das Potenzial als auch die Grenzen von NLP in der Finanzbranche und betont, wie wichtig es ist, den Kontext und die Sprachmuster in verschiedenen Sektoren zu verstehen.

Lehalle und sein Team präsentieren ihre eigenen Experimente mit NLP-Techniken und liefern wertvolle Erkenntnisse darüber, wie NLP Informationen komprimieren und aussagekräftige Indikatoren für Finanzanalysten bereitstellen kann. Sie verdeutlichen die Herausforderungen beim Einsatz von NLP im Finanzwesen, einschließlich der Anforderungen an domänenspezifischem Wissen und der Schwierigkeit, aus unstrukturierten Textdaten aussagekräftige Informationen zu extrahieren. Es werden auch ethische Bedenken im Zusammenhang mit dem Einsatz von NLP im Finanzwesen erörtert, beispielsweise die Nutzung von Social-Media-Daten für Handelszwecke.

Während der Präsentation teilt Charles-Albert Lehalle sein Fachwissen und Wissen zu verschiedenen NLP-Themen. Er erläutert den Einsatz lexikonbasierter und einbettungsbasierter NLP-Methoden im Finanzwesen und schlägt eine Kombination beider Ansätze zur Erfassung lexikalischer und probabilistischer Merkmale in Textdaten vor. Die Herausforderungen bei der Unterscheidung zwischen Synonymen und Antonymen innerhalb von Einbettungen werden angesprochen, und Lehalles Team erforscht generative Modelle, um die Struktur und Stimmung von Texten zu steuern. Es wird betont, wie wichtig es ist, Einbettungen und Referenzmodelle zu verstehen, beispielsweise Matrizen, die gemeinsame Wortverteilungen darstellen.

Lehalle untersucht weiter die Bedeutung des Kontexts im NLP und diskutiert, wie Einbettungen auf der Grundlage des Kontexts für positive und negative Wörter voreingenommen werden können. Er erklärt die Verwendung von Markov-Ketten zur Strukturierung von Referenzmatrixmodellen und stellt Experimente zur Identifizierung von Synonymen innerhalb von Einbettungen vor. Die Einschränkungen von NLP bei der Erfassung von Firmennamen und den damit verbundenen Polaritäten werden anerkannt, ebenso wie der Vorschlag für Multitasking-Lernen für überwachte Einbettungen. Die Redner gehen auch auf das Ungleichgewicht zwischen positiven und negativen Wörtern im Loughran-McDonald Lexikon und die Herausforderungen bei der Verarbeitung von Ironie in Finanztexten ein.

Die Präsentation endet mit einem Überblick über ein Projekt von Sylvia Ruiz, einer Absolventin des Cornell Financial Engineering. Das Projekt konzentriert sich auf die Vorhersage von Aktienkursen mithilfe von NLP-Techniken, insbesondere durch das Ausschneiden von Managementdiskussionsabschnitten aus 10-K- und 10-Q-Einreichungen von 50 S&P 500-Unternehmen und die Analyse der Stimmung, um deren Auswirkungen auf die Aktienkurse zu bewerten. Lehalle erörtert die Grenzen wörterbuchbasierter Modelle und erklärt, wie ihr Team das Wörterbuch erweiterte, FinBERT zum Verständnis des Kontexts einsetzte und verschiedene Funktionen zur Messung der Stimmung nutzte. Sie erzielten sowohl kurz- als auch langfristig eine bessere Performance als ein gleichgewichtetes Portfolio.

Zusammenfassend beleuchten Charles-Albert Lehalle und sein Team die Potenziale und Herausforderungen von NLP im Finanzwesen. Sie bieten Einblicke, Experimente und Strategien zur effektiven Anwendung von NLP-Techniken und betonen gleichzeitig die Bedeutung eines verantwortungsvollen Einsatzes und eines tiefen Verständnisses sowohl der Technologie als auch des Finanzbereichs.

  • 00:00:00 Der Redner stellt Charles-Albert Lehalle vor, einen Experten für Quant Finance, der einen 40-minütigen Vortrag über NLP hält. Der Redner erwähnt Lehalles frühere Veröffentlichungen zum Thema Quant Finance, die mehrere NLP-Themen abdecken. Der Redner stellt auch Sylvia Ruiz vor, die kürzlich ihren Abschluss an der Cornell-Universität gemacht hat und an einem NLP-Projekt mit Rebellion Research gearbeitet hat. Ziel des Vortrags ist es, den Menschen den Einstieg in NLP zu erleichtern, der oft einschüchternd wirken kann, da er Daten sammeln und Pakete anwenden muss. Der Redner geht kurz auf den Einsatz von NLP im Finanzwesen ein und erwähnt, dass Lehalles Team NLP nun schon seit mehr als einem Jahr einsetzt und einige Prädiktoren und Strategien in der Produktion verwendet. Der Vortrag basiert auf einer fortlaufenden Arbeit von Mengedar und der Redner ermutigt das Publikum, Links oder Artikel einzusenden, die seiner Meinung nach in die Präsentation einbezogen werden sollten.

  • 00:05:00 Charles-Albert Lehalle diskutiert die Möglichkeiten des Einsatzes von Natural Language Processing (NLP) im Finanzhandel. Durch den Einsatz von NLP können Händler schnell auf Informationen in Textform zugreifen, beispielsweise auf Abschriften von Gewinnmitteilungen, sozialen Medien und Finanznachrichten. Diese Informationen können Händlern einen Geschwindigkeitsvorteil beim Kauf vor anderen verschaffen und so den Preis nach oben treiben. Darüber hinaus können Händler NLP verwenden, um eine große Textmenge über viele Unternehmen zu analysieren und sie anhand der erwarteten Renditen einzustufen. Allerdings weist Lehalle darauf hin, dass NLP aufgrund der Menge möglicher Parameter ein hohes Risiko einer Überfütterung birgt. Dennoch können Händler durch das Verständnis der erhaltenen Informationen ihre Strategien entsprechend anpassen, um potenzielle Gewinne zu erzielen.

  • 00:10:00 Charles-Albert Lehalle diskutiert den Einsatz von lexikonbasierten und einbettungsbasierten Methoden der Verarbeitung natürlicher Sprache (NLP) im Finanzwesen. Er erklärt, wie lexikonbasierte Systeme von menschlichen Analysten erstellt werden, die eine Menge Text mit Anmerkungen versehen, um positive oder negative Aktienstimmungen zu identifizieren, während einbettungsbasierte Systeme den probabilistischen Kontext von Wörtern modellieren. Lehalle schlägt vor, diese beiden Methoden zu kombinieren, um sowohl die lexikalischen als auch die probabilistischen Merkmale von Textdaten auf Finanzmärkten zu erfassen. Er erläutert außerdem seinen Ansatz zur Untersuchung, wie Einbettungen Synonyme und Antonyme erfassen können, was praktische Auswirkungen auf die prädiktive Analyse im Finanzwesen haben kann.

  • 00:15:00 In diesem Abschnitt diskutiert Charles-Albert Lehalle die Herausforderungen, die mit der Verarbeitung natürlicher Sprache (NLP) verbunden sind. Während die Erfassung von Synonymen die Komplexität eines Textes verringern kann, kann es durch Einbettungen zu Schwierigkeiten bei der Unterscheidung zwischen Synonymen und Antonymen kommen. Dies stellt eine Herausforderung dar, wenn Sie Ihr Lexikon in ein System einbinden möchten, das nicht in der Lage ist, zwischen ihnen zu unterscheiden. Lehalles Team versucht, ein generatives Modell eines Textes zu entwickeln, um die Struktur des Textes und die Stimmung zu kontrollieren und zu sehen, ob sie das, was sie in die Sprache eingefügt haben, wiederherstellen können. Sie planen, eine große Menge an Finanznachrichten zu nutzen, um diese Techniken anzuwenden und ihre Funktionsweise zu analysieren. Zu den theoretischen Aspekten dieses Prozesses gehört die Verwendung der Wort-2x-Keygram-Methode und einer stochastischen Matrix.

  • 00:20:00 In diesem Abschnitt erklärt Charles-Albert Lehalle die Verarbeitung natürlicher Sprache mithilfe des Skip-Gram-Word2vec-Modells. Er diskutiert die Low-Rank-Zerlegung der Matrix für Einbettungen und wie sie als neuronales Netz mit einer Soft-Max-Ausgabe umgeschrieben werden kann. Er erklärt auch, dass Aufmerksamkeitsköpfe in Modellen wie BERT eher lokal sind und viele lokale Einbettungen den Kontext berücksichtigen. Er betont, wie wichtig es ist, Einbettungen und das Referenzmodell zu verstehen, bei dem es sich um eine große versteckte Matrix handelt, die zur Optimierung der Verlustfunktion verwendet wird.

  • 00:25:00 Charles-Albert Lehalle erklärt das Konzept von Referenzmodellen in der Verarbeitung natürlicher Sprache. Er diskutiert die verschiedenen Arten von Referenzmodellen, darunter eine große Matrix, die die gemeinsame Verteilung aller Wörter darstellt, eine statistische Schätzung des wahren Referenzmodells und das verborgene Referenzmodell, das den Text generiert hat. Er spricht auch über frequentistische Synonyme, das sind Wörter, die aufgrund ihres häufigen Auftretens an derselben Position in einem Korpus die gleiche Einbettung haben, obwohl sie aus semantischer Sicht Antonyme sind. Dieses Verständnis ist wichtig für die Diskussion der Ethik bei der Verarbeitung natürlicher Sprache.

  • 00:30:00 In diesem Abschnitt diskutiert Lehalle die Bedeutung des Kontexts bei der Verarbeitung natürlicher Sprache und gibt Beispiele dafür, wie Einbettungen je nach Kontext für positive und negative Wörter verzerrt werden können. Er erklärt auch, wie die Generierung eines Korpus mithilfe einer Markov-Kette zur Strukturierung des großen Referenzmatrixmodells für Wörter beitragen kann und wie die Verlustfunktion für die korrekte Einbettung eines Wortes eine Kreuzentropie zwischen zwei Verteilungen ist. Das erste vorgestellte Experiment beinhaltet den Entwurf synthetischer Sprachen mit Synonymen und den Versuch, die Synonyme als Blöcke in den Einbettungen wiederherzustellen. Es wurde jedoch festgestellt, dass die Einbettungen schlecht identifizierbar sind, was es schwierig macht, aus einer großen Einbettung einen niedrigdimensionalen Raum wiederherzustellen. Schließlich werden Kosinusähnlichkeiten zwischen Einbettungen von Synonymen berechnet.

  • 00:35:00 Charles-Albert Lehalle diskutiert die Verwendung des Lung Hand Micro Lexicon, um Einbettungen zu trainieren, um zwischen positiven und negativen Schlagzeilen in Finanznachrichten zu unterscheiden. Er weist darauf hin, dass Einbettungen nicht darauf ausgelegt sind, Synonyme zu unterscheiden, die häufig zusammen vorkommen, wie beispielsweise die Wörter in Schlagzeilen. Daher ist die Verwendung von Einbettungen in Schlagzeilen zur Identifizierung positiver und negativer Wörter eine Herausforderung. Betrachtet man jedoch die Finanznachrichten im Laufe der Zeit, zeigen Cosinus-Ähnlichkeitsmetriken, dass positive und negative Wörter klar voneinander unterscheidbar sind. Lehalle zeigt auch, dass Firmennamen, wie zum Beispiel Banken, während einer Finanzkrise eher mit negativen als mit positiven Worten verbunden sind. Insgesamt hat die Positionierung des Vokabulars innerhalb von Einbettungen großen Einfluss auf ihre Fähigkeit, in Finanznachrichten zwischen positiven und negativen Wörtern zu unterscheiden.

  • 00:40:00 Der Referent Charles-Albert Lehalle diskutiert die Grenzen der Verarbeitung natürlicher Sprache (NLP) bei Firmennamen und den damit verbundenen Polaritäten sowie die Nichtstationarität von Einbettungen. Er schlägt vor, dass sich Einbettungen auf die Priorisierung der Verteilung von Nachbarschaftswörtern konzentrieren, was es für sie schwierig macht, zwischen Häufigkeiten und Synonymen zu unterscheiden. Lehalle schlägt weiter vor, dass Multitasking-Lernen, also das Training von Einbettungen gleichzeitig mit einer Aufgabe, die von einem polarisierten Lexikon überwacht wird, eine gute Idee sein könnte. Darüber hinaus stellt er fest, dass Firmennamen ein nützlicher Indikator für die Reputation sein können und dass NLP-generierte Nachrichtenmeldungen ein größeres Problem darstellen als Unternehmen, die versuchen, NLP-Algorithmen zu betrügen. Abschließend erklärt er, dass NLP-Algorithmen möglicherweise dazu verwendet werden könnten, Informationen zu extrahieren und sie mit einem neuen Wert zu kennzeichnen, was die Ableitung von Analystenschätzungen anstelle von Preisen ermöglicht.

  • 00:45:00 In diesem Abschnitt des Videos diskutieren die Redner das Ungleichgewicht von negativen und positiven Wörtern im Loughran-McDonald-Lexikon, das von Menschen erstellt wurde und in der Verarbeitung natürlicher Sprache (NLP) für die Finanztextanalyse verwendet wird. Sie vermuten, dass das Ungleichgewicht auf die rechtliche und strukturierte Natur von Finanzdokumenten zurückzuführen sein könnte, die von Anwälten verfasst wurden, die tendenziell Schutz bieten. Die Referenten gehen außerdem auf den Einsatz von NLP bei der Transaktionskostenmodellierung und die Herausforderungen bei der Verarbeitung von Ironie in langen Finanztexten ein. Anschließend stellen sie Sylvia Ruiz vor, eine Absolventin des Cornell Financial Engineering-Programms, die das Projekt ihres Teams zur Vorhersage von Aktienkursen mithilfe von NLP-Techniken vorstellt. Das Projekt konzentrierte sich darauf, Abschnitte zur Managementdiskussion aus den 10K- und 10Q-Einreichungen von 50 Unternehmen im S&P 500 herauszufiltern und die Stimmung zu analysieren, um die Auswirkungen auf die Aktienkurse zu bestimmen.

  • 00:50:00 Charles-Albert Lehalle diskutiert die Probleme bei der Verwendung wörterbuchbasierter Modelle für die Verarbeitung natürlicher Sprache (NLP) und wie er und sein Team NLP-Techniken nutzten, um ihre Modelle zu verbessern. Er erklärt, wie sie ihr Wörterbuch erweitert haben, um eine ausgewogenere Klassifizierung von Wörtern zu erreichen, indem sie ein Skipgram-Modell und das FinBERT-Modell zum Verständnis des Kontexts verwendeten. Anschließend verwendeten sie verschiedene Funktionen, um die Stimmung und Wortkomplexität zu messen, bevor sie ein xg-Boost-Modell durchführten, um vorherzusagen, ob der Kurs einer Aktie steigen oder fallen würde. Obwohl ihre Genauigkeit relativ gering war, konnten sie eine Strategie entwickeln, die sowohl kurz- als auch langfristig besser abschnitt als ein gleichgewichtetes Portfolio.

  • 00:55:00 Charles-Albert Lehalle diskutiert das Potenzial der Verarbeitung natürlicher Sprache (NLP) in der Finanzbranche. Er schlägt vor, dass mehr Forschung notwendig sei und dass es von Vorteil sein könnte, die Branche in Sektoren zu unterteilen, da jeder Sektor ein anderes Sprachmuster aufweist. Darüber hinaus rät er davon ab, gleichzeitig den Text zu verstehen und Dinge wie Erwartungen vorherzusagen, da NLP möglicherweise besser zur Komprimierung von Informationen und zur Bereitstellung informativer Indikatoren eingesetzt werden kann. Stattdessen können Analysten ihre eigenen Überlegungen nutzen, um Vorhersagen mit Erwartungen zu vergleichen und einen „Überraschungsprädiktor“ zu erstellen. Insgesamt betont Lehalle die Notwendigkeit, die Grenzen und Stärken von NLP zu verstehen, bevor man versucht, es in die Finanzanalyse zu integrieren.

  • 01:00:00 In diesem Abschnitt diskutieren die Referenten den Einsatz von kontradiktorischem Training für NLP-Modelle, um deren Robustheit zu erhöhen. Diese Technik kann angewendet werden, um sprachliche Vorurteile wie Geschlechtsneutralität anzugehen. Die Referenten erwägen auch den Einsatz von kontradiktorischem Training, um die Neutralität zwischen positiven und negativen Wörtern zu durchbrechen, weisen jedoch darauf hin, dass dies möglicherweise nicht für die Entwicklung von Handelsstrategien geeignet ist. Die Diskussion geht dann weiter zu den Herausforderungen beim Extrahieren von Abschnitten aus Finanzdokumenten, wie z. B. 10.000-Einreichungen, aufgrund der unterschiedlichen Art und Weise, wie Unternehmen ihre Abschnitte kennzeichnen und formatieren.

  • 01:00:00 Die Referenten diskutieren den Einsatz von kontradiktorischem Training für NLP-Modelle, um deren Robustheit zu erhöhen. Diese Technik kann angewendet werden, um sprachliche Vorurteile wie Geschlechtsneutralität anzugehen. Die Referenten erwägen auch den Einsatz von kontradiktorischem Training, um die Neutralität zwischen positiven und negativen Wörtern zu durchbrechen, weisen jedoch darauf hin, dass dies möglicherweise nicht für die Entwicklung von Handelsstrategien geeignet ist. Die Diskussion geht dann weiter zu den Herausforderungen beim Extrahieren von Abschnitten aus Finanzdokumenten, wie z. B. 10.000-Einreichungen, aufgrund der unterschiedlichen Art und Weise, wie Unternehmen ihre Abschnitte kennzeichnen und formatieren.

  • 01:05:00 In diesem Abschnitt des Videos erklärt Charles-Albert Lehalle, dass er seine eigenen Einbettungen nicht mit dem Sentiment-Index von Bloomberg verglichen hat, da dies nicht der Zweck der Studie war. Er ist davon überzeugt, dass die Prognosen von Bloomberg wahrscheinlich eher versuchen, Prädiktoren als Indizes zu erstellen, mit denen sich nur schwer vergleichen lässt. Er verrät, dass es Veröffentlichungen zur Konstruktion empirischer Vermögenspreisfaktoren mithilfe von NLP gibt und erklärt, dass NLP verwendet werden kann, um zahlreiche Faktoren basierend auf den im Korpus enthaltenen Informationen zu erstellen, beispielsweise den 10k-Faktor oder einen Risikoabschnittsfaktor. Daher ist NLP nur eine Technik und der Korpus ist in diesem Fall der wichtigste Faktor.
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
  • 2021.02.17
  • www.youtube.com
Full Title: "An Attempt to Understand Natural Language Processing And Illustration On A Financial Dataset"Speaker: Charles-Albert Lehalle (Capital Fund Manag...
Grund der Beschwerde: