Quantitativer Handel - Seite 10

 

Verwendung von R im Echtzeit-Finanzmarkthandel



Verwendung von R im Echtzeit-Finanzmarkthandel

In diesem informativen Video befasst sich der Moderator mit der praktischen Anwendung der Programmiersprache R im Echtzeit-Finanzmarkthandel und konzentriert sich dabei insbesondere auf den Handel mit Fremdwährungen. Sie beginnen mit der Erörterung der Attraktivität des Währungshandels und heben deren Handhabbarkeit und die Dominanz einiger wichtiger Währungspaare im globalen Devisenhandel hervor. Es wird betont, dass der Handel mit Fremdwährungen im Freiverkehrsmarkt und nicht an regulierten Börsen erfolgt. Der Referent erkennt die Herausforderungen an, Anomalien in Währungsbewegungen aufgrund der Liquidität und Zufälligkeit des Marktes zu identifizieren.

Das Konzept des außerbörslichen Handels wird erläutert und darauf hingewiesen, dass er sich von anderen Handelsarten dadurch unterscheidet, dass er Faktoren wie der Gegenpartei und dem notierten Preis Vorrang vor Ausführung und Latenz einräumt. Anschließend behandelt das Video die Standardterminologie des Finanzmarkts, einschließlich der Verwendung von Kerzen zur Visualisierung von Daten und der Unterscheidung zwischen Long-Trading (Kauf zu einem niedrigen Preis und Verkauf zu einem hohen Preis) und Short-Trading (Verkauf geliehener Aktien zu einem höheren Preis und Rückkauf zu einem niedrigeren Preis mit Gewinn). ).

Um die Echtzeitanalyse des Finanzmarkthandels mit R zu demonstrieren, geht der Moderator zwei Beispiele durch. Das erste Beispiel konzentriert sich darauf, die Wahrscheinlichkeit der Richtung der nächsten Kerze anhand aufeinanderfolgender bullischer oder bärischer Kerzen zu testen. Diese Hypothese wird anhand der Kenntnis der Kerzenmuster und ihrer möglichen Auswirkungen auf Markttrends untersucht.

Das Video untersucht weiter die Methodik zum Testen von Hypothesen im Echtzeit-Finanzmarkthandel mit R. Es wird ein Beispiel vorgestellt, bei dem Daten vorverarbeitet und eine Tabelle aufeinanderfolgender Kerzen erstellt wird, um die Wahrscheinlichkeit einer Änderung der Kerzenrichtung zu bewerten. Die Handelskosten werden zunächst auf Null gesetzt und ein Gewinnsaldo erstellt und zu einem Modellstichtag getestet. Es wird jedoch betont, wie wichtig es ist, Ein- und Ausstiege in einer Handelsumgebung rigoros zu testen, da eine Festlegung der Handelskosten auf zwei Punkte zu Geldverlusten und zur Erreichung von Marktneutralität führt.

Überlegungen wie Slippage und Handelskosten werden angesprochen, wobei der Redner die Notwendigkeit betont, diese Faktoren zu berücksichtigen, und die Einbeziehung einer Fehlermarge vorschlägt. Es wird ein komplexeres Beispiel zur zyklischen Natur des Eurodollars vorgestellt, wobei der Schwerpunkt auf der Messung der Zyklizität anhand von Wendepunkten und Preisbewegungen liegt. Der Redner betont, wie wichtig es ist, bei der Finanzmarktanalyse eine einheitliche x-Achse beizubehalten, um verzerrte Marktbewegungen über Wochenenden zu vermeiden.

Das Video befasst sich mit einer Mean-Reversion-Handelsstrategie, bei der es darum geht, Fälle zu identifizieren, in denen ein Markt eine schnelle Aufwärtsbewegung erlebt hat, und eine kurzfristige Trendumkehr zu antizipieren. Um geeignete Parameter für die Umsetzung dieser Strategie zu ermitteln, werden die Preisverteilung und Kerzenbewegungen analysiert. Die Tests werden zunächst mit null Handelskosten durchgeführt, gefolgt von einem geringen Handelspreis von 2 Pubs. Die Ergebnisse sind vorsichtig optimistisch, aber der Redner erkennt das Vorhandensein potenzieller statistischer Probleme an, die weiterer Untersuchungen und realer Markttests bedürfen.

Die Regressionsanalyse wird als Methode zum Glätten von Datenpunkten eingeführt, es werden jedoch auch die Herausforderungen bei der Vorhersage zukünftiger Trends erwähnt, wenn sich die Regressionslinie mit zusätzlichen Daten ändert. Es werden grundlegende Backtests und Forward-Tests mit R besprochen, wobei die Grenzen des Testens mit nur einem Instrument und die Notwendigkeit eines umfassenderen Ansatzes hervorgehoben werden.

Anschließend gibt der Moderator Einblicke in die Integration von R-Code in Echtzeit-Handelsumgebungen. Sie betonen, wie wichtig es ist, Regressionswerte häufig neu zu berechnen, um sich an Marktveränderungen anzupassen, anstatt sich für den langfristigen Erfolg auf überangepasste Modelle zu verlassen. Der Code umfasst Entscheidungsparameter für Kauf oder Verkauf auf Basis von Kerzendifferenzen und Preisänderungen sowie eine Exit-Strategie auf Basis des Erreichens einer bestimmten Gewinnschwelle. Der Moderator demonstriert den Backtesting-Prozess und bringt seine Zuversicht zum Ausdruck, positive Ergebnisse zu erzielen.

Es wird hervorgehoben, wie wichtig es ist, für die Bewertung von Handelssystemen eine Mark-to-Market-Equity-Kurve anstelle einer Trade-Equity-Kurve zu verwenden. Es werden die Einschränkungen der Trade-Equity-Kurve bei der Darstellung der Liquiditätsposition eines Systems während aktiver Geschäfte erörtert. Der Moderator präsentiert zwei Diagramme, in denen die beiden Kurventypen verglichen werden und die Zeiträume von Systemausfällen und erheblichen Absenkungen aufzeigen. Die Notwendigkeit einer Stop-Loss-Strategie zur Verlustminderung wird betont, und der zur Umsetzung einer solchen Strategie erforderliche Code wird geteilt. Der Moderator räumt ein, dass ein Fehler in der Ausstiegsstrategie dazu geführt hat, dass Positionen zu lange gehalten wurden, was zu erheblichen Verlusten führte.

Das Video befasst sich dann mit der Integration von R-Code in die Ausführung von Algorithmen und der Verwendung eines Windows-Pakets auf der Modellierungsseite. Der Moderator erklärt, dass ihr Echtgeldhandel auf Linux-Servern stattfindet, die über einen gemeinsamen Speicherraum nahtlos mit der CIRA-Plattform verbunden sind. Dieses Setup ermöglicht den Austausch von Daten, einschließlich FIX, Trades und Kerzen, zwischen ihrem System und der Plattform. Der Redner verrät, dass sie das Risiko durch den gleichzeitigen Handel von vier bis acht verschiedenen Instrumenten steuern. Sie warnen jedoch davor, sich im realen Handel ausschließlich auf die Wahrscheinlichkeit zu verlassen, da dies dazu führen kann, dass Händler im Laufe des Tages wertvolle Gelegenheiten verpassen.

Abschließend bietet dieses Video wertvolle Einblicke in die praktische Umsetzung von R im Echtzeit-Finanzmarkthandel mit besonderem Fokus auf den Handel mit Fremdwährungen. Der Vortragende deckt verschiedene Aspekte ab, darunter den außerbörslichen Handel, die Standardterminologie der Finanzmärkte, das Testen von Hypothesen, Mean-Reversion-Handelsstrategien, Überlegungen wie Slippage und Handelskosten sowie die Integration von R-Code in die Ausführung von Algorithmen. Während das Video die potenziellen Vorteile des algorithmischen Handels hervorhebt, erkennt es auch die Notwendigkeit strenger Tests, einer sorgfältigen Berücksichtigung statistischer Fragen und die Bedeutung von Risikomanagementstrategien in realen Handelsszenarien an.

  • 00:00:00 Ellen bespricht, wie sie R beim Handel mit Fremdwährungen verwendet. Sie erklärt, warum sie sich für den Handel mit Währungen entschieden hat, indem sie erklärt, dass es sich dabei um überschaubare Instrumente handelt, die analysiert werden können, mit etwa sieben oder acht Paaren, die 97–98 % des weltweiten Währungshandels abwickeln. Ellen weist außerdem darauf hin, dass ausländische Währungen nicht an einer Börse gehandelt werden können, da sie außerbörslich gehandelte Instrumente sind. Sie räumt ein, dass es aufgrund der Liquidität und Zufälligkeit des Marktes äußerst schwierig sein kann, Anomalien in Währungsbewegungen zu finden.

  • 00:05:00 Der Referent erklärt das Konzept des außerbörslichen Handels und betont, dass es sich im Gegensatz zu anderen Handelsarten um eine unregulierte Börse handelt. Der Referent erklärt, dass bei dieser Art des Handels weniger die Ausführung und Latenz als vielmehr andere Faktoren wie die Gegenpartei und der angegebene Preis im Vordergrund stehen. Anschließend erklärt der Redner einige der auf dem Finanzmarkt verwendeten Standardterminologien, wie z. B. Kerzen und Long-Trading versus Short-Trading. Kerzen werden als praktisches Werkzeug zur Visualisierung einer Reihe von Daten verwendet. Beim Long-Trading wird zu einem niedrigen Preis gekauft und zu einem hohen Preis verkauft. Beim Short-Trading werden geliehene Aktien zu einem höheren Preis verkauft und dann zurückgekauft, wenn der Preis fällt, um einen Gewinn zu erzielen.

  • 00:10:00 Der Redner diskutiert das Konzept des Handels nach oben oder unten auf dem Devisenmarkt, bei dem Händler immer mit einem Instrument handeln, um etwas xq zu bekommen. Er erwähnte auch, dass er den Zuschauern nicht zeigen wird, wie man den Markt prognostiziert oder Geheimtipps liefert, sondern ihnen stattdessen zwei Beispiele für die Art von Dingen zeigen wird, die er und sein Team analysieren. Das erste Beispiel ist eine einfache Frage, wie hoch die Wahrscheinlichkeit ist, dass die nächste Kerze steigt oder fällt, wenn es X aufeinanderfolgende bullische oder bärische Kerzen gibt. Der Redner nutzt das Wissen über Aufwärts- und Abwärtskerzen, um seine Hypothese zu testen und zu beurteilen, ob es eine Dynamik im Markt gibt, um Markttrends vorherzusagen.

  • 00:15:00 Der Redner erklärt seinen Ansatz zum Testen von Hypothesen im Echtzeit-Finanzmarkthandel mit R. Er zeigt ein Beispiel für die Vorverarbeitung von Daten und die Erstellung einer Tabelle aufeinanderfolgender Kerzen, die die Wahrscheinlichkeit einer Änderung der Kerzenrichtung zeigt . Anschließend setzt der Referent seine Handelskosten auf Null und erstellt eine Gewinnbilanz, die er an einem Modelltermin testet. Sie weisen jedoch darauf hin, dass die Festlegung der Handelskosten auf zwei Punkte dazu führt, dass man Geld verliert und marktneutral ist, weshalb es wichtig ist, Ein- und Ausstiege in einem Handelsumfeld rigoros zu testen.

  • 00:20:00 Der Redner erörtert, wie wichtig es ist, beim Handel Slippages im Markt zu berücksichtigen und eine Fehlermarge einzubauen, um dies zu berücksichtigen. Sie erwähnen auch die unterschiedlichen Handelskosten je nach Broker und Handelsvolumen. Der Redner geht dann zu einem komplexeren Beispiel für die Prüfung der zyklischen Natur des Eurodollars über und erklärt, wie sie die Zyklizität anhand der Zeit zwischen Wendepunkten und Preisbewegungen messen. Sie betonen, wie wichtig es ist, bei der Finanzmarktanalyse eine einheitliche x-Achse zu verwenden, um verzerrte Marktbewegungen über Wochenenden zu vermeiden. Der Redner bietet an, Code und Daten für dieses Beispiel mit den Zuschauern zu teilen.

  • 00:25:00 Der Redner erklärt, wie er Finanzmarktdatenreihen normalisiert, indem er Zeilennummern als x-Achse hinzufügt, anstatt Datum und Uhrzeit zu verwenden. Anschließend führt er eine Kernel-Regression durch, um die Kurve zu glätten, und findet mithilfe von Code die Spitzen und Abfälle. Er testet die Zyklizität der Spitzen und gruppiert sie im unteren Quadranten, um zu zeigen, dass die signifikanten Wendepunkte des Eurodollars innerhalb von 30 Stunden eintreten. Der Redner erörtert verschiedene Arten des Handels, einschließlich der Vorhersage des nächsten Wendepunkts und der Frage, wie man ihn zu einem etwas anspruchsvolleren Problem macht.

  • 00:30:00 Der Redner erläutert eine Mean-Reversion-Handelsstrategie, bei der nach Möglichkeiten gesucht wird, wenn ein Markt zu stark und zu schnell gestiegen ist, was zu einer kurzfristigen Trendumkehr führt. Der Redner analysiert die Preisverteilung und Kerzenbewegungen, um festzustellen, wo die Grenze für diese Strategie zu ziehen ist, und testet sie dann, indem er Trades mit Nullkosten und später mit geringen Handelskosten von 2 Pubs einrichtet. Die Ergebnisse sind vorsichtig optimistisch und der Redner schlägt weitere Tests unter realen Marktbedingungen vor. Der Redner weist jedoch darauf hin, dass es bei dieser Strategie möglicherweise statistische Probleme gibt, die einer weiteren Untersuchung bedürfen.

  • 00:35:00 Der Redner diskutiert die Verwendung von Regression zum Glätten von Datenpunkten, weist jedoch darauf hin, dass sich die Regressionslinie nach hinten ändert, wenn der Reihe mehr Datenpunkte hinzugefügt werden, was es schwierig macht, zukünftige Trends vorherzusagen. Er erklärt außerdem, dass grundlegende Backtests und Forwardtests mit R jeweils auf ein Instrument beschränkt und nicht ideal für mehrere Instrumente oder marktspezifische Finanzparameter sind. Um dieses Problem zu lösen, nutzt er eine Handelsplattform, die es ihm ermöglicht, seinen R-Code direkt in die Plattform zu kopieren und einzufügen und so langwierige Codierungs- und Debugging-Prozesse zu vermeiden.

  • 00:40:00 Der Redner diskutiert den grundlegenden Code, der für die Integration von R in Echtzeit-Handelsumgebungen verwendet wird. Sie erwähnen, dass es sich bei dem Code größtenteils um eine Kopie und Einfügung des Codes handelt, den sie in ihrem R-Studio hatten, wobei der Schwerpunkt auf der häufigen Neuberechnung der Regressionswerte liegt, um sich an Änderungen anzupassen, anstatt das Modell zu überanpassen und zu erwarten, dass es langfristig funktioniert. Der Code beinhaltet eine Kauf- oder Verkaufsentscheidung auf der Grundlage bestimmter Parameter, wie z. B. Kerzendifferenzen und Preisänderungen, sowie eine Strategie zum Ausstieg aus der Position, wenn der Gewinn einen bestimmten Betrag erreicht. Der Referent zeigt dann, wie sie einen Backtest mit dem Code durchgeführt haben und erwartet gute Ergebnisse.

  • 00:45:00 Der Moderator erörtert die Bedeutung der Verwendung einer Mark-to-Market-Equity-Kurve anstelle einer Trade-Equity-Kurve bei der Bewertung von Handelssystemen. Er erklärt, dass eine Trade-Equity-Kurve nicht die Liquiditätsposition eines Systems während des Handels anzeigt, sodass es schwierig ist, dies in R zu modellieren. Er zeigt zwei Diagramme, eines mit der Trade-Equity-Kurve und das andere mit der Mark- to-Market-Equity-Kurve, die widerspiegelt, wie das System in bestimmten Zeiträumen ins Stocken geriet und zu einem erheblichen Rückgang führte. Er kommt zu dem Schluss, dass die Anwendung einer Stop-Loss-Strategie dazu beigetragen hätte, Verluste rechtzeitig zu überwinden, und zeigt den Code, der es einem ermöglichen würde, diese Änderung vorzunehmen. Der abschließende Test des Modells scheiterte an der unzureichenden Ausstiegsstrategie, die dazu führte, dass das Modell zu lange durchgehalten wurde, was zu hohen Verlusten führte.

  • 00:50:00 Der Referent spricht darüber, wie sie ihren Code in die Ausführung von Algorithmen einbetten und auf der Modellierungsseite ein Windows-Paket verwenden. Ihr echtes Geld läuft auf Linux-Servern und ist in diesem Paket enthalten. Für den Datenaustausch nutzen sie einen gemeinsamen Speicherbereich zwischen ihrem System und der CIRA-Plattform. Sie können FIX, Trades und Candles zur Analyse an ihr System übergeben, die Ergebnisse wieder in CIRA aufteilen und Handelsentscheidungen treffen. Mit diesem System können sie Risiken steuern, indem sie zwischen vier und acht verschiedenen Instrumenten gleichzeitig handeln. Sie weisen darauf hin, dass die Wahrscheinlichkeit zwar wichtig ist, das Vertrauen auf sie beim realen Handel jedoch dazu führen kann, dass Händler im Laufe des Tages Gelegenheiten verpassen.
Using R in real time financial market trading
Using R in real time financial market trading
  • 2015.05.28
  • www.youtube.com
Autochartist CEO, Ilan Azbel explains how R can be used in real-time market analysis to build automated trading systems - recorded at a live presentation a t...
 

Einführung in den quantitativen Handel – Vorlesung 1/8


Einführung in den quantitativen Handel – Vorlesung 1/8

Dieser umfassende Kurs dient als ausführliche Einführung in die faszinierende Welt des quantitativen Handels und vermittelt den Studierenden das Wissen und die Fähigkeiten, die sie benötigen, um in diesem dynamischen Bereich hervorragende Leistungen zu erbringen. Beim quantitativen Handel geht es um die Nutzung mathematischer Modelle und Computerprogramme, um Handelsideen in profitable Anlagestrategien umzuwandeln. Alles beginnt mit einem Portfoliomanager oder Händler, der mit einer ersten Intuition oder einem vagen Handelskonzept beginnt. Durch die Anwendung mathematischer Techniken werden diese Intuitionen in präzise und robuste mathematische Handelsmodelle umgewandelt.

Der Prozess des quantitativen Handels umfasst die gründliche Analyse, Rückprüfung und Verfeinerung dieser Modelle. Statistische Tests und Simulationen werden eingesetzt, um ihre Leistung zu bewerten und ihre Zuverlässigkeit sicherzustellen. Diese sorgfältige Testphase ist entscheidend für die Identifizierung und Behebung etwaiger Mängel oder Schwächen in den Modellen, bevor sie in die Tat umgesetzt werden.

Sobald ein quantitatives Anlagemodell seine potenzielle Rentabilität nachgewiesen hat, wird es auf einem Computersystem implementiert und ermöglicht so die automatisierte Ausführung von Geschäften. Diese Integration mathematischer Modelle in Computerprogramme ist das Herzstück des quantitativen Handels und verbindet die Leistungsfähigkeit der Mathematik mit der Effizienz der Informatik. Während des Kurses erforschen die Studierenden verschiedene Anlagestrategien aus der populärwissenschaftlichen Literatur, gewinnen Einblicke in die ihnen zugrunde liegenden mathematischen Prinzipien und lernen, wie sie diese in umsetzbare Handelsmodelle umsetzen können.

Der Lehrplan dieses Kurses umfasst ein breites Themenspektrum und vermittelt den Studierenden die quantitativen, Computer- und Programmierkenntnisse, die für den Erfolg im Bereich des quantitativen Handels unerlässlich sind. Die Studierenden vertiefen sich in die Feinheiten der mathematischen Modellierung, der statistischen Analyse und des algorithmischen Handels. Darüber hinaus erwerben sie Kenntnisse in Programmiersprachen, die üblicherweise im quantitativen Finanzwesen verwendet werden, wie z. B. Python und R, sodass sie ihre Handelsmodelle effektiv implementieren und testen können.

Durch den Abschluss dieses Kurses erhalten die Studierenden nicht nur einen ganzheitlichen Überblick über die quantitative Handelslandschaft, sondern entwickeln auch die notwendigen Fähigkeiten, um sich darin sicher zurechtzufinden. Sie sind in der Lage, Handelsideen in mathematische Modelle umzuwandeln, diese Modelle gründlich zu testen und zu verfeinern und sie schließlich in realen Handelsszenarien umzusetzen. Mit ihrer soliden Grundlage in quantitativen und rechnerischen Techniken sind die Studierenden gut auf eine Karriere im quantitativen Handel, im algorithmischen Handel oder in anderen verwandten Bereichen vorbereitet, in denen die Verbindung von Mathematik und Technologie zum Erfolg führt.

Introduction to Quantitative Trading - Lecture 1/8
Introduction to Quantitative Trading - Lecture 1/8
  • 2013.10.01
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Einführung in den quantitativen Handel – Vorlesung 2/8


Einführung in den quantitativen Handel – Vorlesung 2/8

In diesem Vortrag betont der Referent die Bedeutung von Technologie und Programmierung im quantitativen Handel. Sie diskutieren, wie wichtig Technologie- und Programmierkenntnisse für die Übernahme quantitativer Handelsstrategien und die Durchführung von Backtesting sind. Der Referent betont die Bedeutung von Mathematik und Computerprogrammierung in diesem Bereich. Sie führen in die grundlegende Java-Programmierung und die mathematische Programmierung mit Java ein und betonen die Notwendigkeit von Programmierkenntnissen im quantitativen Handel aufgrund der Backtesting-Anforderung.

Der Referent erörtert die Herausforderungen, die mit der Simulation und Analyse der zukünftigen Leistung einer Strategie verbunden sind. Sie erwähnen, dass historische Gewinne und Verluste (PNL) kein verlässlicher Indikator für das Training oder die Entscheidung über eine Strategieänderung sind. Stattdessen schlagen sie den Einsatz von Simulation und Parameterkalibrierung vor, die einen hohen Programmieraufwand erfordern, um optimale Parameter zu finden und die Empfindlichkeit einer Strategie gegenüber ihnen zu testen. Sie betonen auch, wie wichtig es ist, für Recherche und Live-Handel dieselbe Software zu verwenden, um Übersetzungsfehler zu vermeiden.

Der Redner erörtert die Verantwortlichkeiten eines Quant-Traders und betont die Notwendigkeit eines effizienten Prototypings von Handelsideen. Sie schlagen vor, die meiste Zeit mit Brainstorming und Ideenfindung zu verbringen und gleichzeitig den Zeitaufwand für Tests und Programmierung zu minimieren. Sie erwähnen, wie wichtig es ist, über einen Werkzeugkasten mit Bausteinen zu verfügen, um schnell neue Strategien zu entwickeln.

Der Redner geht auf die Herausforderungen bei der Verwendung beliebter Tools wie Excel, MATLAB und R im quantitativen Handel ein und weist darauf hin, dass diese nicht für anspruchsvolle mathematische Strategien geeignet sind. Sie empfehlen die Verwendung anderer Programmiersprachen wie Java, C-Sharp und C++, die über Bibliotheken zum Erstellen und Implementieren von Handelsstrategien verfügen.

Der Redner geht insbesondere auf die Einschränkungen der Verwendung von R für den quantitativen Handel ein. Sie erwähnen, dass R langsam ist, über begrenzten Speicher und begrenzte Möglichkeiten zur Parallelisierung verfügt. Sie verdeutlichen auch den Mangel an Debugging-Tools und Standardschnittstellen für die Kommunikation zwischen verschiedenen Programmen.

Der Redner betont die Bedeutung der Technologie und des Einsatzes geeigneter Tools im quantitativen Handel. Sie erwähnen, dass Tools wie R und MATLAB die mathematische Programmierung erheblich verbessern und Zugriff auf Bibliotheken für schnellere Berechnungen ermöglichen können. Sie betonen die Notwendigkeit einer guten Toolbox für die Handelsforschung, die eine einfache Kombination von Modulen, parallele Programmierung sowie automatisierte Datenbereinigung und Parameterkalibrierung ermöglicht.

Der Referent erörtert die Vorteile des Einsatzes neuerer Technologien wie Java und C# für den quantitativen Handel. Sie erwähnen, dass diese Sprachen das Debuggen von Problemen wie Speicherlecks und Segmentierungsfehlern überflüssig machen, was die Produktivität verbessert. Sie demonstrieren die Java-Programmierung und bieten den Teilnehmern praktische Laborsitzungen an.

Der Referent erklärt, wie man Eingaben für ein Java-Programm korrigiert, indem man die Importe korrigiert, und demonstriert mathematische Programmierung mithilfe der Algo-Quant-Bibliothek. Sie führen die Teilnehmer durch das Kopieren und Einfügen von Code von der Website auf ihre Computer, um sie auszuführen.

Der Redner beantwortet technische Fragen des Publikums zum Herunterladen und Ausführen des in der Vorlesung verwendeten Codes. Sie demonstrieren die klassische Version einer Hidden-Markov-Kette mithilfe der Webinar-Funktion.

Der Referent erklärt das Konzept einer Markov-Kette und demonstriert ein einfaches Zwei-Zustands-Modell mit Übergangswahrscheinlichkeiten. Sie erklären, wie Markov-Ketten als Zufallszahlengeneratoren verwendet werden, um Beobachtungen zu simulieren und Modellparameter zu schätzen. Sie ermutigen das Publikum, mit der Erstellung eigener Markov-Kettenmodelle zu experimentieren.

Der Redner erörtert die Bedeutung von Kommunikation und Zusammenarbeit im quantitativen Handel und ermutigt die Teammitglieder, sich gegenseitig zu informieren und über ihre Fortschritte auf dem Laufenden zu halten. Sie erwähnen die Möglichkeit der Verwendung von Markov-Modellen höherer Ordnung und laden zu Fragen und Bildschirmfreigabe während Live-Diskussionen ein.

Der Dozent diskutiert die Herausforderungen bei der Schätzung von Parametern in quantitativen Handelsmodellen mit begrenzten Beobachtungen. Sie erklären, dass für eine genaue Schätzung mehr Daten erforderlich sind, und empfehlen die Verwendung größerer Zustandsmodelle oder eine Erhöhung der Anzahl der Beobachtungen. Sie diskutieren den Baum-Welch-Algorithmus zum Training von Hidden-Markov-Modellen und stellen das Konzept des Backtestings vor.

Der Redner demonstriert eine einfache Crossover-Strategie mit gleitendem Durchschnitt in AlgoQuant und erklärt den Prozess der Erstellung von Strategien, Simulatoren und der Ausführung von Simulationen. Sie unterstreichen die Bedeutung von Tests und Leistungsanalysen anhand von Kennzahlen wie Gewinn und Verlust, Informationsverhältnis, maximalem Drawdown und mehr.

Der Referent erklärt, wie Sie verschiedene Handelsstrategien erkunden und ihre Leistung durch Simulation testen. Der Redner erklärt, dass die Simulation es Händlern ermöglicht, die potenzielle Rentabilität und die mit einer Strategie verbundenen Risiken einzuschätzen, bevor sie diese im Live-Handel einsetzen. Durch die Simulation verschiedener Marktbedingungen und -szenarien können Händler Einblicke in die Leistung der Strategie gewinnen und fundierte Entscheidungen treffen.

Der Referent betont zudem die Bedeutung von Transaktionskosten in Handelsstrategien. Transaktionskosten wie Maklergebühren und Slippage können einen erheblichen Einfluss auf die Gesamtrentabilität einer Strategie haben. Daher ist es wichtig, die Transaktionskosten bei Simulation und Backtesting zu berücksichtigen, um eine realistische Einschätzung der Leistung einer Strategie zu erhalten.

Darüber hinaus führt der Dozent in das Konzept des Risikomanagements im quantitativen Handel ein. Sie erklären, dass es beim Risikomanagement um die Umsetzung von Strategien zur Kontrolle und Minderung potenzieller Verluste geht. Zu den Risikomanagementtechniken können das Setzen von Stop-Loss-Orders, die Positionsgrößenbestimmung und die Diversifizierung gehören. Um sich vor erheblichen finanziellen Verlusten zu schützen, ist es wichtig, die Grundsätze des Risikomanagements in die Handelsstrategien zu integrieren.

Abschließend bekräftigt der Redner die Bedeutung des kontinuierlichen Lernens und der Verbesserung im quantitativen Handel. Sie ermutigen die Teilnehmer, verschiedene Strategien auszuprobieren, ihre Leistung zu analysieren und basierend auf den Ergebnissen zu iterieren. Durch den Einsatz von Technologie, Programmierkenntnissen und einem systematischen Ansatz zur Strategieentwicklung können Händler ihre Rentabilität und ihren Erfolg auf den Finanzmärkten steigern.

Insgesamt liegt der Schwerpunkt der Vorlesung auf der Bedeutung von Technologie, Programmierung, Simulation und Risikomanagement im quantitativen Handel. Es unterstreicht die Notwendigkeit von Experimenten, kontinuierlichem Lernen und der Verwendung spezieller Tools zur Entwicklung und Verfeinerung von Handelsstrategien.

Teil 1

  • 00:00:00 Der Referent geht zunächst auf mögliche Fragen aus der vorherigen Vorlesung ein und erläutert, wo die Kursmaterialien zu finden sind. Der Schwerpunkt dieser Vorlesung liegt auf der Bedeutung von Technologie und Programmierung im quantitativen Handel, da sie für die Übernahme quantitativer Handelsstrategien und die Durchführung von Backtesting von wesentlicher Bedeutung sind. Der Redner betont die Bedeutung sowohl der Mathematik als auch der Computerprogrammierung und stellt dann einige grundlegende Java-Programmierung und mathematische Programmierung mit Java vor. Die praktische Sitzung beinhaltet Kooptierungsstrategien für Backtesting, und der Referent fragt, ob alle bin und algo quant auf ihren Computern installiert und den Maven-Test bestanden haben. Traditionell bräuchte man für andere Arten des Handels, wie zum Beispiel Value-Investing oder den auf Bauchgefühl basierenden Handel, nicht viel Programmierung, aber im quantitativen Handel ist dies aufgrund der Anforderung des Backtestings unerlässlich.

  • 00:05:00 Der Redner erörtert die Bedeutung der Computerprogrammierung im quantitativen Handel, insbesondere bei der Simulation und Analyse der zukünftigen Leistung einer Strategie. Sie erwähnen, dass die historische PNL kein verlässlicher Indikator für das Training oder die Entscheidung ist, ob eine Strategie geändert werden soll oder nicht. Stattdessen schlagen sie den Einsatz von Simulation und Parameterkalibrierung vor, die einen hohen Programmieraufwand erfordern, um optimale Parameter zu finden und die Empfindlichkeit einer Strategie gegenüber ihnen zu testen. Sie betonen auch, wie wichtig es ist, für Recherche und Live-Handel dieselbe Software zu verwenden, um mögliche Übersetzungsfehler zu vermeiden. Abschließend betont der Redner, dass Computerprogrammierkenntnisse in der Finanzhandelsbranche von entscheidender Bedeutung sind und einen großen Einfluss auf die Gewinne haben können.

  • 00:10:00 Der Dozent bespricht die idealen Aufgaben eines Quant-Traders, die darin bestehen, schnell Handelsideen zu entwickeln und Prototypen zu erstellen, während die mechanischen Aufgaben, wie das Testen von Berechnungen, PNL-Eigenschaften und Parameterkalibrierung, einem Computersystem überlassen werden . Im Idealfall würde ein Händler nur etwa 10 % seiner Zeit damit verbringen, seine Strategien zu programmieren, und sich auf Bausteine oder Vorlagen verlassen, um Strategien schnell und effizient zu prototypisieren, ohne alles von Grund auf programmieren zu müssen. Der Dozent betont, wie wichtig es ist, die meiste Zeit mit Brainstorming und der Entwicklung von Handelsideen zu verbringen und gleichzeitig den Zeitaufwand für Tests und Programmierung zu minimieren.

  • 00:15:00 Der Redner betont, wie wichtig es ist, über einen Werkzeugkasten mit Bausteinen zu verfügen, mit denen Forscher schnell Prototypen für neue Strategien erstellen können. Er erwähnt, dass Algocron verschiedene Bausteine anbietet, wie z. B. Bärenmarktindikatoren, die auf bedingten Wahrscheinlichkeiten basieren, und die Ko-Integration zur Steuerung von Körben. Er betont die Idee, dass die Entwicklung von Strategien wie das Spielen mit Legosteinen sein sollte, bei dem Forscher Bausteine zusammensetzen können, um eine neue Strategie zu konstruieren. Der Redner erklärt, dass Händler, obwohl sie die meiste Zeit damit verbringen, Ideen zu entwickeln, Backtesting und Datenbereinigung durchführen müssen, was eine Herausforderung sein kann. Sie müssen große Datenmengen aus verschiedenen Quellen verarbeiten und nützliche Informationen wie Preis-Leistungs-Verhältnisse extrahieren und gleichzeitig mit fehlenden oder fehlerhaften Daten umgehen. Der Prozess erfordert einen erheblichen Programmieraufwand, und wenn die Strategien ereignisgesteuert sind, benötigen Forscher möglicherweise eine Datenbank mit Nachrichten- und Ankündigungsplänen.

  • 00:20:00 Der Referent geht auf die Komplikationen ein, die mit der Simulation einer Handelsstrategie mit einem Orderbuch verbunden sind. Ein Problem ist Slippage. Das bedeutet, nur weil jemand etwas zu einem bestimmten Preis kaufen möchte, heißt das nicht, dass er es aufgrund der Marktbewegung auch tatsächlich zu diesem Preis kaufen kann. Ein weiteres Problem sind Ausführungsannahmen bei der Auftragsbuchmodellierung. Der Simulationsprozess ist umständlich und zeitaufwändig, insbesondere wenn Skriptsprachen wie MATLAB oder R verwendet werden. Die Parameterkalibrierung und -simulation kann bis zu Hunderten von Stunden dauern, und Fehler im Softwarecode können den Prozess zusätzlich verlängern. Der Code-Debugging-Prozess ist langwierig und frustrierend und kann dazu führen, dass der Handel aufgegeben wird – nicht wegen des falschen Codes, sondern aus Zeitmangel oder Frustration.

  • 00:25:00 Der Redner diskutiert die Realität des quantitativen Handels und die Tools, die Händler verwenden. Sie erklären, dass viele Coin-Händler Quant-Analysten sind, die fast 90 % ihrer Zeit mit Programmieren und Debuggen verbringen, was nicht der Job ist, den sie eigentlich haben sollten. Der Grund dafür ist, dass die von Händlern verwendeten Recherchetools primitiv sind und zu den beliebtesten gehören Excel, MATLAB, R und kommerzielle Software. Der Redner argumentiert jedoch, dass diese Tools nicht für den quantitativen Handel konzipiert sind und nicht für die Entwicklung anspruchsvoller mathematischer Strategien geeignet sind. Sie schlagen vor, dass andere Programmiersprachen wie Java, C-Sharp und C++ über Bibliotheken zum Zusammenstellen und Konstruieren von Änderungsstrategien verfügen, die Händler stattdessen verwenden können.

  • 00:30:00 Der Referent diskutiert die Nachteile der Verwendung von R für den quantitativen Handel. Eines der Hauptprobleme besteht darin, dass R sehr langsam ist, da es sich um eine interpretierte Sprache handelt, was bedeutet, dass der Interpreter Zeile für Zeile ausführt. Darüber hinaus steht nur eine begrenzte Menge an Speicher zur Verfügung, sodass es unmöglich ist, eine nennenswerte Datenmenge zur Analyse in den Speicher zu laden. Darüber hinaus ist die Möglichkeit der Parallelisierung sehr begrenzt, was es schwierig macht, Simulationen auf Tausenden von CPUs durchzuführen. Der Sprecher erwähnt, dass die Verwendung von R für paralleles Rechnen schwierig ist und dass seine IDE nicht so fortgeschritten ist wie andere Sprachen wie Java und C-sharp. Außerdem sind keine Debugging-Tools verfügbar, was die Identifizierung von Problemen erschwert, und es gibt keine Standardschnittstelle für die Kommunikation zwischen verschiedenen Programmen.

  • 00:35:00 Der Redner diskutiert die Vor- und Nachteile der Verwendung von R als quantitatives Handelsstrategietool. Er betont, dass R nur begrenzte Unterstützung für objektorientierte Programmierung bietet und der meiste Code in einer prozeduralen Sprache geschrieben wird, dass es jedoch erhebliche Vorteile gegenüber Allzwecksprachen bietet. Die größte Herausforderung bei R besteht darin, dass es keine Möglichkeit gibt, sicherzustellen, dass der Quellcode fehlerfrei ist, was beim Debuggen von Code frustrierend sein kann. Der Redner betont die Bedeutung der Technologie und erklärt, dass der Einsatz von Waffen (Werkzeuge und Forschung) bei der Handelskriegsführung von entscheidender Bedeutung sei. Ein intelligenter Mensch ohne Technologie kann nicht damit rechnen, mit jemandem zu konkurrieren, der Technologien wie Parallelrechnen und maschinelles Lernen nutzt, um nach profitablen Handelsstrategien zu suchen.

  • 00:40:00 Der Redner diskutiert die Bedeutung der Technologie im quantitativen Handel. Der Einsatz von Tools wie R und MATLAB kann die mathematische Programmierung erheblich verbessern und Zugriff auf eine breite Palette von Bibliotheken ermöglichen, die schnellere mathematische Berechnungen ermöglichen. Für die schnelle Entwicklung und Durchführung von Backtesting-Strategien zur Nutzung von Marktchancen ist eine gute Trading-Research-Toolbox unerlässlich. Die ideale Toolbox sollte es Händlern ermöglichen, Module einfach zu kombinieren, parallel zu programmieren und Leistungsstatistiken zu erstellen, ohne viel Zeit für die Programmierung aufwenden zu müssen. Auch die Datenbereinigung sollte automatisiert erfolgen und die Parameterkalibrierung sollte automatisch erfolgen. Der Schwerpunkt sollte auf der Codierung von Strategien liegen, anstatt Zeit mit mechanischen Programmieraufgaben zu verbringen.

  • 00:45:00 Es wird besprochen, wie wichtig es ist, ein gutes Werkzeug zum Programmieren zu verwenden. Der Redner erwähnt, dass durch die Verwendung neuerer Technologien wie Java und C# das Debuggen für Probleme wie Speicherlecks und Segmentierungsfehler nicht mehr erforderlich ist, was die Produktivität erheblich beschleunigt. Darüber hinaus startet die Klasse eine praktische Laborsitzung, in der sie ein Markov-Modellexperiment erkunden, und der Referent führt die Teilnehmer durch den Prozess des Kopierens und Einfügens von Code von der Website in ihre Schoßbehälter, um ihn auszuführen. Der Kurs umfasst Teilnehmer mit Programmiererfahrung, sodass sie die Grundlagen der Java-Programmierung überspringen.

  • 00:50:00 Der Sprecher erklärt, wie man die Eingabe für ein Java-Programm korrigiert, indem man die Importe mit dem Befehl Strg-Umschalt-i korrigiert. Anschließend demonstriert er, wie mithilfe der Algo-Quant-Bibliothek mathematische Programmierung in Java durchgeführt werden kann, und zeigt ein einfaches Markov-Kettenmodell, das in einem neuen Paket und einer neuen Klasse ausgeführt werden kann. Der Redner ermutigt die Teilnehmer, Fragen zu stellen und stellt sicher, dass jeder der Demonstration folgen kann.

  • 00:55:00 Der Redner beantwortet einige technische Fragen des Publikums zum Herunterladen und Ausführen des in der Vorlesung verwendeten Codes. Anschließend demonstriert er die klassische Version der Hidden Markov Chain mithilfe der Webinar-Funktion, für die er nur pi a1 und b1 behält und den anderen Code löscht.

Teil 2

  • 01:00:00 Der Referent erklärt das Zwei-Zustands-Modell mit Übergangswahrscheinlichkeiten, das ein einfaches Beispiel einer Markov-Kette ist. Er veranschaulicht die Übergangswahrscheinlichkeiten in einem visuellen Diagramm und erklärt die Wahrscheinlichkeit, bestimmte Werte in jedem Zustand zu beobachten. Anschließend erklärt der Referent, dass eine Markov-Kette im Wesentlichen ein Zufallszahlengenerator ist, und zeigt, wie diese spezielle Markov-Kette simuliert werden kann, um Beobachtungen zu generieren.

  • 01:05:00 Der Referent erklärt das Konzept einer Markov-Kette und wie sie als Zufallszahlengenerator verwendet wird, um Beobachtungen von Aktienkursen zu generieren. Die Anfangszustandswahrscheinlichkeiten und Übergangswahrscheinlichkeiten einer Markov-Kette mit zwei Zuständen werden als Beispiel angegeben, aber in realen Situationen müssen diese Parameter auf der Grundlage von Beobachtungen geschätzt werden. Der Referent demonstriert, wie diese Parameter mithilfe des Hidden-Markov-Ketten-Algorithmus von Webinar Models zur Parameterschätzung geschätzt werden. Das geschätzte Modell kann dann auf Genauigkeit mit dem tatsächlichen Modell verglichen werden.

  • 01:10:00 Der Referent diskutiert die Bedeutung der Parameterschätzung im quantitativen Handel. Er weist darauf hin, dass in Wirklichkeit nur Preise oder Renditen beobachtet werden und das wahre Modell unbekannt ist, sodass die beste Option darin besteht, die Parameter des Modells zu schätzen. Er erwähnt einen guten Algorithmus zur Schätzung der Parameter, den Webinar-Algorithmus, der den realen Modellen sehr nahe kommt und für den Handel nützlich ist. Der Redner ermutigt das Publikum, mit der Erstellung eigener Markov-Kettenmodelle zu experimentieren, indem es die Parameter ändert, unterschiedliche Beobachtungen generiert und verschiedene Schätzungen durchführt, um zu verstehen, wie sie unter verschiedenen Bedingungen mit wahren Werten übereinstimmen.

  • 01:15:00 Der Redner bespricht eine bevorstehende Live-Diskussion über Markov-Modellierung und -Programmierung und lädt während der Diskussion zu Fragen und Bildschirmfreigabe ein. Die vorliegende Aufgabe besteht darin, mithilfe eines persönlichen Markov-Modells verschiedene Beobachtungen zu generieren und verschiedene Parameter zu schätzen, um zu überprüfen, ob das geschätzte Modell mit dem realen Modell übereinstimmt. Das Ziel besteht darin, festzustellen, wie gut das Marktmodell ist, da sich Händler letztendlich darauf verlassen. Der Redner empfiehlt, Extremwerte und Stressszenarien hinzuzufügen, um zu sehen, wie sich die Markov-Kette verhält.

  • 01:35:00 Der Dozent und die Studierenden im Kurs besprechen technische Details im Zusammenhang mit Lizenzierung und Experimenten. Der Dozent empfiehlt einem Studenten, seine Langzeitlizenz durch eine neu heruntergeladene zu ersetzen, und schlägt vor, mit verschiedenen Parametern zu experimentieren, um den Punkt zu bestimmen, an dem geschätzte Modelle für Schulungszwecke im quantitativen Handel nützlich sind. Andere Studierende berichten von Problemen mit Experimenten und Lizenzen, auf die ausführlich eingegangen wird.

  • 01:40:00 Der Redner ermutigt das Publikum, seine eigene Markov-Kette zu erstellen und mit Übergangswahrscheinlichkeiten zu experimentieren. Sie schlagen vor, ein Zwei-Zustands-Modell für ein Drei-Zustands-Modell zu verwenden und Kreativität und Vorstellungskraft zu nutzen, um ungewöhnliche Übergangswahrscheinlichkeiten wie Null oder einen „Synchronisierungszustand“ zu schaffen, aus dem man nicht mehr übergehen kann, wenn man einmal eingetreten ist. Der Redner betont die Bedeutung von Kreativität und Vorstellungskraft im quantitativen Handel und schlägt vor, diese zu nutzen, um zu sehen, wie sich das Schätzverfahren mit einzigartigen Phasenwechsel-Markov-Ketten verhält.

  • 01:45:00 Der Redner erörtert die Bedeutung von Kommunikation und Zusammenarbeit im quantitativen Handel, insbesondere bei der Durchführung von Experimenten und der Datenanalyse. Sie betonen die Notwendigkeit, dass sich die Teammitglieder ständig gegenseitig informieren und über ihre Fortschritte auf dem Laufenden halten, wobei sie darauf hinweisen, dass Einzelpersonen möglicherweise unterschiedliche Ansätze oder Ideen für dasselbe Problem haben. Der Redner erwähnt auch die Möglichkeit, in seinen Experimenten Markov-Modelle höherer Ordnung zu verwenden und fragt, ob jemand diese Option untersucht hat.

  • 01:50:00 Der Dozent erläutert die Bedeutung der Generierung von Testfällen, um zu überprüfen, ob das geschätzte Modell mit dem realen Modell übereinstimmt. Das reale Modell wird zur Generierung von Beobachtungen verwendet, während das geschätzte Modell anhand der Beobachtungen erstellt wird. Das Experiment zielt darauf ab, festzustellen, ob das geschätzte Modell dem realen Modell nahe genug kommt. Der Dozent schlägt vor, verschiedene Testfälle zu erstellen, um zu sehen, wie die Schätzung funktioniert, und hebt die Bedeutung des Testens mit einer geringeren Anzahl von Beobachtungen hervor.

  • 01:55:00 Der Redner erörtert die Herausforderungen bei der genauen Schätzung quantitativer Handelsmodelle mit begrenzten Beobachtungen. Es ist zu beachten, dass in der Statistik Algorithmen auf Konvergenz ausgerichtet sind, was bedeutet, dass die Schätzung mit zunehmender Anzahl von Beobachtungen genauer wird. Der Referent betont jedoch, dass es schwierig sei, die Realitätsnähe eines Modells zu bestimmen, da man nur über das geschätzte Modell und nicht über die wahren Werte verfüge. Darüber hinaus wird das Konzept der Berechnung der Wahrscheinlichkeit der Erzeugung beobachteter Werte mit einem bestimmten Modell eingeführt, was ein entscheidender Aspekt der Maximum-Likelihood-Schätzung ist.

Teil 3

  • 02:00:00 Der Dozent diskutiert die Herausforderungen bei der Schätzung von Wahrscheinlichkeiten in einem Zwei-Zustands-Modell mit begrenzten Daten. Die Schätzung der Übergangswahrscheinlichkeiten ist ungenau, wenn nur 100 Beobachtungen vorliegen. Mit 10.000 Beobachtungen erhöht sich zwar die Genauigkeit, das Problem bleibt jedoch bestehen, da die meisten Vermögenswerte nicht 40 Jahre lang halten, was der Datenmenge entspricht, die Sie für so viele Beobachtungen benötigen würden. Das Zwei-Zustands-Modell verfügt über 12 Parameter, und je mehr Parameter es gibt, desto mehr Daten sind für eine genaue Schätzung erforderlich. Daher ist es wichtig, über große Datenmengen zu verfügen, um Wahrscheinlichkeiten genau einschätzen zu können, was im Handel, insbesondere bei der Erstellung komplexer Modelle, nicht praktikabel ist. Um diese Herausforderung zu meistern, empfiehlt der Dozent den Aufbau von 3 oder 4 Zustandsmodellen oder die Erhöhung der Anzahl der Beobachtungen.

  • 02:05:00 Der Redner diskutiert die Schwierigkeit der Schätzung für Markov-Kettenmodelle im quantitativen Handel. Durch die Erhöhung der Anzahl der Variablen wird der Schätzprozess noch schwieriger, und die Verwendung einer parametrischen Verteilungsfamilie anstelle der Angabe solcher Operationen kann die Anzahl der Parameter erheblich reduzieren. Allerdings kann der Baum-Welch-Algorithmus, der zum Trainieren eines kontinuierlichen Hidden-Markov-Modells (HMM) verwendet wird, eine Herausforderung darstellen. Anschließend geht der Redner auf das nächste Experiment ein: Backtesting.

  • 02:10:00 Die gezeigte Demo simuliert einen einfachen Crossover des gleitenden Durchschnitts auf dem Aktien-XOM, und das Programm ist so eingerichtet, dass es Daten zur Aktie von Yahoo herunterlädt und den Handel von 1990 bis 2012 simuliert. Die Struktur, wie man das einrichtet Die Datenquelle wird erläutert, wobei das Yahoo-Datenquellen-Plugin für diejenigen am einfachsten und einfachsten zu verwenden ist, die keinen Zugang zu professionellen Datenquellen haben. Diese Demo bietet ein nützliches Beispiel für das Programmieren und Testen von Handelsstrategien.

  • 02:15:00 Der Referent erklärt den Prozess der Erstellung von Strategien, Simulatoren und allen Büchern, die zum Ausführen einer Simulation erforderlich sind. Das angegebene Beispiel ist eine Crossover-Strategie mit gleitenden Durchschnitten, bei der der schnellere gleitende Durchschnitt anhand der Daten der letzten 20 Tage und der langsamere gleitende Durchschnitt anhand der Daten der letzten 250 Tage berechnet wird. Der Redner weist darauf hin, dass man den Quellcode für die Implementierung der Strategie, des Simulators und der Handelsplotter in AlgoQuant, einer Open-Source-Software, untersuchen kann. Darüber hinaus erklärt der Referent, dass die offene Zugänglichkeit der Software es Benutzern ermöglicht, den Code unabhängig zu überprüfen und Änderungen zur individuellen Anpassung vorzunehmen. Abschließend erklärt der Redner, dass es verschiedene Messgrößen gibt, die für die Leistungsanalyse verwendet werden können, darunter Gewinn und Verlust, Information Ratio, Sharpe Ratio, Maximum Drawdown, Mass Exposure und Omega.

  • 02:20:00 Der Referent zeigt, wie man verschiedene Leistungsanalysatoren in Lwan verwendet, um verschiedene Kennzahlen, wie z. B. den Drawdown, zu berechnen und einen Bericht über die Leistung der Strategie zu erstellen. Der Code hört auf Ereignisse, die ihn interessieren, wie etwa Preisaktualisierungen, und generiert neue Bestellungen auf der Grundlage der neuesten Informationen. Der Redner schlägt vor, den Debugger zu verwenden, um das Verhalten des Codes besser zu verstehen und zu sehen, wie er auf Preisaktualisierungen reagiert und Bestellungen generiert.

  • 02:25:00 Der Referent zeigt, wie man mit einem Debugger eine Handelsstrategie überwacht und auf Überkreuzungen als Signale achtet. Er erklärt, wie man einen Haltepunkt setzt und stoppt, wenn ein echtes Crossover-Signal auftritt, und zeigt ein Beispiel, bei dem der schnellere gleitende Durchschnitt den langsameren gleitenden Durchschnitt kreuzt. Anschließend geht die Strategie eine Long-Position ein und kauft eine Einheit des Produkts XOM zum Marktpreis. Später, wenn der schnellere gleitende Durchschnitt den langsameren gleitenden Durchschnitt unterschreitet, geht die Strategie eine Short-Position ein und verkauft zwei XOM-Einheiten zum Marktpreis. Der Referent zeigt eine Grafik der Kauforder und erklärt den Unterschied zwischen dem Kauf bei der Marktorder und der Platzierung einer Limitorder, ausgelöst durch einen gewünschten Preis.

  • 02:30:00 Der Redner geht auf eine Simulation einer einfachen Crossover-Strategie mit gleitendem Durchschnitt in AlgoQuant ein. Sie zeigen, wie man historische Daten nutzt, um Kauf- und Verkaufssignale zu generieren und Aufträge zur Aufrechterhaltung einer gewünschten Position zu berechnen. Die Strategie hört für diese Aufgabe auf Entwicklungsaktualisierungssignale und abonniert das Orderbuchsignal. Der Redner stellt fest, dass historische Tests zwar nicht ausreichen, aber ein guter Ausgangspunkt sind und der einfache Crossover des gleitenden Durchschnitts auf andere Szenarien übertragen werden kann. Sie erwähnen auch, dass eine Strategie nur eine Funktion ist, und zeigen die Mathematik zur Berechnung der Reihenfolge.

  • 02:35:00 Der Redner erörtert die Bedeutung von Simulation und Experimenten beim Versuch, mithilfe mathematischer Analysen eine Handelsstrategie zu erstellen. Er demonstriert die Verwendung einer GMA21-Strategie, die zuvor mathematisch nachgewiesen wurde, bei Tests durch Simulation jedoch aufgrund der Transaktionskosten zu ungünstigen Ergebnissen führt. Der Redner betont die Bedeutung von Software und Programmierung beim Experimentieren und Feinabstimmen von Handelsstrategien, um Verluste in realen Handelsszenarien zu vermeiden, und betont, dass verschiedene Parameter für verschiedene Aktien getestet werden können, um die effektivste Strategie zu finden.

  • 02:40:00 Der Dozent diskutiert die Bedeutung von Experimenten zur Bestätigung theoretischer Vorhersagen im quantitativen Handel. Die Schüler werden ermutigt, die bereitgestellte Software zu nutzen, um mit verschiedenen Zahlen zu experimentieren und ihre eigenen Handelsstrategien zu entwickeln. Der Dozent führt die Studierenden durch die Implementierung einer gma21-Strategie, die kauft, wenn der aktuelle Preis höher als der letzte Preis ist, und verkauft, wenn der aktuelle Preis niedriger als der letzte Preis ist, und veranschaulicht, wie Aufträge berechnet und zur Ausführung an Broker gesendet werden. Anschließend werden die Studierenden damit beauftragt, ihre eigenen Strategien zu entwickeln und diese anhand historischer Daten zu experimentieren.

  • 02:45:00 Der Referent stellt die einfachste Handelsstrategie vor, die sich leicht umsetzen lässt und somit eine Plug-and-Play-Lösung darstellt. Der Redner lädt das Publikum ein, Fragen zu stellen, und ermutigt es, Kontakt aufzunehmen, wenn weitere Erläuterungen erforderlich sind.

  • 02:55:00 Der Redner diskutiert einen Sonderfall des geometrischen gleitenden Durchschnitts, nämlich wenn M gleich eins ist. Dieser Fall vereinfacht die Strategie, nur die aktuellen Renditen mit Null zu vergleichen, und obwohl diese Strategie nicht unbedingt Geld bringt, dient sie als gutes Beispiel für Bildungszwecke. Der Redner ermutigt das Publikum, die Übung für diese Strategie offline zu beenden, damit es sich mit dem Codieren und Testen mithilfe des Algocoin-Systems für die kommenden Übungen zu Mathematik und Programmierung vertraut machen kann.
Introduction to Quantitative Trading - Lecture 2/8
Introduction to Quantitative Trading - Lecture 2/8
  • 2013.10.03
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Spielplatz für Finanztechnik: Signalverarbeitung, robuste Schätzung, Kalman, Optimierung



Spielplatz für Finanztechnik: Signalverarbeitung, robuste Schätzung, Kalman, Optimierung

In diesem fesselnden Video beleuchtet Daniel Palomar, Professor in der Abteilung für Elektrotechnik, Elektronik und Computertechnik an der HKUST, die vielfältigen Anwendungen der Signalverarbeitung im Bereich der Finanztechnik. Palomar räumt mit dem Missverständnis über Financial Engineering auf und betont die Allgegenwärtigkeit von Signalverarbeitungstechniken in diesem Bereich. Er hebt die Relevanz verschiedener Themen wie Zufallsmatrixtheorie, Partikelfilter, Kalman-Filter, Optimierungsalgorithmen, maschinelles Lernen, Deep Learning, stochastische Optimierung und Zufallsbeschränkungen hervor.

Palomar befasst sich mit den besonderen Eigenschaften von Finanzdaten, sogenannten stilisierten Fakten, die über verschiedene Märkte hinweg konsistent bleiben. Er erklärt, wie Finanzingenieure Renditen anstelle von Preisen verwenden, um den Aktienmarkt zu modellieren. Lineare und logarithmische Renditen werden trotz ihrer geringen Unterschiede aufgrund der geringen Höhe der Renditen häufig verwendet. Diese Renditen werden analysiert, um ihre Stationarität zu bestimmen, wobei Nichtstationarität ein herausragendes Merkmal von Finanzdaten ist. Der Redner geht auch auf andere stilisierte Fakten ein, wie z. B. stark ausgeprägte Verteilungen, Schiefe bei Renditen mit niedriger Frequenz und das Phänomen der Volatilitätsclusterung.

Die Bedeutung der Modellierung von Aktienrenditen im Finanzwesen wird hervorgehoben, mit besonderem Schwerpunkt auf der Volatilität. Palomar zieht Parallelen zwischen dem Rücksignal und einem Sprachsignal und untersucht mögliche Kooperationen zwischen Finanzmodellierung und Sprachsignalverarbeitung. Es werden verschiedene Frequenzregime bei der Modellierung, einschließlich der Hochfrequenzmodellierung, diskutiert, wobei die Herausforderungen hervorgehoben werden, die sich aus dem Bedarf an Echtzeitdaten und leistungsstarken Rechenressourcen ergeben.

Die Grenzen von Modellen, die sich ausschließlich auf die Modellierung von Renditen konzentrieren, ohne die Kovarianz oder Varianz der Renditen zu berücksichtigen, werden ebenfalls untersucht. Der Redner betont die Bedeutung der Erfassung der durch Kovarianz- und Varianzmodelle bereitgestellten Informationen und Strukturen, die eine profitablere Entscheidungsfindung ermöglichen können. Palomar führt das Konzept der Modellierung der Varianz und Kovarianz von Renditen unter Verwendung eines Residuums ein, das aus einem normalisierten Zufallsterm und einem Hüllkurventerm besteht, der die Kovarianz der Residuen erfasst. Die Modellierung eines multivariaten Residuums mit einer großen Koeffizientenmatrix erfordert jedoch ausgefeiltere Modelle.

Das Video untersucht die Herausforderungen beim Schätzen von Parametern angesichts begrenzter Daten und einer Fülle von Parametern, die zu einer Überanpassung führen können. Um dieses Problem anzugehen, wird Low-Rank-Sparsity als Mittel zur Analyse des Vega-Modells und zur Formulierung von Einschränkungen eingeführt. Palomar erörtert das Konzept der Robustheit und die Unzulänglichkeit der Annahme einer Gaußschen Verteilung für das Financial Engineering aufgrund starker Tails und kleiner Stichprobenregime. Er erklärt, dass herkömmliche Stichprobenschätzer, die auf der Gauß-Verteilung basieren, unterdurchschnittliche Ergebnisse liefern, was eine Neuformulierung ohne solche Annahmen erforderlich macht. Techniken wie Shrinkage und Regularisierung werden als wirksame Mittel zur Bewältigung von „Heavy Tails“ vorgestellt und mit ihrer erfolgreichen Implementierung im Finanz- und Kommunikationsbereich erfolgreich umgesetzt.

Es wird die robuste Schätzung untersucht, ein im Finanzwesen eingesetztes Instrument zur Verbesserung der Genauigkeit trotz Ausreißern. Der Referent stellt elliptische Verteilungen zur Modellierung stark ausgeprägter Verteilungen vor und erklärt, wie Gewichte für jede Stichprobe mithilfe einer iterativen Methode berechnet werden können. Der Tyler-Schätzer, der Proben normalisiert und die Wahrscheinlichkeitsdichtefunktion (PDF) der normalisierten Probe schätzt, wird als Mittel zur Entfernung der Schwanzform diskutiert. Der Tyler-Schätzer verbessert in Kombination mit robusten Schätzern die Genauigkeit der Kovarianzmatrixschätzung. Die Einbeziehung von Regularisierungstermen und die Entwicklung von Algorithmen tragen weiter zu verbesserten Beobachtungen und Schätzungen von Kovarianzmatrizen bei.

Palomar befasst sich mit Finanzkonzepten wie der Wolfe-Schätzung, der Tyler-Schätzung und der Kointegration. Obwohl die Wolfe-Schätzung eine deutliche Verbesserung darstellt, beruht sie immer noch auf der Annahme einer Gaußschen Verteilung. Die Tyler-Schätzung, eine attraktive Alternative, erfordert eine ausreichende Anzahl von Stichproben für Modelle mit mehreren Dimensionen. Kointegration, ein entscheidendes Konzept im Finanzwesen, legt nahe, dass die Vorhersage der relativen Preise zweier Aktien möglicherweise einfacher ist als die Vorhersage einzelner Preise, was Möglichkeiten für den Paarhandel eröffnet. Der Unterschied zwischen Korrelation und Kointegration wird untersucht, wobei sich die Korrelation auf kurzfristige Variationen und die Kointegration auf langfristiges Verhalten konzentriert.

Das Video enthüllt das Konzept eines gemeinsamen Trends und seine Beziehung zum Spread-Handel. Der gemeinsame Trend wird als Zufallsbewegung zwischen zwei Aktien beschrieben, die eine gemeinsame Komponente haben. Durch Subtrahieren des gemeinsamen Trends von der Spanne zwischen den Aktienkursen erhalten Händler ein Residuum mit einem Mittelwert von Null, das als zuverlässiger Indikator für die Umkehrung des Mittelwerts dient. Diese Eigenschaft spielt bei Spread-Trading-Strategien eine entscheidende Rolle. Der Redner erklärt, dass Händler durch die Festlegung von Schwellenwerten für den Spread unterbewertete Situationen erkennen und von der Preiserholung profitieren und so von der Preisdifferenz profitieren können. Die Schätzung des Gamma-Parameters und die Identifizierung kointegrierter Bestände sind wesentliche Schritte in diesem Prozess, der mithilfe von Techniken wie der Methode der kleinsten Quadrate durchgeführt werden kann.

Der Redner geht auf die Rolle des Kalman-Filters in Szenarien ein, in denen ein Regimewechsel aufgrund unterschiedlicher Gammawerte zum Verlust der Kointegration führt. Die Anpassungsfähigkeit des Kalman-Filters an diese Variationen wird durch einen Vergleich mit der Methode der kleinsten Quadrate und der rollierenden Methode der kleinsten Quadrate hervorgehoben. Es wird gezeigt, dass der Kalman-Filter den anderen Techniken überlegen ist, da er eine stetige Verfolgung um Null aufrechterhält, während die Methode der kleinsten Quadrate Schwankungen aufweist, die über einen bestimmten Zeitraum zu Verlusten führen. Daher empfiehlt der Referent den Einsatz des Kalman-Filters für robuste Schätzungen im Financial Engineering.

Es wird ein Vergleich zwischen der Leistung von Modellen der kleinsten Quadrate und des Kalman-Filters vorgestellt, der die Wirksamkeit der Kalman-Methode im Financial Engineering bestätigt. Anschließend befasst sich der Redner mit der Anwendung von Hidden-Markov-Modellen zur Erkennung von Marktregimen, die es Händlern ermöglichen, ihre Anlagestrategien an die vorherrschenden Marktbedingungen anzupassen. Als grundlegendes Konzept wird die Portfoliooptimierung eingeführt, bei der es um die Gestaltung von Portfolios geht, die die erwartete Rendite und die Varianz der Portfoliorendite in Einklang bringen. Der Redner zieht Parallelen zwischen Portfoliooptimierungs- und Beamforming- und linearen Filterungsmodellen, da sie ähnliche Signalmodelle aufweisen.

Das Video diskutiert, wie Kommunikations- und Signalverarbeitungstechniken auf das Finanzwesen angewendet werden können. Das Konzept des Signal-Rausch-Verhältnisses in der Kommunikation wird mit der Sharpe-Ratio im Finanzwesen verglichen, die das Verhältnis von Portfoliorendite zur Volatilität misst. Der Redner stellt das Markowitz-Portfolio vor, das darauf abzielt, die erwartete Rendite zu maximieren und gleichzeitig die Varianz zu minimieren. Aufgrund seiner Empfindlichkeit gegenüber Schätzfehlern und der Abhängigkeit von der Varianz als Risikomaß wird das Markowitz-Portfolio in der Praxis jedoch nicht häufig verwendet. Um dieses Problem anzugehen, können Sparsity-Techniken aus der Signalverarbeitung eingesetzt werden, insbesondere bei der Indexverfolgung, bei der nur eine Teilmenge von Aktien zur Nachbildung eines Index verwendet wird, anstatt in alle Aktien zu investieren, aus denen er besteht. Der Redner schlägt Verbesserungen der Sparsity-Techniken zur Reduzierung von Tracking-Fehlern vor.

Das Video befasst sich mit dem Konzept des „Geldbörsenhandels“ und beleuchtet die Rolle von Portfolios beim Handel. Anhand des Value-at-Risk-Modells (VaR) erklärt der Referent, wie Portfoliohandel durch den Aufbau eines Portfolios aus zwei Aktien mit bestimmten Gewichtungen erreicht werden kann. Die PI-Matrix und die Beta-Matrix werden als Werkzeuge eingeführt, die einen Unterraum von Mean-Reverting-Spreads bereitstellen und so statistische Arbitrage ermöglichen. Die Einbeziehung der Beta-Matrix in die Optimierung erleichtert die Identifizierung der optimalen Richtung innerhalb des Unterraums, was zu besseren Ergebnissen im Vergleich zur alleinigen Verwendung von Beta führt. Der Redner erwähnt auch sein Buch „A Signal Processing Perspective on Financial Engineering“, das als Einstiegspunkt für Signalverarbeitungsexperten dient, die sich für den Bereich Finanzen interessieren.

Gegen Ende des Videos werden verschiedene Handelsansätze im Bereich Financial Engineering untersucht. Der Referent unterscheidet zwischen Strategien, die aus kleinen Variationen und Trends Kapital schlagen, und solchen, die sich auf die Ausnutzung von Lärm konzentrieren. Diese beiden Familien von Anlagestrategien bieten unterschiedliche Möglichkeiten zur Erzielung von Gewinnen. Der Redner geht auch auf die Herausforderungen ein, die sich aus dem Mangel an Daten für die Anwendung von Deep-Learning-Techniken im Finanzwesen ergeben, da Deep Learning typischerweise erhebliche Datenmengen erfordert, die im Finanzkontext möglicherweise begrenzt sind. Darüber hinaus wird das Konzept der Schätzung von Vektordimensionen für mehr als zwei Aktien diskutiert, wobei der Referent Einblicke in verschiedene Ansätze gibt.

Im letzten Abschnitt geht der Redner auf die Frage der Marktbeherrschung großer Unternehmen und deren Auswirkungen auf den Finanzmarkt ein. Der Redner betont den potenziellen Einfluss, den große Unternehmen mit erheblichen finanziellen Ressourcen haben können, wenn sie erhebliche Investitionen tätigen. Diese Machtkonzentration wirft wichtige Überlegungen zur Marktdynamik und zum Verhalten anderer Marktteilnehmer auf.

Das Video geht kurz auf das Thema Auftragsausführung im Finanzwesen ein. Darin wird erklärt, dass es bei der Bearbeitung großer Aufträge gängige Praxis sei, diese in kleinere Teile aufzuteilen und sie schrittweise auszuführen, um Marktstörungen zu vermeiden. Dieser Aspekt des Finanzwesens erfordert komplizierte Optimierungstechniken und stützt sich häufig auf Prinzipien der Kontrolltheorie. Der Redner betont die mathematische Natur der Auftragsausführung und erwähnt die Existenz zahlreicher wissenschaftlicher Arbeiten zu diesem Thema.

Gegen Ende des Videos lädt der Redner das Publikum ein, während der Kaffeepause weitere Fragen zu stellen, und würdigt seine Anwesenheit und Teilnahme. Das Video dient als wertvolle Ressource und bietet Einblicke in die Anwendung der Signalverarbeitung in der Finanztechnik. Es bietet Perspektiven zur Verbesserung von Schätzungen, zur Optimierung von Portfolios und zur Erkennung von Marktregimen durch die Linse von Signalverarbeitungstechniken.

Insgesamt bietet das Video einen umfassenden Überblick über die verschiedenen Anwendungen der Signalverarbeitung im Financial Engineering. Es betont die Bedeutung der Modellierung von Aktienrenditen, Varianz und Kovarianz im Finanzwesen und geht gleichzeitig auf die Herausforderungen der Parameterschätzung, Überanpassung und die Einschränkungen traditioneller Finanzmodelle ein. Die Konzepte robuster Schätzung, Kointegration, Portfoliooptimierung und Sparsity-Techniken werden ausführlich besprochen. Indem der Redner die Parallelen zwischen Kommunikation und Signalverarbeitung im Finanzwesen hervorhebt, unterstreicht er die Relevanz und das Potenzial für die Zusammenarbeit zwischen diesen beiden Bereichen. Abschließend beleuchtet das Video Handelsstrategien, maschinelles Lernen im Finanzwesen und die Bedeutung der von großen Unternehmen beeinflussten Marktdynamik.

  • 00:00:00 Daniel Palomar, Professor in der Abteilung für Elektrotechnik, Elektronik und Computertechnik an der HKUST, diskutiert das Thema Financial Engineering und wie es zu Missverständnissen darüber kommt, was es ist. Palomar erklärt, dass die Signalverarbeitung in der Finanztechnik allgegenwärtig ist und verschiedene Themen wie Zufallsmatrixtheorie, Partikelfilter, Kalman-Filter, Optimierungsalgorithmen, maschinelles Lernen, Deep Learning, stochastische Optimierung und Zufallsbeschränkungen relevant sind. Er geht auch auf stilisierte Fakten über Finanzdaten ein und erklärt, dass Finanzdaten besondere Eigenschaften haben, die über verschiedene Märkte hinweg konsistent sind.

  • 00:05:00 Das Video erklärt, wie Finanzingenieure den Aktienmarkt anhand von Renditen anstelle von Preisen modellieren. Es gibt zwei Arten von Renditen: lineare und logarithmische Renditen, aber sie sind fast gleich, da es sich bei den Renditen normalerweise um kleine Zahlen handelt. Renditen können grafisch dargestellt werden, um zu sehen, ob sie stationär sind oder nicht, und die stilisierte Tatsache des Finanzwesens ist seine Nichtstationarität. Zu den anderen stilisierten Fakten gehören „Heavy Tails“, was bedeutet, dass die „Tails“ des historischen Rendite-Histogramms dick und nicht dünn wie bei einer Gaußschen Verteilung sind. Finanzingenieure müssen auch die Schiefe modellieren, insbesondere bei geringen Renditehäufigkeiten. Abschließend erklärt das Video das Konzept des Volatilitätsclusterings und seine Bedeutung für die Finanzmodellierung.

  • 00:10:00 Der Redner diskutiert die Bedeutung der Modellierung von Aktienrenditen im Finanzwesen. Sie erklären, dass die Volatilität eine entscheidende Rolle bei der Modellierung spielt, insbesondere bei der Modellierung der Standardabweichung oder Hüllkurve des Renditesignals. Der Redner stellt fest, dass das Rücksignal einem Sprachsignal ähnelt, und überlegt, ob es genügend Überschneidungen zwischen Finanzmodellierung und Sprachsignalverarbeitung gibt, um eine Zusammenarbeit anzuregen. In der Modellierung gibt es unterschiedliche Frequenzregime. Insbesondere die Hochfrequenzmodellierung erfordert aufgrund der großen Menge an zeitkritischen Daten teure Abonnements und leistungsstarke Computer. Der Abschnitt schließt mit der Erwähnung verschiedener Finanzmodellierungsmodelle wie dem IID-Modell und dem Faktormodell und geht auf die Bedeutung des Verständnisses von Korrelationen im Zeitverlauf bei der Modellierung ein.

  • 00:15:00 Der Redner diskutiert die Grenzen von Finanzmodellen, die sich nur auf die Modellierung von Renditen und nicht auf die Kovarianz oder Varianz von Renditen konzentrieren. Sie erklären, dass Sie möglicherweise Informationen und Strukturen verlieren, die andere erfassen können, um Geld zu verdienen, wenn Sie sich nur auf die Renditen konzentrieren. Anschließend stellt der Sprecher die Idee vor, die Varianz und Kovarianz der Renditen mithilfe eines Residuums zu modellieren, das aus zwei Faktoren besteht: einem normalisierten Zufallsterm mit Einheitsvarianz und einem Hüllkurventerm, der die Kovarianz der Residuen erfasst. Sie stellen fest, dass Modelle für das skalare Residuum gut etabliert sind, die Modellierung eines multivariaten Residuums mit einem Matrixkoeffizienten von 500 x 500 jedoch viel komplexere Modelle erfordert.

  • 00:20:00 Der Referent erklärt die Herausforderungen bei der Schätzung von Parametern mit nicht genügend Daten und zu vielen Parametern, was zu einer Überanpassung führt. Um dieses Problem zu lösen, ist es notwendig, eine Sparsität mit niedrigem Rang festzulegen, um das Vega-Modell zu analysieren und einige Einschränkungen zu formulieren. Der Redner stellt das Konzept der Robustheit vor, wobei wir der Ansicht sind, dass die Gauß-Verteilung aufgrund starker Tails und kleiner Stichprobenregime für das Financial Engineering nicht geeignet ist. Herkömmliche Stichprobenschätzer, die auf der Gaußschen Verteilung basieren, führen zu Schätzern mit schlechter Leistung. Um dieses Problem anzugehen, müssen wir alles neu formulieren, ohne eine Gaußsche Verteilung anzunehmen, und schwere Ausfälle können durch Schrumpfungs- oder Regularisierungsmethoden behoben werden, die in verschiedenen Branchen, einschließlich der Finanz- und Kommunikationsbranche, eingesetzt werden.

  • 00:25:00 Der Redner spricht über robuste Schätzungen, ein Werkzeug, das im Finanzbereich verwendet wird, um trotz verschiedener Ausreißer in den Daten genauere Schätzungen vorzunehmen. Der Sprecher erklärt, dass elliptische Verteilungen zur Modellierung stark ausgeprägter Verteilungen verwendet werden können und dass die Gewichte jeder Stichprobe durch eine iterative Methode berechnet werden können. Darüber hinaus erklärt der Sprecher den Tyler-Schätzer, der Proben normalisiert und die PDF der normalisierten Probe schätzt, sodass die Form des Schwanzes entfernt wird. Dieser Schätzer kann zusammen mit robusten Schätzern verwendet werden, um eine genauere Schätzung von Kovarianzmatrizen zu ermöglichen. Anschließend erklärt der Referent, wie Regularisierungsterme einbezogen und Algorithmen entwickelt werden können, um ein besseres Verständnis der Beobachtungen zu erhalten. Dabei wird ein Diagramm dargestellt, das den Fehler bei der Schätzung von Kovarianzmatrizen gegenüber der Anzahl der Stichproben zeigt.

  • 00:30:00 Der Redner diskutiert Finanzkonzepte wie Wolfe-Schätzung, Tyler-Schätzung und Kointegration. Die Wolfe-Schätzung stellt eine große Verbesserung dar, geht aber immer noch von einer Gaußschen Verteilung aus. Die Tyler-Schätzung ist eine schöne Alternative, erfordert jedoch mindestens 40 Stichproben für ein 14-dimensionales Modell. Kointegration, ein spezifisches Konzept im Finanzwesen, ist die Idee, dass der relative Preis zweier Aktien möglicherweise leichter vorherzusagen ist als der Einzelpreis, sodass Händler durch Paarhandel Geld verdienen können. Der Unterschied zwischen Korrelation und Kointegration besteht darin, dass es bei der Korrelation um kurzfristige Variationen geht, während es bei der Kointegration eher um langfristiges Verhalten geht. Der Referent veranschaulicht diese Konzepte mit verschiedenen Darstellungen und Grafiken.

  • 00:35:00 Der Referent erklärt das Konzept eines gemeinsamen Trends und wie es mit dem Spread-Handel zusammenhängt. Der gemeinsame Trend ist ein Random Walk, bei dem sich zwei Aktien mit einer gemeinsamen Komponente teilen. Durch Subtrahieren des gemeinsamen Trends von der Spanne zwischen den Aktienkursen erhält der Händler ein Residuum, das den Mittelwert Null hat. Dies macht es zu einem guten Indikator für die Umkehrung des Mittelwerts, eine Eigenschaft, die für den Spread-Handel verwendet werden kann. Der Händler legt zwei Schwellenwerte für den Spread fest und kauft, wenn er unterbewertet ist, und verkauft, wenn er sich erholt, und verdient so Geld mit der Differenz. Zur Schätzung des Gammas kann die Methode der kleinsten Quadrate verwendet werden, dazu müssen jedoch die beiden kointegrierten Bestände und der Wert des Gammas ermittelt werden. Der Referent zeigt ein Beispiel für ein reales Spread-Trading-Szenario.

  • 00:40:00 Der Redner erklärt, wie Kalman ins Spiel kommt, wenn es zu einem Regimewechsel kommt und die Kointegration aufgrund eines sich ändernden Gammas verloren geht, und wie er sich an diese Variationen anpasst. Der Redner verwendet zwei Aktien als Beispiel, um die Verfolgung von MU und Gamma mithilfe der Methode der kleinsten Quadrate, Kalman und einer rollierenden Methode der kleinsten Quadrate zu vergleichen, und kommt zu dem Schluss, dass Kalman am besten funktioniert. Die grüne Linie für die Kalman-Verfolgung bleibt bei etwa Null, während die schwarze Linie für die kleinsten Quadrate auf und ab geht, was zu einem Geldverlust für einen Zeitraum von zwei Jahren führt. Daher schlägt der Redner vor, Kalman für robuste Schätzungen im Financial Engineering zu verwenden.

  • 00:45:00 Der Referent vergleicht die Leistung der Trainingsmodelle der kleinsten Quadrate und des Kalman und kommt zu dem Schluss, dass die Kalman-Methode im Financial Engineering gut funktioniert, während das Modell der kleinsten Quadrate ab einem bestimmten Punkt nachlässt. Er erörtert die Verwendung von Hidden-Markov-Modellen zur Erkennung von Marktregimen, die dazu beitragen, Anlagestrategien je nachdem, ob sich der Markt in einem guten oder schlechten Zustand befindet, zu ändern. Darüber hinaus untersucht er das Konzept der Portfoliooptimierung und erklärt, dass Portfolios Vektoren mit Gewichtungen sind, die Anlegern sagen, wie viel Geld sie in eine Aktie investieren sollen. Die erwartete Rendite und die Varianz der Portfoliorendite sind ebenfalls wichtige Faktoren für die Gestaltung von Portfolios. Der Referent zieht einen Vergleich mit Beamforming- und linearen Filtermodellen, die ähnliche Signalmodelle zur Portfoliooptimierung nutzen.

  • 00:50:00 Der Redner diskutiert, wie Kommunikations- und Signalverarbeitungstechniken im Finanzwesen angewendet werden können. Das Konzept des Signal-Rausch-Verhältnisses in der Kommunikation ähnelt dem Sharpe-Verhältnis im Finanzwesen, das ein Verhältnis der Portfoliorendite zur Volatilität darstellt. Die Portfoliooptimierung, insbesondere das Markowitz-Portfolio, bei dem es um die Maximierung der erwarteten Rendite und die Minimierung der Varianz geht, wird als einfaches konvexes Problem eingeführt. Der Redner stellt außerdem fest, dass das Markowitz-Portfolio in der Praxis aufgrund seiner Empfindlichkeit gegenüber Schätzfehlern und der Abhängigkeit von der Varianz als Risikomaß nicht häufig verwendet wird. Sparsity-Techniken aus der Signalverarbeitung können jedoch auf die Indexverfolgung angewendet werden, wobei statt des Kaufs von Hunderten von Aktien zur Nachbildung eines Index nur eine Teilmenge der Aktien verwendet wird. Abschließend schlägt der Redner eine Verbesserung der Sparsity-Techniken bei der Fehlerverfolgung vor.

  • 00:55:00 Der Referent spricht über „Purse Trading“ und den Einsatz von Portfolios im Handel. Anhand des VaR-Modells (Value at Risk) erklärt der Referent, wie Portfoliohandel mit zwei Aktien und einem Portfolio aus zwei Komponenten mit Gewicht eins und minus Gamma durchgeführt werden kann. Anschließend stellt der Redner die PI-Matrix und die Beta-Matrix vor, die einen Unterraum von Mean-Reverting-Spreads ergeben, die für statistische Arbitrage verwendet werden können. Die Verwendung der Beta-Matrix bei der Optimierung hilft dabei, die beste Richtung innerhalb des Unterraums zu finden und liefert bessere Ergebnisse als nur die alleinige Verwendung der magischen Beta. Der Redner wirbt auch für sein Buch „A Signal Processing Perspective on Financial Engineering“, das einen Einstiegspunkt für Signalverarbeitungsleute darstellt, die sich für den Finanzbereich interessieren.

  • 01:00:00 Der Redner diskutiert verschiedene Handelsansätze im Bereich Financial Engineering, einschließlich des Spread-Handels unter Verwendung des Endes des Preistrends und kleiner Variationen. Er erklärt, dass es zwei Familien von Anlagestrategien gibt: diejenigen, die auf der Grundlage des Trends und kleiner Schwankungen Geld verdienen, und solche, die mit dem Rauschen Geld verdienen, indem sie den Trend bei der Bildung eines Spreads ignorieren. Der Referent geht auch auf maschinelles Lernen im Finanzwesen ein und erklärt, dass der Mangel an Daten ein Problem für den Einsatz von Deep Learning im Finanzwesen darstellt, da Deep Learning eine große Datenmenge erfordert, die im Finanzwesen oft begrenzt ist. Abschließend erörtert er den Begriff der Kointegration und erläutert verschiedene Ansätze zur Schätzung von Vektordimensionen für mehr als zwei Bestände.

  • 01:05:00 Der Redner geht auf das Problem ein, dass große Unternehmen zu viel Geld haben, was den Markt antreiben kann, wenn sie investieren. Sie erwähnen auch das Thema der Auftragsausführung im Finanzwesen, wo große Aufträge in kleine Stücke zerlegt und langsam versendet werden, um Marktstörungen zu vermeiden. Dieser Finanzzweig erfordert viel Optimierung und kann sehr mathematisch werden, da es viele Artikel zu diesem Thema in der Kontrolltheorie gibt. Der Redner schlägt vor, in der Kaffeepause weitere Fragen zu stellen und dankt dem Publikum für seine Anwesenheit.
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
  • 2019.10.31
  • www.youtube.com
Plenary Talk by Prof. Daniel P Palomar on "Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, HMM, Optimization, et Cetera"Plen...
 

„Kalman Filtering with Applications in Finance“ von Shengjie Xiu, Kurs-Tutorial 2021



„Kalman Filtering with Applications in Finance“ von Shengjie Xiu, Kurs-Tutorial 2021

Im Video mit dem Titel „Kalman Filtering with Applications in Finance“ wird das Konzept zustandsbasierter Modelle und ihre Anwendung im Finanzwesen untersucht. Der Referent stellt den Kalman-Filter als vielseitige Technik zur Vorhersage des Zustands eines Systems auf der Grundlage früherer Beobachtungen und zur Korrektur der Vorhersage anhand aktueller Beobachtungen vor. Das Video behandelt auch den Common Smoother und den EM-Algorithmus, die zur Analyse historischer Daten und zum Erlernen der Parameter eines staatsbasierten Finanzmodells verwendet werden.

Das Video veranschaulicht zunächst das Konzept zustandsbasierter Modelle am Beispiel eines Autos, das entlang einer Achse mit versteckten Positionen fährt. Der Moderator erklärt, wie zustandsbasierte Modelle aus Übergangs- und Beobachtungsmatrizen bestehen, die den Zustand in den beobachteten Raum abbilden. Diese Modelle können mehrere Zustände oder Sensoren gleichzeitig verarbeiten, die Positionen aufzeichnen. Der verborgene Zustand folgt einer Markov-Eigenschaft, was zu einer eleganten Form der Wahrscheinlichkeit führt.

Anschließend befasst sich der Referent mit dem Kalman-Filteralgorithmus und seiner Anwendung im Finanzwesen. Der Algorithmus umfasst Vorhersage- und Korrekturschritte, wobei die Unsicherheit durch die Varianz einer Gaußschen Funktion dargestellt wird. Als entscheidender Faktor wird der gemeinsame Gewinn hervorgehoben, der das Gewicht zwischen Vorhersage und Beobachtung bestimmt. Die Einfachheit und Recheneffizienz des Kalman-Filters werden hervorgehoben.

Es wird ein Experiment besprochen, das die Zuverlässigkeit von GPS- und Kilometerzählerdaten bei der Vorhersage des Standorts eines Autos vergleicht und die Wirksamkeit des Kalman-Filters demonstriert, selbst wenn bestimmte Datenquellen unzuverlässig sind. Es ist jedoch zu beachten, dass der Kalman-Filter für lineare Gauß-stabilisierte Modelle konzipiert ist, was seine Anwendbarkeit einschränkt.

Das Video stellt außerdem den Common Smoother vor, der eine gleichmäßigere Leistung als der Common Filter bietet und das Abwärtstrendproblem des Filters löst. Die Notwendigkeit, Parameter im Finanzwesen zu trainieren, und das Konzept zeitveränderlicher Parameter werden diskutiert. Der Expectation-Maximization (EM)-Algorithmus wird als Mittel zum Erlernen der Parameter vorgestellt, wenn die verborgenen Zustände unbekannt sind.

Der Referent erläutert den EM-Algorithmus, der aus E-Schritt und M-Schritt besteht, um die Posteriorverteilungen latenter Zustände zu berechnen und die Zielfunktion für die Parameterschätzung zu optimieren. Hervorgehoben wird die Anwendung des staatsbasierten Modells im Finanzwesen, insbesondere für die Zerlegung des Intraday-Handelsvolumens.

Als Lösungen für den Umgang mit nichtlinearer Funktionalität und Rauschen werden verschiedene Varianten des Kalman-Filters genannt, etwa der erweiterte Kalman-Filter und der unscented Kalman-Filter. Partikelfilter werden als Berechnungsmethode für komplexe Modelle eingeführt, die nicht analytisch gelöst werden können.

Das Video schließt mit der Erörterung der Grenzen analytischer Lösungen und der Notwendigkeit rechnerischer Methoden wie Monte-Carlo-Methoden. Der Redner erkennt die anspruchsvolle Natur dieser Prozesse an, hebt jedoch die faszinierenden Aspekte der Kalman-Filterung hervor.

Insgesamt bietet das Video eine detaillierte Untersuchung zustandsbasierter Modelle, des Kalman-Filters und ihrer Anwendungen im Finanzwesen. Es behandelt die grundlegenden Konzepte, algorithmischen Schritte und praktischen Überlegungen und erwähnt auch fortgeschrittene Varianten und Berechnungsmethoden. Der Redner betont die Relevanz und Leistungsfähigkeit zustandsbasierter Modelle bei der Offenlegung verborgener Informationen und betont die kontinuierlichen Fortschritte auf diesem Gebiet.

  • 00:00:00 Der Videomoderator führt das Konzept zustandsbasierter Modelle anhand eines einfachen Beispiels eines Autos ein, das entlang einer Achse mit versteckten Positionen fährt, die als „Z-Achse“ bezeichnet werden. Die verborgenen Zustände, die in der Zeit t als „jt“ bezeichnet werden, sind dem Beobachter unbekannt, genau wie auf dem Aktienmarkt, wo der Zustand des Marktes verborgen ist. Der Referent beschreibt zwei Modelle im Zusammenhang mit zustandsbasierten Modellen, den gemeinsamen Filter und den gemeinsamen Glätter, und wie man die Parameter innerhalb des zustandsbasierten Modells automatisch lernt. Abschließend diskutiert das Video die Anwendungen staatsbasierter Modelle im Finanzwesen. Es werden die Zustandsgleichung und die Beobachtungsgleichung eingeführt, wobei der Zustand nur vom vorherigen Knoten abhängt und jede Beobachtung auf relevanten verborgenen Zuständen beruht.

  • 00:05:00 Der Referent erklärt zustandsbasierte Modelle und wie sie aus Übergangs- und Beobachtungsmatrizen bestehen, die den Zustand in den beobachteten Raum abbilden, der unterschiedlich sein kann. Der Zustand und die Beobachtung können Vektoren mit mehreren Zuständen oder Sensoren sein, die die Position gleichzeitig aufzeichnen, was eine allgemeinere Form ermöglicht. Der verborgene Zustand folgt einer Markov-Eigenschaft, was zu einer eleganten Form der Wahrscheinlichkeit führt. Der Referent erläutert die Konzepte von Vorhersage, Filterung und Glättung und wie sie kombiniert werden, um den Vorwärtsalgorithmus im Kalman-Filter zu erstellen. Der Kalman-Filter besteht aus zwei Komponenten: Vorhersage und Korrektur. Er wurde zuerst von Kalman entwickelt und im Apollo-Projekt zur Verfolgung von Raumfahrzeugen verwendet. Mittlerweile ist es in vielen Bereichen weit verbreitet, unter anderem bei Zeitreihenprognosen im Finanzwesen.

  • 00:10:00 Der Kalman-Filter-Algorithmus wird vorgestellt und seine Anwendung im Finanzwesen diskutiert. Der Algorithmus beinhaltet die Vorhersage des Zustands eines Systems auf der Grundlage früherer Beobachtungen und die anschließende Korrektur der Vorhersage anhand aktueller Beobachtungen. Die Unsicherheit in der Vorhersage wird durch die Varianz einer Gaußschen Funktion dargestellt, und die Korrektur erfolgt durch Multiplikation der Vorhersage- und Beobachtungs-Gaußschen Verteilungen. Hervorgehoben wird die Bedeutung des gemeinsamen Gewinns, der das Gewicht zwischen der Vorhersage und der Beobachtung bestimmt. Der Algorithmus erweist sich als recht einfach und umfasst nur wenige Codezeilen.

  • 00:15:00 Der Dozent bespricht ein Experiment, bei dem die Zuverlässigkeit von GPS und dem Kilometerzähler in einer Zustandsgleichung verglichen wurden. Die Ergebnisse zeigten, dass der Kalman-Filter-Ansatz bei der Vorhersage des Standorts eines Autos erfolgreich war, selbst wenn das GPS auf bestimmten Abschnitten der Fahrt nicht zuverlässig war. Der Dozent diskutierte auch die Vor- und Nachteile des Kalman-Filters und verwies auf seine Recheneffizienz und die Tatsache, dass er in Echtzeitanwendungen weit verbreitet ist. Eine seiner Einschränkungen besteht jedoch darin, dass es für lineare Gauß-stabilisierte Modelle konzipiert ist. Der Dozent ging auch kurz auf den Common Smoother und seine Verwendung bei der Analyse historischer Daten ein.

  • 00:20:00 Die Leistungsfähigkeit des gängigen Glätters im Finanzbereich wird am Beispiel eines durch einen Tunnel fahrenden Autos dargestellt. Der gemeinsame Glätter bietet eine wesentlich gleichmäßigere Leistung als der übliche Filter und löst das Abwärtstrendproblem des Filters, wodurch eine bessere Näherung erzielt wird. Bevor der gemeinsame Glätter ausgeführt wird, muss die gemeinsame Vorwärtsfilterfunktion implementiert werden. Der Abschnitt behandelt auch das Konzept der Parameter im Finanzwesen, die Notwendigkeit, sie zu trainieren, und wie sie zeitlich variieren können. Es wird die Lerntheorie eingeführt, einschließlich der Maximum-Likelihood-Schätzung und des Erwartungsmaximierungsalgorithmus zum Finden von Parametern, wenn die verborgenen Zustände unbekannt sind. Der EM-Algorithmus besteht aus zwei Schritten, dem Erwartungsschritt und dem Maximierungsschritt, um die Posteriorverteilungen latenter Zustände und den erwarteten Wert der Schätzung zu berechnen.

  • 00:25:00 Der Redner diskutiert den EM-Algorithmus und wie er zum Erlernen der Parameter eines staatsbasierten Finanzmodells verwendet werden kann. Der Algorithmus besteht aus zwei Schritten: dem E-Schritt, bei dem die A-Posteriori-Wahrscheinlichkeit mithilfe des gemeinsamen Filters und Glätters berechnet wird, und dem M-Schritt, bei dem die Zielfunktion maximiert wird, um die neuen Schätzparameter zu finden. Die Parameter werden kontinuierlich in einer Schleife durchlaufen und optimiert, bis sie konvergieren. Der Redner erklärt auch, wie dieses Modell auf das Finanzwesen angewendet werden kann, insbesondere im Hinblick auf die Zerlegung des Intraday-Handelsvolumens, bei der die täglichen und periodischen Komponenten mithilfe des Modells getrennt werden. Der Sprecher weist darauf hin, dass die Implementierung des Modells mithilfe vorhandener Pakete wie Markierungen in R unkompliziert ist.

  • 00:30:00 Der Referent diskutiert das im Finanzwesen verwendete Zustandsmodell, das aus einem verborgenen Zustand mit täglichen und periodischen Komponenten und einem Beobachtungsmodell besteht, das die täglichen und periodischen Bedingungen zum Handelsvolumen kombiniert. Das Modell wird mit einem Kalman-Filter und Glättungsfilter analysiert und der EM-Algorithmus wird verwendet, um die Parameter effizient zu lernen. Das Modell kann auch für Zeitreihenprognosen verwendet werden, indem die zukünftige tägliche Laufzeit vorhergesagt und die saisonale Laufzeit gleich gehalten wird. Das zustandsbasierte Modell ist hilfreich beim Auffinden versteckter Informationen und kann auch auf andere Finanzanwendungen angewendet werden.

  • 00:35:00 Der Redner diskutiert die Leistungsfähigkeit zustandsbasierter Modelle und wie sie verborgene Informationen in Beobachtungen aufdecken können. Der Kalman-Filter ist eine vielseitige und nützliche Technik, die in praktisch jedem Bereich, einschließlich der Finanzen, angewendet werden kann. Während der Kalman-Filter für einfachere Fälle konzipiert ist, können für kompliziertere Modelle auch andere Varianten verwendet werden. Der erweiterte Kalman-Filter und der nicht parfümierte Kalman-Filter sind zwei Beispiele für Varianten, die mit nichtlinearer Funktionalität und Rauschen umgehen können. Darüber hinaus werden Partikelfilter eingesetzt, wenn das Modell für analytische Lösungen zu kompliziert ist. Obwohl der Kalman-Filter in den 1960er Jahren entwickelt wurde, bleibt er in einem ganz bestimmten Fall eine optimale Lösung für das zustandsbasierte Modell mit linearen Übergangsfunktionen und Gaußschem Rauschen.

  • 00:40:00 Der Redner erörtert die Grenzen der analytischen Lösung von Integralen und die Notwendigkeit umfangreicher Rechenmethoden wie Monte-Carlo-Methoden für bestimmte Aufgaben wie die Partikelfilterung. Er weist darauf hin, dass dies in der Vergangenheit nicht möglich war, dank des aktuellen Stands der Technik jedoch nun möglich sei. Der Redner erwähnt auch, dass es sich zwar um einen anspruchsvollen Prozess, aber um ein faszinierendes Thema handelt, und bezieht sich dabei auf die Kalman-Filterung.
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
  • 2021.05.20
  • www.youtube.com
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, tutorial in course IEDA3180 - Data-Driven Portfolio Optimization, Spring 2020/21.This talk g...
 

„Thrifting Alpha: Ensemble-Lernen nutzen, um müde Alpha-Faktoren wiederzubeleben“ von Max Margenot


„Thrifting Alpha: Ensemble-Lernen nutzen, um müde Alpha-Faktoren wiederzubeleben“ von Max Margenot

Im Video mit dem Titel „Thrifting Alpha: Using Ensemble Learning To Enhance Alpha Factors“ teilt Max Margenot, Datenwissenschaftler bei Quantopian, seine Erkenntnisse über die Nutzung von Ensemble-Lernen zur Verbesserung der Leistung von Alpha-Faktoren. Margenot betont die Bedeutung des Aufbaus eines Portfolios durch die Kombination unabhängiger Signale, was zu verbesserten und neuartigen Ergebnissen führt. Er stellt das Konzept der Faktormodellierung vor, geht auf die Komplexität der Bewertung der Modellleistung ein und untersucht die kreative Nutzung von Ensemble-Lernen für eine effiziente Asset-Allokation.

Margenot stellt zunächst das Konzept des „Thrifting Alpha“ vor, das darauf abzielt, müde Alpha-Faktoren durch Ensemble-Lernen wiederzubeleben. Alpha-Faktoren stellen einzigartige und interessante Renditen im Finanzwesen dar und unterscheiden sie von Risikofaktoren wie Marktrenditen. Ziel ist es, durch die Kombination unabhängiger Signale ein Portfolio zu erstellen, um neue und verbesserte Ergebnisse zu erzielen. Er gibt außerdem einen kurzen Überblick über das Capital Asset Pricing Model und erklärt, wie Quantopian als kostenlose Plattform für quantitative Forschung dient.

Faktormodellierung ist ein zentraler Schwerpunkt von Margenots Präsentation. Er hebt hervor, wie sich die Rendite eines Portfolios aus Marktrenditen und weiteren ungeklärten Faktoren zusammensetzt. Durch die Einbeziehung klassischer Faktoren wie „Klein-Groß“ (Unternehmen mit geringer Marktkapitalisierung im Vergleich zu Unternehmen mit großer Marktkapitalisierung) und „Hoch minus Tief“ für das Buch-Kurs-Verhältnis kann das Modell das Marktrisiko bewerten und seine Analyse auf andere Renditeströme ausweiten. Zu den Zielen der Faktormodellierung gehören die Diversifizierung unkorrelierter Signale, die Verringerung der Gesamtvolatilität des Portfolios und die Steigerung der Rendite.

Der Redner erörtert die wachsende Beliebtheit der Faktormodellierung bei Portfoliokonstruktionsprozessen und zitiert eine Blackrock-Umfrage, aus der hervorgeht, dass 87 % der institutionellen Anleger Faktoren in ihre Anlagestrategien integrieren. Margenot beschreibt die fünf Haupttypen von Faktoren, um die sich Portfolios drehen: Wert, Momentum, Qualität, Volatilität und Wachstum. Er erklärt auch das Konzept des Long/Short-Equity, bei dem sowohl Long- als auch Short-Positionen auf der Grundlage von Faktorwerten eingegangen werden. Ziel ist es, mit diesen Engagements ein ausgewogenes Portfolio aufzubauen.

Margenot befasst sich intensiv mit dem Universum, in dem der Algorithmus angewendet wird, und betont, wie wichtig es ist, das statistische Modell mit der Ausführung von Geschäften in Einklang zu bringen. Wenn die Geschäfte aufgrund von Einschränkungen, wie z. B. Leerverkaufsbeschränkungen, nicht ausgeführt werden können, liegt ein Verstoß gegen das Mandat der Strategie vor. Margenot bevorzugt Dollar-neutrale Strategien, die letztendlich marktneutral sind. Er konstruiert Portfolios, bei denen nur die höchsten und niedrigsten Werte von Bedeutung sind, mit dem Ziel, die höchsten erwarteten Renditen zu erzielen. Die Kombination mehrerer Faktoren erfordert die Zusammensetzung eines kombinierten Rangs, der für Flexibilität innerhalb des Portfolios sorgt.

Die Beurteilung der Modellleistung und der Umgang mit unerklärlichen Renditen stellen Herausforderungen dar, wie Margenot erklärt. Er erörtert die Bedeutung eines zuverlässigen Universums mit ausreichender Liquidität und stellt das Q 1500-Universum vor, das darauf ausgelegt ist, unerwünschte Elemente herauszufiltern. Anstatt Preise vorherzusagen, betont Margenot, wie wichtig es ist, zu verstehen, welche Aktien besser sind als andere, und den relativen Wert zu erfassen. Er demonstriert die Verwendung der Pipeline-API innerhalb ihres Frameworks zur Berechnung des Impulses und liefert Beispiele für Vektorberechnungen.

Der Redner konzentriert sich auf die Schaffung eines Momentumfaktors, der sowohl langfristige als auch kurzfristige Trends berücksichtigt. Margenot standardisiert Renditen und bestraft den langfristigen Aspekt, um dem Risiko kurzfristiger Umkehrungen zu begegnen. Er nutzt ein Paket namens Alpha Ones, um das Signal über verschiedene Zeitskalen hinweg auszuwerten und ein Portfolio unter Verwendung des Momentum-Faktors zu erstellen. Margenot betont die Bedeutung der Festlegung eines angemessenen Zeitrahmens und erörtert die Faktoren, mit denen er arbeitet. Er beleuchtet den Arbeitsablauf bei der Definition eines Universums, Alpha-Faktoren und der Kombination von Alphas zum Aufbau eines Long/Short-Aktienportfolios.

Margenot diskutiert die Kombination verschiedener Alpha-Faktoren und deren Portfoliokonstruktion und betont, dass die Kombination unabhängiger Signale idealerweise zu einem stärkeren Gesamtsignal führen sollte. Er stellt dynamische und statische Aggregationsmethoden zur Kombination von Faktoren und zum Aufbau eines Portfolios vor. Bei der statischen Aggregation handelt es sich um ein gleichgewichtetes Portfolio verschiedener Faktoren, während bei der dynamischen Aggregation die Gewichte der Faktoren basierend auf ihrer Leistung angepasst werden. Die Standardisierung von Faktoren ist unerlässlich, um die Vergleichbarkeit innerhalb jedes einzelnen Faktors sicherzustellen.

Ensemble-Lernen ist ein zentrales Thema, das Margenot diskutiert. Er erklärt, dass es eine Herausforderung sein kann, einen konsistent aufwärtsgerichteten Trainingsalgorithmus zu finden, da dieser über die einfache Beta hinausgehen sollte. Um diese Einschränkung zu überwinden, nutzt er Ensemble-Lernen, um mehrere Einzelsignale zu aggregieren. Margenot nutzt speziell AdaBoost, eine bekannte Technik beim Ensemble-Lernen, um Entscheidungsbäume auf der Grundlage von sechs Merkmalen zu trainieren. Diese Entscheidungsbäume sagen voraus, ob ein Vermögenswert steigen oder fallen wird, und die endgültige Vorhersage wird durch die Mehrheitsausgabe von tausend Entscheidungsbäumen bestimmt. Dieser Ansatz ermöglicht genauere und robustere Prognosen.

Margenot geht weiter auf die Bewertung von Signal-Alpha ein, indem er müde Alpha-Faktoren durch Ensemble-Lernen wiederbelebt. Er trainiert über einen Monat hinweg Entscheidungsbäume und versucht, Renditen vorherzusagen oder festzustellen, ob der Markt in Zukunft steigen oder fallen wird. Indem er die Leistung der Klassifikatoren aggregiert, extrahiert er Merkmalswichtigkeiten aus der gewichteten Summe der Entscheidungsbäume und wertet die Signal-Alpha-Linse aus. Margenot erkennt jedoch die Notwendigkeit an, Provisionen und Slippage in den Bewertungsprozess einzubeziehen, da diese die Endergebnisse erheblich beeinflussen können.

Die Einbeziehung von Provisions- und Slippage-Überlegungen in Algorithmen ist ein wesentlicher Aspekt, den Margenot hervorhebt. Er betont, dass die realen Handelskosten berücksichtigt werden sollten, um die Lebensfähigkeit der Signale sicherzustellen. Er demonstriert die potenziellen negativen Renditen und Drawdowns in einem Backtester aufgrund des begrenzten Trainingsfensters für einen Klassifikator für maschinelles Lernen und der hohen Fluktuationsrate. Margenot schlägt vor, alternative Ensemble-Lernmethoden oder Plattformimplementierungen zu erkunden, um die Leistung in Zukunft möglicherweise zu verbessern. Er erwähnt auch die Tools, die er für die Alpha-Faktor-Analyse und die Portfolioanalyse verwendet hat.

Im gesamten Video stellt Margenot verschiedene Tools und Ressourcen vor, die bei der Implementierung von Ensemble-Lerntechniken hilfreich sein können. Er empfiehlt, die Zipline-Backtesting-Engine auszuprobieren und die Quantiopian-Plattform zu nutzen, die den Zugriff darauf ermöglicht. Margenot schlägt den Einsatz von Scikit-learn und dem Ensembles-Paket vor, die für maschinelles Lernen, Statistiken und Klassifikatoren wertvoll sind. Er erwähnt auch, dass er Vorträge, Algorithmen und Vorlagenlösungen auf seinem GitHub teilt und so Datenwissenschaftlern und Händlern freien Zugang zu seinem Fachwissen bietet.

Gegen Ende der Präsentation diskutiert Margenot den Prozess der Überarbeitung vorhandener Alpha-Faktoren mithilfe von Ensemble-Lernen. Er betont, dass ein Alpha-Faktor, auch wenn er zunächst keine positiven Ergebnisse liefert, verbessert werden kann. Er betont die Bedeutung der Pipeline bei der Definition von Berechnungen und erklärt, wie Trainingskomponenten auf der Grundlage historischer Daten es ermöglichen, Marktbewegungen 20 Tage im Voraus vorherzusagen. Während die Kreuzvalidierung bei historischen Daten eine Herausforderung darstellen kann, schlägt Margenot als Workaround ein Training im Voraus und Vorhersagen auf dem nächsten Datensatz vor.

Abschließend diskutiert Margenot die praktischen Aspekte der Implementierung von Ensemble-Lernen zur Verbesserung von Alpha-Faktoren. Er empfiehlt, den Ensemble-Klassifikator über einen längeren Zeitraum zu trainieren und auch über einen längeren Zeitraum Vorhersagen zu treffen. Er schlägt vor, ein Faktorgewichtungsschema und andere Einschränkungen zu verwenden, um Ressourcen auf verschiedene Strategien aufzuteilen. Margenot plädiert dafür, ein einziges Modell für alle Interpreter in der Pipeline zu trainieren und jeden Faktor als Teil eines einheitlichen Modells zu behandeln. Er erwähnt auch humorvoll die Möglichkeit, dass Faktoren das Gegenteil ihres beabsichtigten Zwecks bewirken, indem sie ein negatives Vorzeichen hinzufügen, und betont, dass dies selten vorkommt.

Zusammenfassend bietet das Video von Max Margenot wertvolle Einblicke in den Bereich des Ensemble-Lernens und seine Anwendung bei der Verbesserung von Alpha-Faktoren. Durch die Kombination unabhängiger Signale und den Einsatz von Ensemble-Lerntechniken können Datenwissenschaftler und Händler ihre Anlagestrategien durch fortschrittliche Ansätze des maschinellen Lernens optimieren. Die praktischen Ratschläge, Demonstrationen und empfohlenen Tools von Margenot bieten Orientierung für diejenigen, die Ensemble-Lernen für eine genauere und profitablere Entscheidungsfindung bei Handelsstrategien nutzen möchten.

  • 00:00:00 In diesem Abschnitt stellt Max Margenot, Datenwissenschaftler bei Quantopian, das Konzept des „Drifting Alpha“ vor, das darauf abzielt, müde Alpha-Faktoren durch Ensemble-Lernen wiederzubeleben. Er erklärt, dass sich Alpha-Faktoren auf neuartige und interessante Renditen im Finanzbereich beziehen, während Risikofaktoren die üblichen Renditen sind, mit denen jeder vertraut ist, beispielsweise vom Markt. Das Ziel besteht darin, durch die Kombination unabhängiger Signale ein Portfolio zu erstellen, um etwas Neues und bessere Ergebnisse zu erzielen. Außerdem erklärt er kurz das Capital Asset Pricing Model und wie Quantopian als kostenlose Plattform für quantitative Forschung funktioniert.

  • 00:05:00 In diesem Abschnitt stellt der Referent die Idee eines Faktormodells vor, das versucht, die Risiken eines Portfolios zu verstehen. Der Referent erklärt, dass sich die Rendite eines Portfolios aus den Renditen des Marktes und etwas anderem zusammensetzt, das neu und unerklärlich ist. Zu den klassischen Faktoren, die einem Faktormodell hinzugefügt werden, gehören „Small-Big“, was sich auf Unternehmen mit kleiner Marktkapitalisierung im Vergleich zu Unternehmen mit großer Marktkapitalisierung bezieht, und „High minus Low“ für das Buch-Kurs-Verhältnis. Durch die Bewertung des Marktrisikos und das Hinzufügen weiterer Faktoren kann das Modell erweitert und das Risiko gegenüber anderen Renditeströmen untersucht werden. Letztendlich sind die Ziele der Faktormodellierung die Diversifizierung unkorrelierter Signale, die Verringerung der Volatilität im Gesamtportfolio und die Steigerung der Rendite.

  • 00:10:00 In diesem Abschnitt erörtert der Referent, wie die Faktormodellierung in Portfoliokonstruktionsprozessen immer häufiger vorkommt. Laut einer Blackrock-Umfrage beziehen 87 % der institutionellen Anleger Faktoren in ihren Anlageprozess ein. Die fünf wichtigsten Arten von Faktoren, um die sich Portfolios drehen, sind Wert, Momentum, Qualität, Volatilität und Wachstum. Der Redner spricht auch über Long/Short-Aktien, bei denen es darum geht, bei einigen Aktien Long-Positionen und bei anderen Short-Positionen einzugehen und dabei den Faktorwert zu nutzen, um zu bestimmen, wo Long- oder Short-Positionen eingehen. Letztendlich besteht das Ziel darin, diese Engagements zur Bildung eines Portfolios zu nutzen.

  • 00:15:00 In diesem Abschnitt diskutiert Max Margenot das Universum, in dem der Algorithmus angewendet wird. Der Algorithmus wendet ein statistisches Modell an und führt Trades entsprechend dem Modell aus. Wenn die Geschäfte aufgrund von Einschränkungen nicht durchgeführt werden können, beispielsweise weil keine Leerverkäufe möglich sind, liegt ein Verstoß gegen den Auftrag der Strategie vor. Margenot bevorzugt Dollar-neutrale Strategien, die im Allgemeinen marktneutral sind, und baut Portfolios auf, bei denen nur die höchsten und niedrigsten Werte von Bedeutung sind, um die höchsten erwarteten Renditen zu erzielen. Die Kombination mehrerer Faktoren erfordert eine Zusammensetzung mit einem kombinierten Rang, der viel Spielraum bietet und deshalb von ihm speziell auf diese Weise definiert wird.

  • 00:20:00 In diesem Abschnitt erörtert der Redner die Herausforderungen bei der Bewertung der Leistung eines Modells und wie unerklärliche Renditen entmutigender sein können als erklärte Verluste oder Drawdowns. Er spricht über die Bedeutung eines zuverlässigen Universums mit ausreichender Liquidität und darüber, wie das Q 1500-Universum geschaffen wurde, um unerwünschte Elemente herauszufiltern. Der Redner erklärt auch, wie schwierig es ist, Preise zu berechnen, und anstatt Preise vorherzusagen, konzentriert er sich darauf, zu verstehen, welche Aktien besser sind als andere. Anschließend erklärt er den Begriff des relativen Werts und erklärt, dass es wichtiger ist, ihn zu erfassen, als sich in einem Aufwärts- oder Abwärtstrend des Marktes zu befinden. Abschließend definiert er ein Beispiel für einen Vektor und wie er die Pipeline-API innerhalb ihres Frameworks zur Berechnung des Impulses verwendet.

  • 00:25:00 In diesem Abschnitt des Videos erläutert Max Margenot seinen Ansatz zur Schaffung eines Momentum-Faktors, der sowohl langfristige als auch kurzfristige Trends berücksichtigt. Er standardisiert Renditen und bestraft den langfristigen Aspekt, um dem Risiko einer kurzfristigen Umkehr entgegenzuwirken. Er verwendet ein Paket namens Alpha Ones, um das Signal über verschiedene Zeitskalen auszuwerten und erstellt schließlich ein Portfolio unter Verwendung des Momentum-Faktors. Margenot erklärt, wie wichtig es ist, einen angemessenen Zeitrahmen festzulegen, und erörtert die Faktoren, mit denen er arbeitet. Er betont außerdem den Arbeitsablauf bei der Definition eines Universums, Alpha-Faktoren und der Kombination von Alphas zum Aufbau eines Long/Short-Aktienportfolios.

  • 00:30:00 In diesem Abschnitt geht Max Margenot auf die Kombination verschiedener Alpha-Faktoren und deren Portfoliokonstruktion ein und stellt fest, dass die Kombination unabhängiger Signale im Idealfall zu einem stärkeren Gesamtsignal führt. Er stellt dynamische und statische Aggregationsmethoden zum Kombinieren von Faktoren und zum Aufbau eines Portfolios vor, wobei es sich bei der statischen Aggregation um das gleichgewichtete Portfolio verschiedener Faktoren handelt, während bei der dynamischen Aggregation die Gewichtung von Faktoren basierend auf ihrer Leistung geändert wird. Darüber hinaus betont er, wie wichtig es ist, die Faktoren zu standardisieren, um sicherzustellen, dass sie innerhalb jedes einzelnen Faktors vergleichbar sind.

  • 00:35:00 In diesem Abschnitt des Videos spricht Max Margenot über Ensemble-Lernen und wie es zur kreativen Zuordnung zwischen konstruierten Assets genutzt werden kann. Er erklärt, dass es schwierig ist, einen guten Trainingsalgorithmus zu entwickeln, der ständig auf neuartige Weise funktioniert und nicht nur in der Betaphase ist. Um diese Einschränkung zu überwinden, nutzt er Ensemble-Lernen, um viele verschiedene Einzelsignale zu aggregieren. Er verwendet AdaBoost, einen alten Favoriten im Ensemble-Lernen, um Entscheidungsbäume auf der Grundlage seiner sechs Funktionen zu trainieren und vorherzusagen, ob etwas steigen oder fallen wird. Dann wählt er die Gewinnerkombination aus tausend verschiedenen Entscheidungsbäumen aus und berechnet den Sinus dieses Ergebnisses, wobei er je nach Mehrheitsergebnis mit „Ja“ oder „Nein“ stimmt.

  • 00:40:00 In diesem Abschnitt erläutert Max Margenot, wie man ein Signal-Alpha bewertet, indem man Ensemble-Lernen nutzt, um müde Alpha-Faktoren wiederzubeleben. Er trainiert Entscheidungsbäume über einen Monat hinweg und versucht anhand der Gesamtleistung der Klassifikatoren Renditen vorherzusagen oder ob er in einem Monat in der Zukunft steigen oder fallen wird. Anschließend extrahiert er Merkmalswichtigkeiten aus der gewichteten Summe der Entscheidungsbäume und wertet die Signal-Alpha-Linse aus. Während der Adaboost-Wert mit hoher Wahrscheinlichkeit zu einer hohen Rendite führt, erkennt er die Notwendigkeit an, dies in eine Art Des-Baux-Alpha-Linse zu integrieren, die Provisionen und Slippage berücksichtigt.

  • 00:45:00 In diesem Abschnitt des Videos erörtert der Moderator, wie wichtig es ist, Provision und Slippage in Algorithmen zu integrieren, um sicherzustellen, dass die Signale auch im Nachhinein noch gut sind. Anschließend zeigt er die negativen Renditen und Drawdowns in einem Backtester aufgrund des begrenzten Trainingsfensters für einen Klassifikator für maschinelles Lernen und der hohen Fluktuationsrate. Der Moderator schlägt vor, dass die Verwendung einer anderen Ensemble-Lernmethode oder Plattformimplementierung in Zukunft zu einer besseren Leistung führen könnte. Abschließend listet er die Tools auf, die er zur Alpha-Faktor-Analyse und Portfolioanalyse verwendet hat.

  • 00:50:00 In diesem Abschnitt spricht Max Margenot über die Verwendung von Pi-elle und Cool zur Berechnung der Absicht hinter dem Handel eines Algorithmus und wie dieser dazu beitragen kann, diese Absicht bis zum Schließen der Position zu erfüllen. Er empfiehlt, sich die Zipline-Backtesting-Engine anzusehen und die Quantiopian-Plattform zu nutzen, um darauf zuzugreifen. Er schlägt außerdem die Verwendung des Scikit-learn- und Ensembles-Pakets vor, das sich hervorragend für maschinelles Lernen, Statistiken und Klassifikatoren eignet. Max Margenot ist Dozent bei Quantopian und bietet auf seinem GitHub kostenlosen Zugang zu seinen Vorträgen, Algorithmen und Vorlagenlösungen.

  • 00:55:00 In diesem Abschnitt diskutiert Max Margenot, ein quantitativer Forscher, seinen Prozess, Ensemble-Lernen zu nutzen, um bestehende Alpha-Faktoren zu überarbeiten. Er erklärt, dass selbst wenn ein Alpha-Faktor zunächst nicht funktioniert hat, es immer noch möglich ist, darauf aufzubauen und ihn zu verbessern. Er geht auch auf die Bedeutung der Pipeline bei der Definition von Berechnungen ein und wie es durch das Training erforderlicher Komponenten anhand historischer Daten möglich ist, einen Anstieg oder Rückgang 20 Tage im Voraus vorherzusagen. Margenot weist jedoch darauf hin, dass die Implementierung der Kreuzvalidierung beim Umgang mit historischen Daten eine Herausforderung darstellt. Seine Technik besteht jedoch darin, vorwärts zu trainieren und den nächsten Datensatz vorherzusagen.

  • 01:00:00 In diesem Abschnitt spricht Max Margenot über den Einsatz von Ensemble-Lernen zur Verbesserung von Alpha-Faktoren. Er erklärt, dass jedes Mal, wenn er den Ensemble-Klassifikator trainiert, die jedem Faktor zugewiesenen Gewichte je nach Leistung des letzten Monats unterschiedlich sind. Er schlägt vor, über einen längeren Zeitraum zu trainieren und über einen längeren Zeitraum Vorhersagen zu treffen. Er schlägt außerdem die Verwendung eines Faktorgewichtungsschemas und anderer Einschränkungen für die Allokation zwischen verschiedenen Strategien vor. Margenot spricht auch davon, ein einziges Modell für alle Interpreter in der Pipeline für alle Faktoren zu trainieren, anstatt jeden Faktor als einzelnes Modell zu behandeln. Er scherzt über die Möglichkeit, dass Faktoren das Gegenteil von dem bewirken, was sie bewirken sollen, wenn ein negatives Vorzeichen hinzugefügt wird, und erklärt, dass dies nie der Fall sei.

  • 01:05:00 In diesem Abschnitt bespricht der Redner seinen Rebalancing-Prozess, der einmal im Monat stattfindet, da er der Meinung ist, dass er seinem Forschungsprozess besser entspricht. Sie erkennen auch an, dass verrauschte Daten ihre Vorhersagen beeinflussen können, da sie nur einen Vorsprung von 1 % gegenüber dem gegebenen Trainingssatz erzielen. Der Redner erwägt auch die Idee, seinem Modell eine Aufwärts- oder Abwärtsfunktion hinzuzufügen, ist jedoch der Meinung, dass dies mehr Aufwand bedeutet als es wert ist. Sie diskutieren kurz den Einsatz neuronaler Netze, würdigen deren Leistungsfähigkeit, geben aber auch an, dass sie die besser interpretierbaren Methoden bevorzugen, die sie derzeit verwenden. Abschließend erörtert der Redner, wie wichtig es ist, maschinelles Lernen als Werkzeug zur Klassifizierung oder Regression und nicht zur Entdeckung einzusetzen.

  • 01:10:00 In diesem Abschnitt des Videos erörtert der Redner die Nützlichkeit der Verwendung von Adaboost zur Behandlung von Ausreißern bei der Bearbeitung einer großen Anzahl unterschiedlicher Dinge. Der Redner erwähnt auch die Verwendung von Ensemble-Lernen, um Dinge mit hohen und niedrigen Renditen vorherzusagen, ohne sie in irgendwelche Körbe aufzuteilen, bis die Vorhersage getroffen wurde. Sie erwähnen die Möglichkeit, ein drittes Ding zur Vorhersage zu verwenden. Sie schlagen jedoch vor, mit zwei Dingen zu beginnen, um sich nicht mit viel anderem beschäftigen zu müssen.
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in San Francisco on July 18th, 2017. Video work was done by Matt Fisher, http://www.precipitate....
 

MIT 18.S096 Themen der Mathematik mit Anwendungen im Finanzwesen – 1. Einführung, Finanzbegriffe und -konzepte



1. Einführung, Finanzbegriffe und -konzepte

In diesem informativen Video werden die Zuschauer auf eine Reise durch verschiedene Finanzbegriffe und -konzepte mitgenommen, um eine solide Grundlage im Finanzwesen zu schaffen. Der Kurs richtet sich sowohl an Bachelor- als auch an Masterstudierende, die an einer Karriere in diesem Bereich interessiert sind. Ziel ist es, eine Einführung in die moderne Finanzwelt zu bieten und den Studierenden grundlegende Kenntnisse zu vermitteln.

Der Dozent befasst sich zunächst mit der Geschichte finanzieller Begriffe und Konzepte und beleuchtet wichtige Begriffe wie Vega, Kappa und Volatilität. Vega wird als Maß für die Empfindlichkeit gegenüber Volatilität erklärt, während Kappa die Volatilität von Preisänderungen im Zeitverlauf misst. Der Dozent betont, dass der Finanzbereich in den letzten drei Jahrzehnten einen bemerkenswerten Wandel durchgemacht hat, der durch die Integration quantitativer Methoden vorangetrieben wurde.

Das Video untersucht auch die Entwicklung des Handelsberufs und die Veränderungen, die er in den letzten 30 Jahren erlebt hat. Es geht auf die verschiedenen auf dem Markt verfügbaren Handelsprodukte und deren Handel ein. Anschließend geht der Dozent auf die Ursachen der Finanzkrise 2008 ein und führt diese auf die Deregulierung des Bankensektors zurück, die es Investmentbanken ermöglichte, Anlegern komplexe Produkte anzubieten.

Die Bedeutung der Finanzmärkte wird hervorgehoben, da sie eine entscheidende Rolle bei der Verbindung von Kreditgebern und Kreditnehmern spielen und gleichzeitig Anlegern die Möglichkeit bieten, höhere Renditen auf ihre Investitionen zu erzielen. Das Video beleuchtet die verschiedenen Akteure auf den Finanzmärkten, darunter Banken, Händler, Investmentfonds, Versicherungsgesellschaften, Pensionsfonds und Hedgefonds.

Im gesamten Video werden verschiedene Finanzbegriffe und -konzepte ausführlich besprochen. Absicherung, Market Making und Eigenhandel werden erläutert und Begriffe wie Beta und Alpha eingeführt. Beta wird als Renditedifferenz zwischen zwei Vermögenswerten beschrieben, während Alpha die Renditedifferenz zwischen einer Aktie und dem S&P 500-Index darstellt. Der Dozent geht auch auf das Portfoliomanagement in Bezug auf Alpha und Beta ein.

Das Video bietet Einblicke in verschiedene Arten von Trades und deren Ausführung. Es erläutert die Rolle von Absicherung und Market Making beim Anlegerschutz. Darüber hinaus ist in dem Video Herr White zu sehen, der auf die auf den Märkten verwendeten Finanzbegriffe und -konzepte eingeht. Delta, Gamma und Theta werden im Zusammenhang mit dem Aktienhandel diskutiert und die Bedeutung des Verständnisses von Volatilitätsrisiken, Kapitalanforderungen und Bilanzrisiken wird hervorgehoben. Herr White untersucht außerdem verschiedene Methoden zur Aktienanalyse, darunter Fundamentalanalyse und Arbitrage.

Das Video erwähnt eine Politikänderung der Federal Reserve zur Reduzierung der quantitativen Lockerung, die bei den Anlegern zur Vorsicht geführt und zu einem Ausverkauf an den Aktienmärkten geführt hat. Es betont den anspruchsvollen Charakter der Preisgestaltung von Finanzinstrumenten und des Risikomanagements mithilfe mathematischer Modelle. Der Dozent betont die Notwendigkeit, Handelsstrategien aufgrund der Dynamik des Marktes ständig zu aktualisieren.

Das Konzept von Risiko und Ertrag wird eingehend untersucht und das Video zeigt, wie menschliches Verhalten manchmal zu unerwarteten Ergebnissen bei finanziellen Entscheidungen führen kann. Es wird ein Beispiel vorgestellt, bei dem dem Publikum zwei Optionen mit unterschiedlichen Wahrscheinlichkeiten und potenziellen Gewinnen oder Verlusten angeboten werden, was die unterschiedlichen Präferenzen einzelner Personen hervorhebt.

Am Ende des Videos werden die Zuschauer aufgefordert, sich für einen zukünftigen Kurs anzumelden, und es werden optionale Hausaufgaben im Zusammenhang mit der Zusammenstellung einer Liste von Finanzkonzepten vorgeschlagen. Dieses umfassende Video dient als hervorragende Einführung in Finanzbegriffe und -konzepte und bietet einen soliden Ausgangspunkt für alle, die sich für den Bereich Finanzen interessieren.

  • 00:00:00 Dieses Video stellt Finanzkonzepte, Begriffe und Formeln vor und bietet eine Einführung in die moderne Finanzwelt. Der Kurs steht Studenten im Grundstudium offen, Doktoranden sind willkommen. Ziel ist es, eine Grundlage für Studierende zu schaffen, die eine Karriere im Finanzwesen anstreben.

  • 00:05:00 In dieser Vorlesung wird die Geschichte finanzieller Begriffe und Konzepte erörtert, einschließlich Vega, Kappa und Volatilität. Vega ist ein Maß für die Volatilitätsempfindlichkeit eines Buchs oder Portfolios und Kappa ist ein Maß dafür, wie volatil sich ein Preis im Laufe der Zeit ändern kann. In der Vorlesung wird auch darauf hingewiesen, dass Finanzen nicht immer ein quantitativer Beruf waren und dass in den letzten 30 Jahren aufgrund der Einführung quantitativer Methoden ein Wandel in diesem Bereich stattgefunden hat.

  • 00:10:00 Dieses Video bietet Hintergrundinformationen zur Finanzbranche und zeigt, wie sich der Handelsberuf in den letzten 30 Jahren verändert hat. Es behandelt auch die verschiedenen Formen von Handelsprodukten und deren Handel.

  • 00:15:00 Die Finanzkrise 2008 wurde größtenteils durch die Deregulierung des Bankensektors verursacht, die es Investmentbanken erleichterte, Anlegern komplexe Produkte anzubieten.

  • 00:20:00 Die Finanzmärkte sind von entscheidender Bedeutung, um die Kluft zwischen Kreditgebern und Kreditnehmern zu überbrücken und Anlegern dabei zu helfen, höhere Renditen auf ihre Anlagen zu erzielen. Auf den Märkten gibt es verschiedene Arten von Akteuren, darunter Banken, Händler, Investmentfonds, Versicherungsgesellschaften, Pensionsfonds und Hedgefonds.

  • 00:25:00 In diesem Video werden finanzielle Begriffe und Konzepte besprochen, darunter Absicherung, Market Making und Eigenhandel. Beta wird als Renditedifferenz zwischen zwei Vermögenswerten erklärt, Alpha ist die Renditedifferenz zwischen einer Aktie und dem S&P 500-Index und Portfoliomanagement wird in Bezug auf Alpha und Beta diskutiert.

  • 00:30:00 In diesem Video wird erläutert, wie verschiedene Arten von Geschäften ausgeführt werden und wie Absicherung und Market-Making zum Schutz der Anleger beitragen können.

  • 00:35:00 In diesem Video erklärt Herr White die verschiedenen Finanzbegriffe und -konzepte, die auf den Märkten verwendet werden. Delta, Gamma und Theta sind wichtige Konzepte, die es beim Aktienhandel zu verstehen gilt. Darüber hinaus werden Volatilitätsrisiken, Kapitalanforderungen und Bilanzrisiken erörtert. Abschließend erklärt Herr White die verschiedenen Methoden zur Analyse von Aktien, einschließlich Fundamentalanalyse und Arbitrage.

  • 00:40:00 Der Politikwechsel der Federal Reserve bezieht sich auf einen Plan, den Umfang der von ihr durchgeführten quantitativen Lockerung zu reduzieren. Dies hat zu einem Ausverkauf am Aktienmarkt geführt, da die Anleger hinsichtlich der Zukunft vorsichtiger geworden sind. Mathematische Modelle werden zur Preisgestaltung von Finanzinstrumenten und zum Risikomanagement eingesetzt, was beides anspruchsvolle Aufgaben sind. Darüber hinaus müssen Handelsstrategien aufgrund der schnellen Entwicklung des Marktes ständig aktualisiert werden.

  • 00:45:00 Der Moderator diskutiert die Konzepte von Risiko und Ertrag und zeigt, wie menschliches Verhalten zu unerwarteten Ergebnissen bei Finanzentscheidungen führen kann. Anschließend stellt er zwei Optionen vor – eine mit einer 80-prozentigen Chance, Geld zu verlieren, und eine mit einer 100-prozentigen Gewinnchance – und fragt das Publikum, welche sie wählen würden. Die meisten Zuschauer entscheiden sich für die Option mit dem höheren erwarteten Wert, aber eine Minderheit entscheidet sich für Option b, die eine geringere Gewinnchance, aber das Potenzial hat, mehr Geld zu verlieren.

  • 00:50:00 Das Video bespricht Finanzbegriffe und -konzepte und bietet ein Beispiel dafür, wie Menschen aus ihren Erfahrungen lernen können. Das Video schlägt auch die optionale Hausaufgabe vor, eine Liste mit Finanzkonzepten zusammenzustellen.

  • 00:55:00 Dieses Video stellt Finanzbegriffe und -konzepte vor, einschließlich der Konzepte von Derivaten, Monte-Carlo-Methoden und elektronischem Handel. Jake nennt zwei Beispiele für Projekte, an denen er gearbeitet hat. Bei dem einen ging es um die Schätzung der verrauschten Ableitung einer Funktion, bei dem anderen um die bessere Vorhersage von Währungspreisen.

  • 01:00:00 Dieses Video stellt Finanzbegriffe und -konzepte vor und fordert die Zuschauer auf, sich für einen zukünftigen Kurs anzumelden.
1. Introduction, Financial Terms and Concepts
1. Introduction, Financial Terms and Concepts
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter Kempthorne,...
 

2. Lineare Algebra



2. Lineare Algebra

Das Video behandelt ausführlich die lineare Algebra und konzentriert sich dabei auf Matrizen, Eigenwerte und Eigenvektoren. Es erklärt, dass Eigenwerte und Eigenvektoren spezielle Vektoren sind, die bei Anwendung einer linearen Transformation skaliert werden. Jede n-mal-n-Matrix hat mindestens einen Eigenvektor, und mithilfe einer orthonormalen Matrix wird es möglich, eine Matrix in Richtungen zu zerlegen, was das Verständnis linearer Transformationen vereinfacht. Das Video stellt außerdem die Singularwertzerlegung (SVD) als weiteres Werkzeug zum Verständnis von Matrizen vor, insbesondere für eine allgemeinere Klasse von Matrizen. SVD ermöglicht die Darstellung einer Matrix als Produkt orthonormaler Matrizen und einer Diagonalmatrix, wodurch Platz für Matrizen mit niedrigerem Rang gespart wird. Darüber hinaus beleuchtet das Video die Bedeutung von Eigenvektoren bei der Messung der Datenkorrelation und der Definition eines neuen orthogonalen Koordinatensystems, ohne die Daten selbst zu verändern.

Zusätzlich zu den oben genannten Konzepten befasst sich das Video mit zwei wichtigen Theoremen der linearen Algebra. Das erste ist das Perron-Frobenius-Theorem, das besagt, dass eine nichtsymmetrische Matrix einen eindeutigen Eigenwert mit dem größten Absolutwert sowie einen entsprechenden Eigenvektor mit positiven Einträgen besitzt. Dieser Satz findet praktische Anwendung in verschiedenen Bereichen. Der zweite diskutierte Satz ist die Singular Value Decomposition (SVD), die die Rotation von Daten in eine neue Ausrichtung ermöglicht, die durch orthonormale Basen dargestellt wird. SVD ist auf ein breiteres Spektrum von Matrizen anwendbar und ermöglicht eine Vereinfachung durch Eliminierung unnötiger Spalten und Zeilen, insbesondere bei Matrizen mit deutlich niedrigerem Rang im Vergleich zur Anzahl der Spalten und Zeilen.

Das Video bietet detaillierte Erklärungen, Beispiele und Beweise dieser Konzepte und betont deren Relevanz in verschiedenen Bereichen der Technik und Wissenschaft. Es ermutigt die Zuschauer, die zugrunde liegenden Prinzipien zu verstehen und sich mit dem Material auseinanderzusetzen.

  • 00:00:00 In diesem Abschnitt beginnt der Professor mit einer Wiederholung der linearen Algebra, vorausgesetzt, dass die Zuschauer zuvor einen Kurs darüber besucht haben. Er gestaltet die Vorlesungsunterlagen so, dass sie als Wiederholung für diejenigen dienen, die den grundlegendsten Kurs über lineare Algebra belegt haben. Der Schwerpunkt der Vorlesung liegt auf Matrizen und deren Bedeutung. Der Professor erklärt, dass eine Matrix eine Sammlung von Zahlen ist, mit deren Hilfe Daten wie Aktienkurse geordnet werden können. Eine Matrix ist auch ein Operator, der eine lineare Transformation von einem n-dimensionalen Vektorraum in einen m-dimensionalen Vektorraum definiert. Der Professor führt außerdem in das Konzept der Eigenwerte und Eigenvektoren ein und erörtert, wie diese auf Datensätze angewendet werden können, um wichtige Eigenschaften und Größen zu ermitteln.

  • 00:05:00 In diesem Abschnitt erklärt das YouTube-Video das Konzept von Eigenwerten und Eigenvektoren und ihre Bedeutung für die lineare Algebra. Sie ist als reelle Zahl und Vektor definiert, die die Bedingung erfüllen, dass A mal v gleich Lambda mal V ist und v ein Lambda-entsprechender Eigenvektor ist. Die Determinante von (A-lambda I) ist gleich 0, wenn A-lambda I nicht den vollen Rang hat, und det(A-lambda I) ist ein Polynom vom Grad n für quadratische Matrizen. Das Video hebt auch hervor, dass es immer mindestens einen Eigenwert und einen Eigenvektor gibt, und die geometrische Bedeutung dieses Konzepts wird aus der Sicht einer linearen Transformation erklärt, wobei A den Vektor in R^3 nimmt und ihn in einen anderen Vektor in R^ transformiert 3.

  • 00:10:00 In diesem Abschnitt des Videos wird das Konzept von Eigenwerten und Eigenvektoren als spezielle Vektoren vorgestellt, die bei Anwendung einer linearen Transformation lediglich um einen bestimmten Betrag skaliert werden, der als Lambda bezeichnet wird. Es ist erwiesen, dass jede n-mal-n-Matrix mindestens einen Eigenvektor hat, und eine orthonormale Matrix kann verwendet werden, um eine Matrix in Richtungen zu zerlegen, wodurch die lineare Transformation leicht verständlich wird. Abschließend wird erklärt, dass Matrizen, die in diese Richtungen zerlegt werden können, in der linearen Algebra am wichtigsten sind und dass diese Richtungen durch die Matrix U definiert werden, während D definiert, wie stark sie skaliert wird.

  • 00:15:00 In diesem Abschnitt wird das Konzept diagonalisierbarer Matrizen vorgestellt. Obwohl nicht alle Matrizen diagonalisierbar sind, gibt es eine spezielle Klasse von Matrizen, die immer diagonalisierbar sind, und die meisten Matrizen, die im Kurs untersucht werden, fallen in diese Kategorie. Eine Matrix gilt als diagonalisierbar, wenn sie in n Richtungen zerfällt. Dies gilt insbesondere für symmetrische Matrizen, die reelle Eigenwerte haben und immer diagonalisierbar sind. Es wird Satz 2 diskutiert, der einen Beweis für die Diagonalisierbarkeit symmetrischer Matrizen liefert.

  • 00:20:00 In diesem Abschnitt erklärt der Referent, wie man symmetrische Matrizen diagonalisiert, was Eigenwerte und Eigenvektoren beinhaltet. Der Redner betont dann, wie wichtig es ist, sich die Sätze 1 und 2 für reelle symmetrische Matrizen zu merken. Während eine Diagonalisierung für symmetrische Matrizen möglich ist, ist sie für allgemeine Matrizen nicht immer möglich. Daher stellt der Referent ein alternatives Werkzeug vor, das für alle Matrizen verwendet werden kann, um wichtige Informationen durch einfache Operationen wie Skalierung zu destillieren.

  • 00:25:00 In diesem Abschnitt stellt der Referent die Singularwertzerlegung als zweites Werkzeug zum Verständnis von Matrizen vor, das der Diagonalisierung ähnelt, aber eine etwas andere Form hat. Der Satz besagt, dass es für jede m-mal-n-Matrix immer zwei orthonormale Matrizen, U und V, und eine Diagonalmatrix, Sigma, gibt, sodass die Matrix wie folgt zerlegt werden kann: U mal Sigma mal V transponiert. Der Sprecher erklärt, dass dies für alle allgemeinen m-mal-n-Matrizen funktioniert, wohingegen die Eigenwertzerlegung nur für diagonalisierbare n-mal-n-Matrizen funktioniert. Darüber hinaus erwähnt der Sprecher, dass SVD einen Rahmen von Vektoren liefert, für den A als Skalierungsoperator fungiert und die Räume für die Vektoren unterschiedlich sind.

  • 00:30:00 In diesem Abschnitt diskutiert der Redner Diagonalisierung und Eigenwertzerlegung und wie sie in ihren jeweiligen Rahmen funktionieren. Sie vergleichen es mit der Singulärwertzerlegung, die auf eine allgemeinere Klasse von Matrizen anwendbar ist. Sie gehen auch auf den Beweis der Singulärwertzerlegung ein, die auf der Eigenwertzerlegung beruht. Der Redner betont die Bedeutung und Allgegenwart beider Formen der Zersetzung in vielen Bereichen der Technik und Wissenschaft und ermutigt die Zuschauer, sich die Konzepte hinter der Theorie vorzustellen und zu verstehen.

  • 00:35:00 In diesem Abschnitt des Videos wird das Konzept der Eigenwerte und Eigenvektoren erklärt. Unter der Annahme, dass alle bis auf die ersten r Eigenwerte Null sind, werden die Eigenwerte als sigma_1^2, sigma_2^2, sigma_r^2 und 0 umgeschrieben. Die Eigenvektoren werden dann als u_1, u_2 bis u_r definiert, wobei u_i durch berechnet wird Division von A mal v_i durch seinen entsprechenden Eigenwert sigma_i. Damit wird eine Matrix U definiert, die aus u_1 bis u_n besteht, und Matrix V ist definiert als v_1 bis v_r und v_r+1 bis v_n. Die Multiplikation dieser Matrizen führt zu einer Diagonalmatrix, bei der die ersten r Diagonaleinträge sigma_1 bis sigma_r sind und die übrigen Einträge Null sind.

  • 00:40:00 In diesem Abschnitt bietet der Referent ein Tutorial zur linearen Algebra und erklärt, wie man die Matrix U und V durch Anwendung von A mal V/Sigma definiert (wobei A A transponiert mal A ist). Die Diagonale der Matrix wird dann mit Sigma-Werten gefüllt und die Spalten werden durch das Skalarprodukt der U-Transponierung mit den Lambda-Werten und V definiert. Der Redner spricht auch einen Fehler in der Berechnung an, korrigiert ihn und zeigt die Einfachheit des Prozesses auf.

  • 00:45:00 In diesem Abschnitt lehrt der Professor, wie man die Singulärwertzerlegung einer Matrix findet, was ein leistungsstarkes Werkzeug sein kann. Um die Singulärwertzerlegung zu erhalten, müssen Sie die Eigenwerte und Eigenvektoren der Matrix finden und sie richtig anordnen. Obwohl es mit der Hand etwas umständlich sein kann, ist es eine nützliche Übung. Bei Bedarf gibt es auch effizientere Möglichkeiten, dies auf einem Computer zu berechnen. Der Professor liefert ein Beispiel für die Bestimmung der Singulärwertzerlegung einer 2x3-Matrix und zeigt die Schritte, um sie zu erhalten.

  • 00:50:00 In diesem Abschnitt erklärt der Professor den Prozess zum Finden der Singulärwertzerlegung einer Matrix. Er demonstriert, wie man die Eigenvektoren einer Matrix findet, und zeigt anschließend, wie man die Matrix in die U-, Sigma- und V-Transponierungsform zerlegt. Er betont, dass die Eigenvektoren, die einem Eigenwert von Null entsprechen, nicht wichtig sind und weggelassen werden können, was Rechenaufwand spart. Der Professor schließt diesen Abschnitt mit der Darstellung einer anderen Form der Singularwertzerlegung ab.

  • 00:55:00 In diesem Abschnitt wird die vereinfachte Form von SVD vorgestellt. A wird gleich U mal Sigma mal V transponiert, wobei U immer noch eine m-mal-m-Matrix ist, Sigma ebenfalls m-mal-m ist und V eine m-mal-n-Matrix ist. Dies funktioniert nur, wenn m kleiner oder gleich n ist. Der Beweis ist derselbe und der letzte Schritt besteht darin, irrelevante Informationen wegzulassen. Dieses Formular vereinfacht Matrizen durch das Entfernen unnötiger Spalten und Zeilen und ist daher sehr leistungsfähig für Matrizen mit einem viel niedrigeren Rang als der Anzahl der Spalten und Zeilen. Ein Beispiel hierfür sind Aktienkurse bei fünf Unternehmen und 365 Tagen im Jahr. Die reduzierte Form spart viel Platz und wird am häufigsten gesehen. Die Eigenvektoren helfen dabei, die Korrelation der Daten zu messen und ein neues, orthogonales Koordinatensystem zu definieren, ohne die Daten selbst zu ändern.

  • 01:00:00 In diesem Abschnitt erklärt der Professor, wie die Singularwertzerlegung (SVD) die Daten in eine andere Ausrichtung dreht, die durch die Orthonormalbasis dargestellt wird, in die Sie transformieren. Die Korrelationen zwischen verschiedenen Aktien werden durch die Ausrichtung dieser Punkte im transformierten Raum dargestellt. Darüber hinaus erwähnt der Professor das Perron-Frobenius-Theorem, das theoretisch erscheint, aber Steve Ross hat ein Ergebnis gefunden, das dieses Theorem nutzt, das Steve-Ross-Recovery-Theorem genannt wird. Der Satz besagt, dass es für eine n-mal-n-symmetrische Matrix, deren Einträge alle positiv sind, einen größten Eigenwert, lambda_0, gibt.

  • 01:05:00 In diesem Abschnitt stellt der Redner einen bekannten Satz der linearen Algebra vor, der viele theoretische Anwendungen hat, einschließlich Wahrscheinlichkeitstheorie und Kombinatorik. Der Satz besagt, dass es für eine nichtsymmetrische Matrix einen eindeutigen Eigenwert mit dem größten Absolutwert gibt, der eine reelle Zahl ist. Darüber hinaus gibt es einen Eigenvektor mit positiven Einträgen, der diesem Eigenwert entspricht. Der Satz wurde in vielen Zusammenhängen verwendet und der Sprecher beschreibt kurz, wie er funktioniert, wenn die Matrix symmetrisch ist. Der Beweis umfasst mehrere Beobachtungen, einschließlich der Tatsache, dass der größte positive Eigenwert den kleinsten negativen Eigenwert dominiert, wenn alle Eigenwerte positive Einträge haben.

  • 01:10:00 In diesem Abschnitt erklärt der Referent, wie sich die positiven Einträge einer Matrix auf die Eigenvektoren der Matrix auswirken. Wenn ein Vektor nicht-positive oder negative Einträge hat, erhöht das Umdrehen des Vorzeichens der Einträge und das Erhalten eines neuen Vektors den Betrag, was in einer Matrix mit positiven Einträgen nicht passieren kann. Der Eigenvektor einer Matrix mit positiven Einträgen sollte auch positive Einträge haben, und dieser Satz gilt auch in allgemeineren Situationen. Der Redner wird dieses Konzept später noch einmal besprechen, aber es wird erst später ins Spiel kommen.
2. Linear Algebra
2. Linear Algebra
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

3. Wahrscheinlichkeitstheorie



3. Wahrscheinlichkeitstheorie

Diese umfassende Videoreihe zur Wahrscheinlichkeitstheorie deckt ein breites Themenspektrum ab und vermittelt ein tiefes Verständnis grundlegender Konzepte und ihrer praktischen Anwendungen. Der Professor frischt zunächst unser Wissen über Wahrscheinlichkeitsverteilungen und momenterzeugende Funktionen auf. Er unterscheidet zwischen diskreten und kontinuierlichen Zufallsvariablen und definiert wichtige Begriffe wie Wahrscheinlichkeitsmassenfunktion und Wahrscheinlichkeitsverteilungsfunktion. Der Professor veranschaulicht diese Konzepte auch anhand von Beispielen, einschließlich der Gleichverteilung.

Als nächstes befasst sich der Professor mit den Konzepten der Wahrscheinlichkeit und Erwartung für Zufallsvariablen. Er erklärt, wie man die Wahrscheinlichkeit eines Ereignisses berechnet und definiert den Erwartungswert (Mittelwert) einer Zufallsvariablen. Der Professor diskutiert außerdem den Begriff der Unabhängigkeit für Zufallsvariablen und führt die Normalverteilung als Universalverteilung für kontinuierliche Zufallsvariablen ein.

Bei der Untersuchung der Modellierung von Aktienkursen und Finanzprodukten weist der Professor darauf hin, dass die Verwendung der Normalverteilung allein das Ausmaß von Preisänderungen möglicherweise nicht genau erfasst. Stattdessen schlägt er vor, die prozentuale Änderung als normalverteilte Variable zu modellieren. Darüber hinaus diskutiert der Professor die Log-Normalverteilung und ihre Wahrscheinlichkeitsdichtefunktion und betont, dass ihre Parameter Mu und Sigma aus der Normalverteilung abgeleitet sind.

In der Videoserie werden dann andere Verteilungen innerhalb der Exponentialfamilie vorgestellt, beispielsweise Poisson- und Exponentialverteilungen. Diese Verteilungen besitzen statistische Eigenschaften, die sie in realen Anwendungen nützlich machen. Der Professor erklärt, wie diese Verteilungen parametrisiert werden können und betont den Zusammenhang zwischen der Log-Normalverteilung und der Exponentialfamilie.

Anschließend untersucht der Professor die statistischen Aspekte und das Langzeitverhalten von Zufallsvariablen. Er erklärt das Konzept der Momente, dargestellt durch die k-ten Momente einer Zufallsvariablen, und betont die Verwendung der momenterzeugenden Funktion als einheitliches Werkzeug zur Untersuchung aller Momente. Darüber hinaus diskutiert der Professor das Langzeitverhalten von Zufallsvariablen, indem er mehrere unabhängige Zufallsvariablen mit derselben Verteilung beobachtet, was zu einem Diagramm führt, das einer Kurve sehr ähnlich ist.

Anschließend konzentriert sich die Videoreihe auf zwei wichtige Theoreme: das Gesetz der großen Zahlen und den zentralen Grenzwertsatz. Das Gesetz der großen Zahlen besagt, dass der Durchschnitt unabhängiger und identisch verteilter Zufallsvariablen mit zunehmender Anzahl von Versuchen schwach gegen den Mittelwert konvergiert. Die Wahrscheinlichkeit einer Abweichung vom Mittelwert nimmt mit zunehmender Anzahl von Versuchen ab. Der zentrale Grenzwertsatz zeigt, dass die Verteilung des Durchschnitts unabhängiger Zufallsvariablen unabhängig von der Anfangsverteilung einer Normalverteilung nahekommt. Die momenterzeugende Funktion spielt eine Schlüsselrolle bei der Darstellung der Konvergenz der Verteilung der Zufallsvariablen.

Die Konvergenz von Zufallsvariablen wird weiter diskutiert und hervorgehoben, wie die momenterzeugende Funktion die Verteilung steuern kann. Der Professor stellt das Konzept eines Casino-Rake als Mittel zur Gewinngenerierung vor und diskutiert den Einfluss der Varianz auf den Glauben an die eigenen Fähigkeiten. Der Beweis des Gesetzes der großen Zahlen wird erläutert, wobei betont wird, wie die Mittelung einer größeren Anzahl von Termen die Varianz verringert.

Im Kontext eines Casinos erklärt der Referent, wie das Gesetz der großen Zahlen angewendet werden kann. Es wird darauf hingewiesen, dass ein Spieler bei einzelnen Spielen möglicherweise einen leichten Nachteil hat, aber bei einer großen Stichprobengröße sorgt das Gesetz der großen Zahlen dafür, dass das durchschnittliche Ergebnis in Richtung des erwarteten Werts tendiert. Die Idee, dass ein Casino einen Rake nimmt, wird untersucht und hervorgehoben, wie der Vorteil des Spielers und der Glaube an mathematische Prinzipien die Ergebnisse beeinflussen können.

Abschließend befasst sich die Videoreihe mit den schwachen und starken Gesetzen großer Zahlen und diskutiert den zentralen Grenzwertsatz. Das schwache Gesetz besagt, dass der Durchschnitt unabhängiger und identisch verteilter Zufallsvariablen dem Mittelwert konvergiert, wenn sich die Anzahl der Versuche der Unendlichkeit nähert. Das starke Gesetz der großen Zahlen sorgt für eine stärkere Form der Konvergenz. Der zentrale Grenzwertsatz erklärt die Konvergenz der Verteilung des Durchschnitts zu einer Normalverteilung, selbst wenn die Anfangsverteilung unterschiedlich ist.

Insgesamt bietet diese Videoreihe eine umfassende Untersuchung der Konzepte der Wahrscheinlichkeitstheorie, einschließlich Wahrscheinlichkeitsverteilungen, momenterzeugender Funktionen, Gesetze großer Zahlen, zentraler Grenzwertsatz und ihrer praktischen Auswirkungen.

  • 00:00:00 In diesem Abschnitt führt der Professor in das Thema Wahrscheinlichkeitstheorie ein, gibt einen Überblick über Wahrscheinlichkeitsverteilungen und konzentriert sich auf die momenterzeugende Funktion. Er unterscheidet zwischen diskreten und kontinuierlichen Zufallsvariablen und definiert die Wahrscheinlichkeitsmassenfunktion und die Wahrscheinlichkeitsverteilungsfunktion. Der Professor stellt klar, dass der Stichprobenraum normalerweise als reelle Zahlen für kontinuierliche Zufallsvariablen angesehen wird, und liefert Beispiele für Wahrscheinlichkeitsmassenfunktionen und Wahrscheinlichkeitsverteilungsfunktionen, einschließlich einer Gleichverteilung. Insgesamt dient dieser Abschnitt als Auffrischung für diejenigen, die mit den Grundlagen der Wahrscheinlichkeitstheorie vertraut sind.

  • 00:05:00 In diesem Abschnitt diskutiert der Professor die Konzepte von Wahrscheinlichkeit und Erwartung für Zufallsvariablen. Er erklärt, dass die Wahrscheinlichkeit eines Ereignisses entweder als Summe aller Punkte im Ereignis oder als Integral über die Menge berechnet werden kann. Er definiert den Erwartungswert oder Mittelwert für Zufallsvariablen auch als die Summe oder das Integral über alle möglichen Werte der Zufallsvariablen multipliziert mit diesem Wert. Anschließend erläutert der Professor das Konzept der Unabhängigkeit für Zufallsvariablen und unterscheidet zwischen voneinander unabhängigen Ereignissen und paarweise unabhängigen Ereignissen. Schließlich führt er die Normalverteilung als Universalverteilung für kontinuierliche Zufallsvariablen ein.

  • 00:10:00 In diesem Abschnitt des Videos zur Wahrscheinlichkeitstheorie erörtert der Redner die Verwendung der Normalverteilung als Mittel zur Modellierung von Aktienkursen oder Finanzprodukten und wie sie nicht immer eine gute Wahl ist, da sie nicht berücksichtigt wird Größenordnung des Preises selbst. Stattdessen geht der Redner auf die Idee ein, dass die prozentuale Änderung normalverteilt sein sollte, um Aktienkurse besser modellieren zu können. Der Redner erwähnt, dass die normalverteilten Preiserhöhungen zu einem normalverteilten Preis führen und keine Tendenz haben.

  • 00:15:00 In diesem Abschnitt erklärt der Professor, wie man die Wahrscheinlichkeitsverteilung von Pn ermittelt, wenn die Preisänderungen logarithmisch normalverteilt sind. Er definiert eine logarithmische Normalverteilung Y als Zufallsvariable, so dass log Y normalverteilt ist. Mithilfe der Variablenänderungsformel zeigt er, wie man die Wahrscheinlichkeitsverteilungsfunktion der logarithmischen Normalverteilung unter Verwendung der Wahrscheinlichkeitsverteilung der Normalverteilung ermittelt. Der Professor erklärt auch, warum es auf lange Sicht keine gute Wahl ist, die prozentuale Änderung als Modell für die Preisänderungen zu verwenden, da sie negative Werte annehmen und dazu führen kann, dass der Preis schließlich bis ins Unendliche steigt oder fällt.

  • 00:20:00 In diesem Abschnitt diskutiert der Professor die Log-Normalverteilung und ihre Definition. Die Wahrscheinlichkeitsdichtefunktion von X ist gleich der Wahrscheinlichkeitsdichtefunktion von Y bei log . Wenn es jedoch verzerrt ist, ist es nicht mehr bei mu zentriert, und die Bildung des Durchschnitts ergibt nicht den Mittelwert, der nicht e zum Sigma ist.

  • 00:25:00 In diesem Abschnitt stellt der Professor neben Normal- und Lognormalverteilungen auch andere Verteilungen vor, beispielsweise Poisson- und Exponentialverteilungen, die zu einer Familie von Verteilungen gehören, die als Exponentialfamilie bezeichnet wird. Diese Familie verfügt über einige gute statistische Eigenschaften, die sie für praktische Anwendungen nützlich machen. Der Professor erklärt, dass alle Verteilungen in dieser Familie durch einen Vektor namens „Theta“ parametrisiert werden können und dass die Wahrscheinlichkeitsdichtefunktion als Produkt dreier Funktionen geschrieben werden kann: h(x), t_i(x) und c(Theta). ). Der Professor geht dann darauf ein, wie die logarithmische Normalverteilung in die Exponentialfamilie fällt, indem er die Formel 1 über x Sigma Quadratwurzel 2 Pi, e zum Minus log x [UNVERSTÄNDLICH] zum Quadrat verwendet.

  • 00:30:00 In diesem Abschnitt erörtert der Redner die beiden wichtigsten Dinge, die bei der Untersuchung einer Zufallsvariablen von Interesse sind: Statistik und langfristiges/großräumiges Verhalten. Statistiken werden durch die k-ten Momente der Zufallsvariablen dargestellt, wobei das k-te Moment als die Erwartung von X an k definiert ist. Der Sprecher erklärt, dass eine einheitliche Möglichkeit, alle Momente zusammen zu untersuchen, die momentgenerierende Funktion ist, die alle statistischen Informationen einer Zufallsvariablen enthält. Das zweite Hauptthema ist das langfristige oder großräumige Verhalten einer Zufallsvariablen, das durch mehrere unabhängige Zufallsvariablen mit exakt derselben Verteilung beobachtet werden kann. Wenn die Zahlen sehr groß sind, kann ein Diagramm erstellt werden, um zu zeigen, wie viele Zufallsvariablen in jeden Punkt fallen, was einer Kurve sehr ähnlich sieht.

  • 00:35:00 In diesem Abschnitt diskutiert der Redner die Wahrscheinlichkeitstheorie und das Langzeitverhalten oder Verhalten von Zufallsvariablen im großen Maßstab. Die beiden diskutierten Sätze sind das Gesetz der großen Zahlen und der zentrale Grenzwertsatz. Die momenterzeugende Funktion wird ebenfalls eingeführt und ist definiert als die Erwartung von e zu t mal x, wobei t ein Parameter ist. Die Funktion gibt das k-te Moment der Zufallsvariablen an und gilt für alle ganzen Zahlen. Der Sprecher weist darauf hin, dass die Existenz der momenterzeugenden Funktion wichtig ist, da sie Zufallsvariablen klassifiziert.

  • 00:40:00 In diesem Abschnitt wird der Satz diskutiert, dass zwei Zufallsvariablen, wenn sie dieselbe momenterzeugende Funktion haben, dieselbe Verteilung haben. Es wird jedoch darauf hingewiesen, dass dies nicht bedeutet, dass alle Zufallsvariablen mit identischen k-ten Momenten für alle k die gleiche Verteilung haben, da die Existenz momenterzeugender Funktionen erforderlich ist. Es wird eine weitere Aussage erwähnt, die besagt, dass, wenn die momenterzeugende Funktion für eine Folge von Zufallsvariablen existiert und diese gegen die momenterzeugende Funktion einer anderen Zufallsvariablen X konvergiert, die Verteilung dieser Folge der Verteilung immer näher kommt von X.

  • 00:45:00 In diesem Abschnitt diskutiert der Professor das Konzept der Konvergenz von Zufallsvariablen und erklärt, dass die Verteilungen der Zufallsvariablen zur Verteilung einer Zufallsvariablen konvergieren. Die momenterzeugende Funktion ist ein leistungsfähiges Werkzeug zur Steuerung der Verteilung, wie aus den angegebenen Theoremen hervorgeht. Anschließend führt der Professor das Gesetz der großen Zahlen ein, wobei X als Durchschnitt von n Zufallsvariablen definiert ist, und erklärt, dass die Wahrscheinlichkeit, dass gleich einem bestimmten Wert tendiert zur Wahrscheinlichkeit dieses Wertes.

  • 00:50:00 In diesem Abschnitt diskutiert der Redner das Gesetz der großen Zahlen und seine Anwendung im Casino. Wenn eine große Anzahl identischer unabhängiger Verteilungen gemittelt wird, liegen ihre Werte sehr nahe am Mittelwert. Beim Blackjack im Casino hat der Spieler mit einer Gewinnwahrscheinlichkeit von 48 % einen kleinen Nachteil. Aus der Sicht des Spielers wird nur eine kleine Stichprobengröße genommen, sodass die Varianz in kurzer Zeit zunimmt. Aus Sicht des Casinos verfügen sie jedoch über eine sehr große Stichprobengröße und solange es einen Vorteil zu ihren Gunsten gibt, werden sie weiterhin Geld gewinnen. Poker unterscheidet sich von Casinospielen, da es gegen andere Spieler und nicht gegen das Casino gespielt wird.

  • 00:55:00 In diesem Abschnitt wird die Idee besprochen, dass ein Casino einen Rake als Mittel zum Geldverdienen nutzt, wobei die von den Spielern gezahlten Gebühren akkumuliert werden, um Gewinne für das Casino zu erzielen. Es wird davon ausgegangen, dass ein Spieler nach dem Gesetz der großen Zahlen gewinnen kann, wenn er besser ist als sein Gegner und dieser Vorteil größer ist als die vom Casino erhobene Gebühr. Dennoch kann der Glaube an die eigenen Fähigkeiten abnehmen, wenn die Varianz groß ist; Um auf dem richtigen Weg zu bleiben, kann es jedoch ausreichend sein, Vertrauen in die Mathematik zu haben. Anschließend wird der Beweis des Gesetzes der großen Zahlen erläutert, wobei anhand eines Beispiels veranschaulicht wird, wie die Mittelung einer größeren Anzahl von Termen die Varianz verringert.

  • 01:00:00 In diesem Abschnitt wird das schwache Gesetz der großen Zahlen besprochen, das besagt, dass bei unabhängigen und identisch verteilten (IID) Zufallsvariablen der Durchschnitt mit zunehmender Anzahl von Versuchen schwach gegen den Mittelwert konvergiert zur Unendlichkeit. Die Wahrscheinlichkeit einer Abweichung vom Mittelwert nimmt mit zunehmender Anzahl der Versuche ab. Auch das starke Gesetz der großen Zahlen wird kurz angesprochen, das eine stärkere Konvergenz aufweist als das schwache Gesetz. Der zentrale Grenzwertsatz ist das nächste Thema, das untersucht, was passiert, wenn die Anzahl der Versuche durch die Quadratwurzel der Anzahl der Versuche in der Zufallsvariablen ersetzt wird.

  • 01:05:00 In diesem Abschnitt erklärt der Professor, wie der zentrale Grenzwertsatz eine Frage zur Verteilung von Yn mit Mittelwert 0 und Varianz-Sigma-Quadrat beantwortet. Er stellte fest, dass, wenn man viele unabhängige Ereignisse nimmt und ihren Durchschnitt ermittelt, in diesem Sinne ihre Verteilung einer Normalverteilung konvergiert. Er stellte außerdem einen Satz über die Konvergenz der Verteilung von Yn zur Normalverteilung mit Mittelwert 0 und Varianz Sigma auf. Unabhängig von der Ausgangsverteilung erfolgt die Konvergenz zur Normalverteilung.

  • 01:10:00 In diesem Abschnitt besteht das Ziel darin, zu beweisen, dass die momenterzeugende Funktion von Y_n für alle t mit der momenterzeugenden Funktion der Normalen konvergiert, punktweise Konvergenz. Die momenterzeugende Funktion der Normalen ist e zum t-Quadrat-Sigma-Quadrat über 2. Die momenterzeugende Funktion von Y_n ist gleich der Erwartung von e zu t Y_n. Das Produkt von e zu t, 1 über Quadratwurzel n, X_i minus mu wird zum Produkt für 1 zu n, Erwartung e zu t mal Quadratwurzel n. Die n-te Potenz davon entspricht dem Erwartungswert von e zum t über der Quadratwurzel n, X_i minus mu zur n-ten Potenz. Es wird die Taylor-Entwicklung verwendet, und wenn n gegen Unendlich geht, sind alle diese Terme um eine Größenordnung kleiner als n, 1 über n.

  • 01:15:00 In diesem Abschnitt diskutiert der Referent das Gesetz der großen Zahlen und den zentralen Grenzwertsatz als Möglichkeiten, den Mittelwert einer Zufallsvariablen zu schätzen. Das Gesetz der großen Zahlen besagt, dass die Schätzung sehr nahe am tatsächlichen Mittelwert liegt, wenn die Anzahl der Versuche groß genug ist, indem viele unabhängige Versuche mit einer Zufallsvariablen durchgeführt und zur Schätzung des Mittelwerts verwendet werden. Der zentrale Grenzwertsatz erklärt dann, wie die Verteilung dieser Schätzung um den Mittelwert verläuft, wobei Normalverteilungen sehr kleine Randverteilungen aufweisen. Der Sprecher weist jedoch darauf hin, dass es für einige Verteilungen besser ist, einen anderen Schätzer als den Maximum-Likelihood-Schätzer zu verwenden.
3. Probability Theory
3. Probability Theory
  • 2015.04.23
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

5. Stochastische Prozesse I



5. Stochastische Prozesse I

In diesem Video zu stochastischen Prozessen liefert der Professor eine umfassende Einführung und einen Überblick über zeitdiskrete und zeitkontinuierliche stochastische Prozesse. Diese Wahrscheinlichkeitsmodelle werden verwendet, um zufällige Ereignisse zu analysieren, die im Laufe der Zeit auftreten. Das Video zeigt Beispiele einfacher Random-Walk- und Markov-Ketten-Prozesse, um zu veranschaulichen, wie sie Fragen im Zusammenhang mit Abhängigkeit, Langzeitverhalten und Grenzereignissen beantworten. Darüber hinaus wird das Perron-Frobenius-Theorem diskutiert, das die Bedeutung von Eigenvektoren und Eigenwerten für die Bestimmung des Langzeitverhaltens des Systems hervorhebt. Das Video schließt mit einer Einführung in das Konzept der Martingalprozesse, die als Fair-Game-Modelle dienen.

Das Video beginnt mit der Einführung des Konzepts von Martingalen in stochastischen Prozessen, die darauf ausgelegt sind, einen unveränderten Erwartungswert aufrechtzuerhalten. Ein Beispiel für ein Martingal ist ein Random Walk, der Schwankungen aufweist und gleichzeitig einen Erwartungswert von 1 konstant beibehält. Das Video erläutert auch Stoppzeiten, bei denen es sich um vorgegebene Strategien handelt, die nur von den stochastischen Prozesswerten bis zu einem bestimmten Punkt abhängig sind. Der optionale Stoppsatz besagt, dass, wenn ein Martingal und eine Stoppzeit Tau existieren, der erwartete Wert zum Stoppzeitpunkt gleich dem Anfangswert des Martingals ist. Dieser Satz unterstreicht die Fairness und den Gleichgewichtscharakter von Martingalprozessen.

Im gesamten Video werden verschiedene Themen ausführlich behandelt. Es werden zeitdiskrete und zeitkontinuierliche stochastische Prozesse vorgestellt und ihre Darstellung durch Wahrscheinlichkeitsverteilungen über verschiedene Pfade veranschaulicht. Beispiele wie eine einfache Zufallswanderung und ein Münzwurfspiel helfen dabei, die Eigenschaften und Verhaltensweisen dieser Prozesse zu verdeutlichen. Die Bedeutung von Markov-Ketten wird diskutiert, wobei betont wird, dass der zukünftige Zustand ausschließlich vom aktuellen Zustand abhängt, was die Analyse stochastischer Prozesse vereinfacht. Der Begriff der stationären Verteilung wird untersucht und dabei das Perron-Frobenius-Theorem vorgestellt, das die Existenz eines eindeutigen Eigenvektors nachweist, der dem größten Eigenwert entspricht und das Langzeitverhalten des Systems darstellt.

Das Video schließt mit der Betonung des Zusammenhangs zwischen Martingalen und fairen Spielen. Es wird darauf hingewiesen, dass ein Martingalverfahren dafür sorgt, dass der Erwartungswert unverändert bleibt, was ein ausgeglichenes Spiel bedeutet. Umgekehrt sind Spiele wie Roulette in Casinos keine Martingale, da der Erwartungswert kleiner als 0 ist, was zu erwarteten Verlusten für die Spieler führt. Abschließend wird ein Theorem erwähnt, das besagt, dass, wenn ein Spieler mithilfe eines Martingals modelliert wird, das Guthaben unabhängig von der verwendeten Strategie immer gleich dem Anfangsguthaben sein wird. Darüber hinaus ist der Erwartungswert von X_tau, dem Wert zum Stoppzeitpunkt, immer 0, was darauf hinweist, dass bei der Modellierung durch ein Martingal nicht erwartet wird, dass der Spieler gewinnt.

Insgesamt bietet das Video einen umfassenden Überblick über stochastische Prozesse, ihre Eigenschaften und ihre Anwendungen bei der Modellierung und Analyse zufälliger Ereignisse.

  • 00:00:00 In diesem Abschnitt gibt der Professor eine Einführung in stochastische Prozesse, eine Sammlung zeitlich indizierter Zufallsvariablen. Sie unterscheidet zwischen zeitdiskreten und zeitkontinuierlichen stochastischen Prozessen und erklärt, dass diese durch eine Reihe von Wahrscheinlichkeiten über verschiedene Pfade dargestellt werden können. Sie nennt Beispiele für drei stochastische Prozesse, darunter einen, bei dem f(t) mit der Wahrscheinlichkeit 1 gleich t ist, einen, bei dem f(t) mit der Wahrscheinlichkeit 1/2 für alle t gleich t ist, oder f(t) gleich ist -t für alle t mit der Wahrscheinlichkeit 1/2 und eine, bei der für jedes t f(t) gleich t oder -t mit der Wahrscheinlichkeit 1/2 ist.

  • 00:05:00 In diesem Abschnitt diskutiert der Referent das Konzept stochastischer Prozesse und die verschiedenen Arten von Fragestellungen, die in Bezug auf sie untersucht werden. Stochastische Prozesse werden zur Modellierung realer Situationen, beispielsweise von Aktienkursen, verwendet und beinhalten voneinander abhängige Zufallsvariablen. Zu den drei Hauptfragetypen, die untersucht werden, gehören Abhängigkeiten in der Wertefolge, Langzeitverhalten und Grenzereignisse. Der Referent erklärt, wie jeder Fragetyp mit stochastischen Prozessen und deren Wahrscheinlichkeitsverteilung zusammenhängt.

  • 00:10:00 In diesem Abschnitt wird das Thema stochastische Prozesse eingeführt, das sich auf die Analyse zufälliger Ereignisse bezieht, die im Laufe der Zeit auftreten. Konkret liegt der Fokus auf zeitdiskreten stochastischen Prozessen, einer der wichtigsten davon ist die einfache Irrfahrt. Dies ist definiert als eine Folge von Zufallsvariablen X sub t, die die Summe unabhängiger identisch verteilter (IID) Variablen Y_i ist, die mit einer Wahrscheinlichkeit von 1/2 Werte von 1 oder -1 annehmen können. Die Flugbahn des Random Walk kann als eine Abfolge von Bewegungen visualisiert werden, entweder nach oben oder nach unten, abhängig vom Wert von Y_i. Dieses Modell wird eine Grundlage für das Verständnis zeitkontinuierlicher stochastischer Prozesse im späteren Verlauf des Kurses bilden.

  • 00:15:00 In diesem Abschnitt diskutiert der Professor das Verhalten eines einfachen Random Walk über einen langen Zeitraum. Gemäß dem zentralen Grenzwertsatz ist die Varianz umso kleiner, je näher ein X_t-Wert an 0 kommt. Sie sollte über t etwa 1 betragen, und die Standardabweichung über der Quadratwurzel von t sollte etwa 1 betragen. Wenn X_t über der Quadratwurzel von t beobachtet wird, weisen die Werte eine Normalverteilung auf, wobei der Mittelwert 0 und die Varianz die Quadratwurzel von t ist. Daher weicht eine einfache Zufallswanderung in einem sehr großen Maßstab nicht zu weit von der Quadratwurzel von t und der Minusquadratwurzel von t-Kurven ab. Auch wenn ein theoretischer Extremwert für den Walk t und minus t ist, werden Sie sich in der Nähe der Kurven befinden und hauptsächlich in diesem Bereich spielen. Der Professor erwähnt, dass es einen Satz gibt, der besagt, dass man die beiden Zeilen unendlich oft treffen wird.

  • 00:20:00 In diesem Abschnitt werden die Eigenschaften einer Irrfahrt besprochen. Die erste Eigenschaft ist, dass die Erwartung von X sub k 0 ist, und die zweite Eigenschaft wird als unabhängiges Inkrement bezeichnet. Das heißt, wenn man sich anschaut, was vom Zeitpunkt 1 bis 10 passiert, ist es irrelevant für das, was vom Zeitpunkt 20 bis 30 passiert. Die dritte Eigenschaft wird als stationär bezeichnet. Es besagt, dass die Verteilung von X sub t+h minus X sub t dieselbe ist wie die Verteilung von X sub h. Am Beispiel eines Münzwurfspiels soll gezeigt werden, dass, wenn Sie mit einer fairen Münze bei einem Guthaben von 0,00 $ beginnen, Ihr Guthaben genau dem einfachen Zufallspfad folgt, vorausgesetzt, die Wahrscheinlichkeit liegt bei 50:50.

  • 00:25:00 In diesem Abschnitt bespricht der Professor die Wahrscheinlichkeiten in einem Random-Walk-Szenario, bei dem er eine Münze wirft und entweder nach einem Gewinn von 100 $ oder einem Verlust von 50 $ aufhört. Indem er an den beiden Haltepunkten eine Linie zieht, erklärt er, dass die Wahrscheinlichkeit, zuerst die obere Linie zu treffen, A über A plus B ist und die Wahrscheinlichkeit, zuerst die untere Linie zu treffen, B über A plus B ist. Mit dieser Formel berechnet er dass die Wahrscheinlichkeit, 100 $ zu gewinnen, 2/3 und die Wahrscheinlichkeit, 50 $ zu verlieren, 1/3 beträgt. Der Professor erläutert dann, wie diese Formel bewiesen werden kann, indem er f von k als die Wahrscheinlichkeit definiert, eine der beiden Geraden zuerst zu treffen, wenn man bei der Zufallswanderung an Position k beginnt.

  • 00:30:00 In diesem Abschnitt diskutiert der Referent zwei wichtige stochastische Prozesse: die einfache Irrfahrt und die Markov-Kette. Der einfache Zufallslauf ist ein Prozess, bei dem eine Person bei jedem Schritt mit einer Wahrscheinlichkeit von 1/2 entweder nach oben oder nach unten geht. Die stationäre Eigenschaft dieses Prozesses ermöglicht eine einfache Berechnung von Wahrscheinlichkeiten. Andererseits ist eine Markov-Kette eine Sammlung stochastischer Prozesse, bei denen die Auswirkungen der Vergangenheit auf die Zukunft durch den aktuellen Zustand zusammengefasst werden. Die Bedeutung der Markov-Kette besteht darin, dass die Zukunft nur von der Gegenwart abhängt, was die Analyse zu einem besser beherrschbaren stochastischen Prozess macht.

  • 00:35:00 In diesem Abschnitt erläutert der Referent das Konzept zeitdiskreter stochastischer Prozesse als Markov-Kette. Am Beispiel einer einfachen Zufallswanderung soll verdeutlicht werden, dass es sich bei dem Prozess um eine Markov-Kette handelt, da die Wahrscheinlichkeit, den nächsten Schritt zu erreichen, nur vom aktuellen Wert und nicht von seinen vorherigen Werten abhängt. Die Wahrscheinlichkeit des Prozesses kann mathematisch definiert werden, wobei die Wahrscheinlichkeit seines Übergangs von i nach j die Summe aller Wahrscheinlichkeiten des Übergangs von i zu allen anderen Punkten in der Menge ist. Für eine endliche Menge S lassen sich Markov-Ketten leicht durch Berechnung ihrer Übergangswahrscheinlichkeiten beschreiben.

  • 00:40:00 In diesem Abschnitt erklärt der Sprecher, dass die Übergangswahrscheinlichkeitsmatrix ein entscheidendes Werkzeug zum Verständnis von Markov-Ketten ist. Diese Matrix, die aus den Wahrscheinlichkeiten des Übergangs von einem Zustand in einen anderen besteht, verfügt über alle Informationen, die zur Vorhersage zukünftiger Übergänge in einer Markov-Kette erforderlich sind. Mithilfe dieser Matrix kann man die Wahrscheinlichkeit bestimmen, mit der ein Übergang von einem Zustand in einen anderen in beliebig vielen Schritten erfolgt. Es ist jedoch wichtig zu beachten, dass der Zustandsraum endlich sein muss, damit die Übergangswahrscheinlichkeitsmatrix existiert.

  • 00:45:00 In diesem Abschnitt wird ein Beispiel einer Markov-Kette für ein System gegeben, das als Zustandsmenge mit funktionierenden oder unterbrochenen Zuständen modelliert werden kann. Das Beispiel zeigt eine Matrix mit Übergangswahrscheinlichkeiten zwischen Zuständen wie der Wahrscheinlichkeit, dass sie repariert wird, und der Wahrscheinlichkeit, dass sie kaputt bleibt. Die gestellte Frage ist, wie die Wahrscheinlichkeitsverteilung des Systems nach einem langen Zeitraum, beispielsweise 10 Jahren, aussehen würde, und es wird davon ausgegangen, dass die Wahrscheinlichkeitsverteilung am Tag 3.650 und am Tag 3.651 ungefähr gleich sein sollte. Unter dieser Annahme ist die nach einem langen Zeitraum beobachtete Wahrscheinlichkeitsverteilung der Eigenvektor der Matrix, deren Eigenwert 1 und deren Eigenvektor [p, q] ist.

  • 00:50:00 In diesem Abschnitt diskutiert der Redner das Perron-Frobenius-Theorem, das besagt, dass es für eine Übergangsmatrix mit positiven Einträgen in einer Markov-Kette einen Vektor gibt, der Av = v erfüllt. Dieser Vektor wird als stationäre Verteilung und bezeichnet stellt das Langzeitverhalten des Systems dar. Der größte Eigenwert der Matrix ist garantiert 1, und der entsprechende Eigenvektor ist derjenige, der die stationäre Verteilung darstellt. Der Satz ist allgemein und gilt nicht nur für die im Beispiel verwendete Matrix, sondern für jede Übergangsmatrix in einer Markov-Kette mit positiven Einträgen.

  • 00:55:00 In diesem Abschnitt diskutiert der Professor die stationäre Verteilung und ihre Einzigartigkeit in Bezug auf Eigenvektoren und Eigenwerte. Das Perron-Frebenius-Theorem besagt, dass es nur einen Eigenvektor gibt, der dem größten Eigenwert entspricht, der sich als 1 herausstellt. Die anderen Eigenwerte in der Matrix sind kleiner als 1, was bedeutet, dass sie sich auflösen, aber das der stationären Verteilung entsprechende Verhalten bleibt bestehen . Im letzten Thema erklärt der Professor Martingal, eine weitere Sammlung stochastischer Prozesse, die zur Modellierung eines fairen Spiels verwendet werden. Ein stochastischer Prozess wird als Martingal betrachtet, wenn es sich um ein faires Spiel handelt.

  • 01:00:00 In diesem Abschnitt erklärt der Dozent, wie ein stochastischer Prozess ein Martingal sein kann, was ein faires Spiel ist. Wenn man sich in einem Martingal ansieht, was zum Zeitpunkt t+1 passieren könnte, muss der erwartete Wert genau dem Wert zum Zeitpunkt t entsprechen, sodass der Prozess an diesem Punkt zentriert ist. Wenn es sich um Ihren Kontostand in einem Spiel handelt, wird von Ihnen erwartet, dass Sie überhaupt kein Geld gewinnen. Der Dozent führt das Beispiel eines Random Walks an, bei dem es sich um ein Martingal handelt. Ein Roulettespiel in einem Casino ist jedoch kein Martingal, da der erwartete Wert kleiner als 0 ist, was bedeutet, dass der Spieler darauf ausgelegt ist, Geld zu verlieren. Abschließend zeigt der Dozent ein lustiges Beispiel, um zu veranschaulichen, dass es viele Möglichkeiten gibt, wie ein stochastischer Prozess ein Martingal sein kann, indem er sich das Beispiel ausdenkt, bei dem X_k je nach Wahrscheinlichkeitsverteilung entweder 2 oder -1 ist.

  • 01:05:00 In diesem Abschnitt wurde das Konzept der Martingale vorgestellt, bei denen es sich um stochastische Prozesse handelt, die so konzipiert sind, dass der Erwartungswert immer gleich 1 ist. Ein Beispiel für ein Martingal ist ein Random Walk, der stark schwankt, aber in der Erwartung, behält jederzeit einen erwarteten Wert von 1 bei. Es wurde auch der optionale Stoppsatz besprochen, der besagt, dass das Spielen eines Martingalspiels sicherstellt, dass Sie in Erwartung weder gewinnen noch verlieren, unabhängig von der Strategie, die Sie verwenden. Es wurde auch die Definition der Stoppzeit erläutert, bei der es sich um eine nichtnegative Zufallsvariable mit ganzzahligem Wert handelt, die nur bis zu einem bestimmten Zeitpunkt vom stochastischen Prozess abhängt.

  • 01:10:00 In diesem Abschnitt erklärt der Professor das Konzept einer Stoppzeit, bei der es sich um einen vordefinierten Satz von Strategien handelt, die sich nur bis zu einem bestimmten Punkt auf die Werte des stochastischen Prozesses stützen, was ihn zu einer Stoppzeit macht. Er liefert ein Beispiel für ein Münzwurfspiel und zeigt, dass der Zeitpunkt, zu dem der Kontostand 100 $ oder minus 50 $ erreicht, eine Stoppzeit ist, während der Zeitpunkt des ersten Höhepunkts dies nicht ist, da er von zukünftigen Werten abhängt. Der optionale Stoppsatz besagt, dass bei einem Martingal und einer Stoppzeit tau, die immer kleiner oder gleich einer Konstante T ist, der Wert zum Stoppzeitpunkt einen erwarteten Wert haben wird, der dem Anfangswert des Martingals entspricht.

  • 01:15:00 In diesem Abschnitt wird im Video ein Theorem besprochen, das zeigt, dass, wenn ein Spieler mithilfe eines Martingals modelliert wird, unabhängig von der verwendeten Strategie der Spieler nicht gewinnen kann, da das Guthaben am Anfang immer gleich dem Guthaben am Ende ist Spieler hört auf. Obwohl der Dozent diesen Satz nicht beweist, liefern sie eine interessante Folgerung, die zeigt, dass der Erwartungswert von wird immer als 0 zurückgegeben. Der Dozent betont, dass der Inhalt des Satzes interessant ist, da er impliziert, dass der Spieler nicht gewinnen sollte, wenn etwas mit einem Martingal modelliert werden kann.
5. Stochastic Processes I
5. Stochastic Processes I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum Lee*NOT...
Grund der Beschwerde: