Quantitativer Handel - Seite 8

 

Rama Cont und Francesco Capponi: „Kreuzwirkung auf den Aktienmärkten“



Rama Cont und Francesco Capponi: „Kreuzwirkung auf den Aktienmärkten“

Rama Cont und Francesco Capponi vertiefen sich anhand ihrer Analyse von Auftragsströmen und Preisdaten in das Konzept des Cross-Impact an den Aktienmärkten. Sie behaupten, dass Cross-Impact bedeutet, dass der Preis eines Vermögenswerts nicht nur durch seinen eigenen Auftragsfluss, sondern auch durch den Auftragsfluss anderer Vermögenswerte beeinflusst wird. Während in früheren theoretischen Studien versucht wurde, die Konsequenzen von Cross-Impact-Effekten abzuleiten und Modelle zur optimalen Handelsausführung für einzelne Vermögenswerte auf mehrere Vermögenswerte auszudehnen, schlagen Cont und Capponi einen schlankeren Ansatz vor, um Korrelationen zwischen Vermögenserträgen und Auftragsfluss zu erklären.

Sie argumentieren, dass eine umfassende Matrix von Preisauswirkungskoeffizienten nicht erforderlich sei, um diese Korrelationen zu berücksichtigen. Stattdessen behaupten sie, dass die beobachteten Korrelationen auf die Tatsache zurückzuführen sind, dass Marktteilnehmer häufig mehrere Vermögenswerte handeln, was zu korrelierten Ungleichgewichten im Auftragsfluss zwischen den Vermögenswerten führt. Um die Bedeutung von Cross-Impact-Koeffizienten und die Haupttreiber der Ausführungskosten zu ermitteln, schlagen die Referenten die Verwendung einer Hauptkomponentenanalyse (PCA) für die Korrelationsmatrizen von Renditen und Auftragsflussungleichgewichten vor.

Cont und Capponi schlagen ein sparsames Modell für gegenseitige Auswirkungen auf den Aktienmärkten vor, das sich auf das eigene Auftragsflussgleichgewicht einer Aktie und die Korrelation von Auftragsflussungleichgewichten konzentriert. Sie stellen fest, dass ein Ein-Faktor-Modell für das Auftragsflussungleichgewicht ausreicht, um die Kreuzkorrelationen der Renditen zu erklären. Dieses Modell kann für die Portfolioausführung und Transaktionskostenanalyse verwendet werden, wobei die Referenten die Verwendung eines zuverlässigen Modells für die Auswirkungen einzelner Vermögenswerte in Verbindung mit einem guten Modell für gemeinsame Faktoren im Auftragsfluss zwischen Vermögenswerten empfehlen.

Die Redner betonen, wie wichtig es ist, ein Kausalmodell und eine Interpretation der Gleichung zu erstellen. Sie bringen ihre Bereitschaft zum Ausdruck, zusätzliche Materialien und Aktualisierungen weiterzugeben, und betonen ihr Engagement für die Förderung des Verständnisses in diesem Forschungsbereich.

  • 00:00:00 In diesem Abschnitt des Videos diskutieren Rama Cont und Francesco Capponi das Konzept des Cross-Impacts auf den Aktienmärkten. Sie untersuchen dieses Konzept, indem sie Auftragsfluss- und Preisdaten von Aktienmärkten analysieren und erklären, dass Marktauswirkungen oder die Ausführung von Geschäften, die den Preis eines Vermögenswerts beeinflussen, zu den Ausführungskosten beitragen. Sie zeigen auch, dass Preisbewegungen durch das aggregierte Ungleichgewicht zwischen Angebot und Nachfrage bestimmt werden, und definieren den Begriff des Auftragsflussungleichgewichts als nützliches Instrument für die Erstellung von Wirkungsmodellen.

  • 00:05:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi die linearen Auswirkungen des Ungleichgewichts des Auftragsflusses in zentralisierten Auftragsbuchmärkten. Dieses aggregierte Ungleichgewicht zwischen Angebot und Nachfrage bestimmt den Preis, der als Regressionsmodell angesehen werden kann, wobei der Auswirkungskoeffizient die entgegengesetzte Vorstellung von Liquidität widerspiegelt. Der Koeffizient korreliert stark invers mit der Tiefe des Auftragsbuchs, und die Ermittlung des Auswirkungskoeffizienten kann durch eine Kovarianzberechnung erfolgen. Während die Studie zuvor für einzelne Aktien durchgeführt wurde, sind Marktteilnehmer auch an Korrelationen zwischen mehreren Vermögenswerten interessiert, und es wurden positive Korrelationen zwischen dem Ungleichgewicht des Auftragsflusses und den Renditen verschiedener Wertpapiere festgestellt.

  • 00:10:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi das Konzept des Cross-Impact und seine theoretischen und empirischen Studien. Sie erklären, dass sich Cross-Impact auf die Tatsache bezieht, dass der Preis eines Vermögenswerts nicht nur durch seinen eigenen Auftragsfluss, sondern auch durch den Auftragsfluss anderer Vermögenswerte beeinflusst wird. Empirische Studien haben zumindest in der homogenen Anlageklasse eine positive Korrelation zwischen dem Auftragsfluss eines Vermögenswerts und den Preisbewegungen eines anderen Vermögenswerts dokumentiert. In theoretischen Studien wurde versucht, die Konsequenzen solcher Cross-Impact-Effekte abzuleiten, und das Modell für die optimale Handelsausführung eines einzelnen Vermögenswerts auf mehrere Assets ausgeweitet, bei denen das Modell Cross-Impact-Effekte berücksichtigt. Dies führt jedoch zu einer Vielzahl von Cross-Impact-Koeffizienten, die geschätzt werden müssen.

  • 00:15:00 In diesem Abschnitt diskutieren die Referenten das Konzept des Cross-Impacts und seine Relevanz für die Erklärung beobachtbarer Marktphänomene. Sie fragen sich, ob eine vollständige Matrix von Preisauswirkungskoeffizienten notwendig ist, um die Korrelationen zwischen Anlagerenditen und Auftragsfluss in einem Markt zu erklären, und ob ein sparsamerer Ansatz möglich ist. Sie ziehen auch Analogien zu Fernwirkungen in der Physik und diskutieren die Notwendigkeit eines zugrunde liegenden Mechanismus, der Vermögenswerte miteinander verbindet, um kausale Auswirkungen festzustellen. Ziel ist es, ein Multi-Asset-Impact-Modell zu entwerfen, das nur notwendige Koeffizienten enthält und unnötige Komplexität vermeidet.

  • 00:20:00 In diesem Abschnitt argumentieren die Redner, dass das Konzept des Cross-Impacts unnötig ist, um die an den Aktienmärkten beobachteten Kovariationen der Preisbewegungen und das Ungleichgewicht des Auftragsflusses zu erklären. Die beobachteten Korrelationen können durch die Tatsache erklärt werden, dass Marktteilnehmer oft mit mehreren Vermögenswerten handeln, was zu korrelierten Ungleichgewichten im Auftragsfluss zwischen den Vermögenswerten führt, was wiederum zu Korrelationen in den Renditen verschiedener Vermögenswerte führt. Die Referenten stellen ein Kausalmodelldiagramm vor, das zeigt, dass der Preis eines Vermögenswerts durch das Auftragsflussungleichgewicht bestimmt wird, das die algebraische Summe aller Kauf- und Verkaufsaufträge ist, die von Unternehmen und Multi-Asset-Handelsstrategien generiert werden. Sie argumentieren, dass das Einzel-Asset-Impact-Modell ausreicht, um diese Korrelationen zu erklären, und dass kein zusätzliches Cross-Impact-Modell erforderlich ist.

  • 00:25:00 In diesem Abschnitt wird die traditionelle Sichtweise, dass Angebot und Nachfrage den Preis für jeden Vermögenswert bestimmen und Korrelationen in der Auftragsflussbilanz erzeugen, mit dem Cross-Impact-Modell verglichen, das einen Mechanismus postuliert, der die Rendite einer Aktie beeinflusst aus der Ferne. Diese Annahmen können mit den verfügbaren Daten zum Auftragsfluss und den Retouren getestet werden, indem Variablen im Diagramm konditioniert und bedingte Regressionen durchgeführt werden. Die Konstruktion der Auswirkungsmodelle für mehrere Vermögenswerte und das damit verbundene Identifikationsproblem werden diskutiert. Ein lineares Modell mit zwei Variablen, Renditen und OFI, wird verwendet, um Matrizen von Theta- und Beta-Koeffizienten zu erstellen. Der Netto-Orderfluss für eine Aktie ist definiert als der Zufluss zur Bid-Warteschlange abzüglich des Abflusses aus der Ask-Warteschlange.

  • 00:30:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi die Kovarianz von Renditen mit dem Ungleichgewicht des Auftragsflusses und wie sie mit der Beta-Matrix und den gegenseitigen Auswirkungen zusammenhängt. Sie betonen, dass es nicht notwendig ist, nicht-diagonale Elemente in der Beta-Phase zu haben, um nicht-diagonale Elemente in der Kovarianzmatrix zu erhalten, da die Kovarianz entweder aus der Korrelation von Auftragsflüssen oder der Cross-Impact-Matrix stammen kann. Das Beispiel zweier Aktien ohne Korrelation in den Auftragsflüssen, aber mit Cross-Impact-Koeffizienten verdeutlicht, wie wichtig es ist, die Korrelation der Orderflüsse zu kennen, um den Cross-Impact-Koeffizienten zu ermitteln. Die Kovarianzmatrix wird durch die Korrelations- und Cross-Impact-Koeffizienten im Modell beeinflusst, die bei Zahlen in verschiedenen Szenarien beobachtet werden können.

  • 00:35:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi den Unterschied zwischen der Modellierung der Korrelation und des Auftragsflusses über Aktien hinweg und dem Verständnis der gegenseitigen Auswirkungen und der Modellierung dieser. Sie erklären, dass die bloße Beobachtung einer Korrelation zwischen dem Auftragsfluss eines Vermögenswerts und der Rendite eines anderen Vermögenswerts ungleich Null nicht bedeutet, dass Sie im Modell einen Kreuzwirkungskoeffizienten ungleich Null benötigen. Sie präsentieren auch Beispiele für geringe Korrelation und Auftragsfluss, hohe Kreuzauswirkungen und umgekehrt, um zu zeigen, dass es unmöglich ist, allein aus diesen Kovarianzen auf die Kreuzwirkung zu schließen. Abschließend besprechen sie die von ihnen analysierten Daten, darunter den Nettoauftragsfluss, die Auftragsflussungleichgewichte und die Renditen von 67 Aktien des NASDAQ 100 über zweieinhalb Jahre, und erläutern, wie sie die Renditen und Auftragsflussungleichgewichte neu definiert und normalisiert haben.

  • 00:40:00 In diesem Abschnitt des Videos untersuchen die Referenten den Zusammenhang zwischen der Korrelation von Aktienrenditen und den Ungleichgewichten im Auftragsfluss verschiedener Aktien. Indem die Redner die Korrelation der Aktienrenditen mit den Ungleichgewichten des Auftragsflusses anderer Aktien grafisch darstellen, zeigen sie, dass die überwiegende Mehrheit der Aktienpaare eine Korrelation aufweisen, die sehr nahe an der Gleichheit liegt, was darauf hindeutet, dass die Korrelation zwischen Renditen und Ungleichgewichten des Auftragsflusses einfach auf das zurückzuführen sein könnte Korrelation zwischen verschiedenen Salden. Um zu testen, ob ein multivariates Marktauswirkungsmodell erforderlich ist, verwenden die Referenten eine Regressionsanalyse und stellen fest, dass die Kreuzwirkungskoeffizienten sehr nahe bei Null liegen, was darauf hindeutet, dass sie, selbst wenn sie identifizierbar wären, nur einen geringen Einfluss auf die Gesamtwirkung haben.

  • 00:45:00 In diesem Abschnitt schlagen Rama Cont und Francesco Capponi einen anderen Ansatz vor, um die Bedeutung von Cross-Impact-Koeffizienten und die Haupttreiber der Ausführungskosten zu identifizieren. Sie schlagen vor, eine Hauptkomponentenanalyse (PCA) für die Korrelationsmatrizen von Renditen und Auftragsflussgleichgewicht zu verwenden und ein Faktormodell für das Auftragsflussungleichgewicht zu verwenden. Die erste Hauptkomponente des Faktormodells wird verwendet, um die verbleibende Signifikanz eines beliebigen Crossing-Impact-Koeffizienten zu testen, und das Residuum der Regression wird als idiosynkratischer Ordnungsfluss interpretiert, der nur auf Maßnahmen in diesem Bestand zurückzuführen ist. Der Ansatz zielt darauf ab, den Beitrag der idiosynkratischen Komponente des eigenen Orderflusses einer Aktie von der gemeinsamen Komponente aufgrund des Cross-Tradings zu trennen.

  • 00:50:00 In diesem Abschnitt des Videos diskutieren Rama Cont und Francesco Capponi die Korrelation zwischen den ersten Hauptkomponenten von Renditen und Auftragsflusssalden von ETFs, die den Nasdaq 100 und S&P 500 abbilden. Sie stellen fest, dass die erste Hauptkomponente von Die Renditen korrelieren zu 91 % mit der Gesamtrendite des ETF, der den Nasdaq 100 nachbildet. Ebenso weist die erste Hauptkomponente des Auftragsflusssaldos eine Korrelation von 82 % mit dem Auftragsflusssaldo des ETF QQQ auf, der denselben Index nachbildet . Sie stellen außerdem fest, dass die ersten Hauptkomponenten sowohl des Rendite- als auch des Auftragsflussungleichgewichts mit der Gesamtmarktbewegung zusammenhängen. Dies führt sie dazu, ihren zweistufigen Ansatz zu erläutern, um Gemeinsamkeiten im Auftragsfluss zu beseitigen und die Rendite zu steigern.

  • 00:55:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi die gegenseitigen Auswirkungen auf den Aktienmärkten. Dabei geht es darum, wie sich das Ungleichgewicht des Orderflusses einer Aktie selbst und die Gemeinsamkeit des Orderflusses zwischen Aktien auf die Rendite einer Aktie auswirken. Sie zeigen, dass der Self-Impact-Koeffizient ein wesentlicher Faktor für die Rendite einer Aktie ist, während der Cross-Impact-Koeffizient sehr klein ist und fast alle negativ wird, wenn man die Hauptkomponente berücksichtigt. Anschließend testen sie, inwieweit Cross-Impact-Begriffe zur Erklärung der Ausführungskosten von Retouren beitragen, und bewerten, ob sie statistisch und wirtschaftlich signifikant sind, stellen aber auch ihre Stabilität im Zeitverlauf in Frage.

  • 01:00:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi die Auswirkungen von Cross-Impact und ihre Bedeutung auf den Aktienmärkten. Sie kommen zu dem Schluss, dass die Statistiken zwar aus wirtschaftlicher Sicht bedeutsam sein können, das Ausmaß jedoch gering ist und es kaum einen erkennbaren Unterschied in der Erklärungskraft gibt, wenn alle anderen Ungleichgewichte im Auftragsfluss in die Regression einbezogen werden. Sie plädieren für eine sparsamere Art der Modellierung der Auswirkungen und schlagen vor, nur die eigene Auftragsflussbilanz einer Aktie und die Korrelation von Auftragsflussungleichgewichten mit der Modellauswirkung zu verwenden. Sie betonen außerdem die Bedeutung der Stabilität über die Zeit und analysieren die Teilstichproben, um sicherzustellen, dass die Kreuzwirkungskoeffizienten stabil sind.

  • 01:05:00 In diesem Abschnitt fassen Rama Cont und Francesco Capponi ihre Erkenntnisse zu Cross-Impact-Modellen auf den Aktienmärkten zusammen. Sie argumentieren, dass das Phänomen der positiven Kovariation zwischen Renditen und Auftragsflussgleichgewichten über verschiedene Aktien hinweg erklärt werden kann, ohne hochdimensionale Modelle mit vielen Koeffizienten einzuführen. Ein einfaches Ein-Faktor-Modell für den Auftragsfluss bei Ungleichgewichten reicht aus, um diese Muster der Kreuzkorrelationen der Renditen zu erklären. Sie schlagen vor, dass ein besserer Ansatz zur Erstellung von Multi-Asset-Impact-Modellen darin besteht, sich auf die Erstellung von Modellen gemeinsamer Faktoren im Auftragsfluss zu konzentrieren, beispielsweise ein lineares Faktormodell oder eine Hauptkomponentenanalyse des Auftragsflusses. Um die Höhe der Ausführungskosten bei der Portfolioausführung zu erklären, reicht es aus, ein Single-Asset-Impact-Modell anzuwenden, das den Auftragsfluss mit seiner eigenen Rendite in Beziehung setzt.

  • 01:10:00 In diesem Abschnitt diskutieren Rama Cont und Francesco Capponi die praktischen Anwendungen ihres Modells, insbesondere im Kontext der Portfolioausführung und Transaktionskostenanalyse (TCA). Das Modell ermöglicht die Quantifizierung der Ausführungskosten unter Berücksichtigung der Gemeinsamkeit der Auftragsströme zwischen Vermögenswerten. Der Unterschied in den Ausführungskosten zwischen einem einzelnen Vermögenswert und einem Portfolio hängt mit dem Gemeinsamkeitsfaktor zusammen. Das Modell kann zur Messung der Ausführungskosten auf Portfolioebene verwendet werden und hilft, die Auswirkungen von Handelsportfolios besser zu verstehen. Sie schlagen vor, ein gutes Modell für die Auswirkungen einzelner Vermögenswerte in Verbindung mit einem guten Modell für die gemeinsamen Faktoren des Auftragsflusses zwischen verschiedenen Vermögenswerten zu verwenden.

  • 01:15:00 In diesem Abschnitt diskutieren die Redner die Verwendung der ersten Hauptkomponente der Renditen in Gleichung 12. Sie stellen fest, dass eine hohe Korrelation zwischen der Verwendung der Hauptkomponente von OFI und der Verwendung von Renditen besteht, argumentieren jedoch, dass sie dies wollten ihrer Kausalanalyse zu folgen und die Gemeinsamkeit zu modellieren, damit Ungleichgewichte Renditen erklären können. Sie betonen, wie wichtig es ist, ein kausales Modell und eine Interpretation der Gleichung zu haben. Die Redner danken dem Publikum für ihre Aufmerksamkeit und bringen ihre Bereitschaft zum Ausdruck, weitere Materialien und Aktualisierungen zu teilen.
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

Adam Grealish: „Ein algorithmischer Ansatz für persönliches Investieren“



Adam Grealish: „Ein algorithmischer Ansatz für persönliches Investieren“

Adam Grealish, Director of Investing bei Betterment, gibt Einblicke in den algorithmischen Ansatz des Unternehmens für persönliche Investitionen und seine zielbasierte Strategie. Betterment nutzt ein Robo-Advisory-Modell, das Algorithmen und minimale menschliche Eingriffe nutzt, um seinen Kunden Anlageberatung und -verwaltung zu bieten.

Grealish hebt drei Schlüsselfaktoren hervor, die die Anlageergebnisse bestimmen: niedrige Kosten, Steueroptimierung und intelligenter Handel. Obwohl alle Faktoren wichtig sind, legt Betterment großen Wert auf die ersten drei. Das Unternehmen nutzt die Optimierungstechnik von Black Litterman, um global diversifizierte Portfolios aufzubauen, und überwacht kontinuierlich die Zielgewichte für seinen riesigen Kundenstamm von einer halben Million Privatpersonen. Steueroptimierung, einschließlich Strategien wie Steuerverlusteintreibung, Vermögensstandort und Lossortierung, bietet Möglichkeiten, den Markt zu übertreffen.

Im zweiten Teil seiner Diskussion unterscheidet Grealish den Ansatz von Betterment von traditionellen automatisierten Finanzberatern. Im Gegensatz zum „one-size-fits-all“-Ansatz traditioneller Robo-Advisors berücksichtigt der algorithmische Ansatz von Betterment individuelle Faktoren wie Ziele, Zeithorizont und Risikotoleranz. Diese Anpassung ermöglicht personalisierte Portfolios, die auf die individuelle Situation jedes Anlegers zugeschnitten sind. Betterment bietet außerdem zusätzliche Funktionen wie die Erhebung von Steuerverlusten und steuerkoordinierte Portfolios, um die Steuereffizienz zu maximieren und die Rendite zu steigern.

Grealish geht weiter auf die Besonderheiten der Anlagestrategien von Betterment ein. Das Unternehmen fördert eine langfristige Allokationsstabilität und passt die Portfolios nur einmal im Jahr an, um sich der Zielallokation anzunähern. Sie nutzen auslöserbasierte Neuausgleichsalgorithmen, um Abweichungen von der Zielzuteilung zu verwalten und Risiken zu minimieren. Die Portfolios von Betterment werden unter Verwendung breit angelegter, auf der Marktkapitalisierung basierender ETFs zusammengestellt, wodurch das Engagement in risikoreichen Anlageklassen mit den damit verbundenen Risikoprämien optimiert wird.

Kostenoptimierung ist ein wesentlicher Aspekt der Investmentphilosophie von Betterment. Das Unternehmen nutzt den Trend sinkender ETF-Gebühren und überprüft vierteljährlich das gesamte ETF-Universum. Der Auswahlprozess berücksichtigt Faktoren, die über die Kostenquote hinausgehen, einschließlich Tracking Error und Handelskosten, was zu kostengünstigen Portfolios für die Kunden von Betterment führt.

Die Steueroptimierung ist ein weiteres entscheidendes Element der Strategie von Betterment. Grealish erklärt die Bedeutung des Steuermanagements und skizziert drei wirksame Strategien: Steuerverlusteintreibung, Vermögensstandort und Lossortierung. Beim Tax-Loss-Harvesting geht es darum, Wertpapiere mit Verlust zu verkaufen, um Kapitalverluste für Steuerzwecke zu realisieren, während die Vermögenslokalisierung die Rendite nach Steuern maximiert, indem Vermögenswerte strategisch auf die Konten verteilt werden. Bei der Lossortierung werden zunächst die Lose mit den größten Verlusten verkauft, um die Steuervorteile zu optimieren.

Grealish ist sich der Auswirkungen des Anlegerverhaltens auf die Anlageergebnisse bewusst. Betterment bekämpft negatives Verhalten durch die Implementierung intelligenter Standardvorgaben, den Einsatz von Automatisierung und die Förderung zielorientierter Investitionen. Das Unternehmen setzt bewusstes Design und Datenanalyse ein, um Benutzer zum Handeln zu bewegen, wenn sie von ihren finanziellen Zielen abweichen.

Im Hinblick auf zukünftige Entwicklungen diskutiert Grealish die möglichen Einsatzmöglichkeiten von KI im Fintech-Bereich. Betterment erforscht KI-Anwendungen zur Automatisierung von Finanzaufgaben wie Robo-Advising und Cash-Management. Ziel des Unternehmens ist es, Finanzdienstleistungen, die bisher auf vermögende Privatpersonen und Institutionen beschränkt waren, einem breiteren Publikum zugänglich zu machen. Allerdings stellt die Komplexität der Individualisierung der Steuervorbereitung in diesem Bereich Herausforderungen dar.

Insgesamt bietet Adam Grealish wertvolle Einblicke in den algorithmischen Ansatz von Betterment für Privatinvestitionen, wobei der Schwerpunkt auf zielbasierten Strategien, Kostenoptimierung, Steuermanagement und Verhaltensminderung liegt.

  • 00:00:00 Adam Grealish stellt Betterment vor, eine automatisierte Online-Anlageberatungsplattform, die einen zielorientierten Ansatz für das Anlagemanagement verwendet. Ziel ist es, den Kunden durch optimale Anlagestrategien hohe Renditen zu bieten. Betterment verfügt über ein Direktkundengeschäft, eine White-Label-Technologieplattform für Finanzberater und ein 401k-Geschäft. Der Begriff „Roboadvisor“ beschreibt den Ansatz von Betterment treffend, da das Unternehmen digitale Finanzberatung durch von Software ausgeführte Algorithmen mit minimalem menschlichen Eingriff bietet.

  • 00:05:00 Adam Grealish, der Direktor von Investing for Betterment, erklärt ihren Anlageansatz, der auf Algorithmen und mathematischer Modellierung basiert. Die Betterment-Plattform bietet eine völlig unkomplizierte Anlageverwaltungserfahrung ohne die Notwendigkeit menschlicher Interaktion sowie Zugang zu menschlichen Beratern für diejenigen, die dies wünschen. Laut Grealish sind die wichtigsten Faktoren, die die Anlageergebnisse bestimmen, niedrige Kosten, Steueroptimierung, intelligenter Handel, Vermögensallokation und Wertpapierauswahl. Allerdings konzentriert sich Betterment in erster Linie auf die ersten drei, da diese als am deterministischsten für die Erreichung finanzieller Ziele gelten, während der Schwerpunkt weniger auf der Vermögensallokation und der Wertpapierauswahl liegt. Sie nutzen die Optimierungstechnik von Black Litterman, um ein global diversifiziertes Portfolio aufzubauen und die optimale Rendite für ihre Anleger zu erzielen.

  • 00:10:00 In diesem Abschnitt erläutert Adam Grealish, wie sie Anlegern dabei helfen, auf der Grundlage spezifischer Anlageziele und Zeithorizonte zu entscheiden, wie viel Risiko sie eingehen möchten. Die App gibt Empfehlungen dazu, wie viel Risiko man eingehen sollte, und prognostiziert, wie das im Laufe der Zeit aussehen könnte. Anschließend verwalten sie die Zielgewichte durch tägliche Überwachung, und zwar für eine halbe Million Kunden mit täglich überwachten bis zu 800.000 Einzelportfolios. Die Neuausrichtung wird in erster Linie als Instrument des Risikomanagements angesehen und erfolgt auf steuereffiziente Weise, wenn Cashflows entstehen, Dividenden gezahlt werden oder Gebühren vom Konto abgebucht werden. Grealish diskutiert einen Artikel von Bushi (2012), der die Vorteile einer Neuausrichtung eines Portfolios mit unkorrelierten Wertpapieren im Laufe der Zeit hervorhebt. Schließlich differenzieren sie Ziele auf der Grundlage von Liquidationsprofilen und erstellen einen Gleitpfad basierend auf der Länge des Horizonts.

  • 00:15:00 Adam erläutert, wie ihr algorithmischer Ansatz für das persönliche Investieren funktioniert. Sie ermutigen Anleger, ihre Allokation über einen langen Zeitraum beizubehalten und sie nur einmal im Jahr anzupassen, um sich ihrer Zielallokation anzunähern. Das Team passt die Zielallokation seiner Kunden monatlich an, was es ermöglicht, dass marginale Dollars näher an das korrekte Risikoziel herankommen, ohne dass ein Rebalancing-Trade durchgeführt werden muss, der potenzielle Risiken birgt. Ihre Portfolios basieren vollständig auf breiten, auf der Marktkapitalisierung basierenden ETFs und sie optimieren ihr Engagement in risikoreichen Anlageklassen mit einer damit verbundenen Risikoprämie. Das Team verwendet einen auslöserbasierten Neuausgleichsalgorithmus, der die Abweichung von einer Zielzuteilung misst, und wenn diese zu weit entfernt ist, erfolgt eine Neuausrichtung, um das Risiko zu verwalten. Abschließend stellt Grealish fest, dass es eine große Diskrepanz zwischen Menschen gibt, die viel über Finanzen wissen, und Menschen, die viel über persönliche Finanzen wissen.

  • 00:20:00 In diesem Abschnitt erörtert Adam Grealish den Trend zu sinkenden Gebühren für ETFs, was für Betterment von Vorteil war, da es sich um ein unabhängiges Robo-Advisory-Unternehmen handelt, das nicht an eine einzelne Fondsfamilie gebunden ist. Betterment führt einen vierteljährlichen Fondsauswahlprozess durch, bei dem das gesamte investierbare ETF-Universum überprüft wird und sie nicht nur nach ihrer Kostenquote, sondern auch nach anderen Faktoren wie Tracking Error und Handelskosten eingestuft werden. Betterment konzentriert sich auf die jährlichen Gesamtbetriebskosten oder den „Taco-Score“, der durch die Haltekosten, die Handelskosten und andere Faktoren bestimmt wird. Der Prozess führt zu einem kostengünstigen Portfolio für Betterment.

  • 00:25:00 In diesem Abschnitt des Videos diskutiert Adam Grealish verschiedene Aspekte des Anlageansatzes von Wealthfront. Er erklärt, dass ihre erwarteten Renditen durch umgekehrte Optimierung von cap m generiert werden und dass sie eine Monte-Carlo-Simulationsmaschine verwenden, die auf Steuerlosebene arbeitet, um ihre Steuerstrategien zu testen. Grealish weist außerdem darauf hin, dass die Disintermediation der Fondsbranche durch das Halten einzelner Wertpapiere eine interessante Idee ist, die zwar zu mehr Möglichkeiten zur Steuererhebung und Personalisierung führen kann, aber mit Betriebskosten verbunden ist. Darüber hinaus erklärt er, wie Wealthfront die Kosten für das Halten und Handeln von Investitionen abwägt, um ein genaues Maß für deren Gesamtkosten zu erhalten.

  • 00:30:00 Adam Grealish, CEO von Betterment, erörtert die Bedeutung des Steuermanagements bei Privatinvestitionen und skizziert drei Strategien für ein effektives Steuermanagement: Steuerverlustbeseitigung, Vermögensstandort und Lossortierung. Beim Tax Loss Harvesting geht es darum, Wertpapiere mit Verlust zu verkaufen, um Kapitalverluste für Steuerzwecke zu realisieren, und entsprechende Wertpapiere zu kaufen, um das Marktengagement aufrechtzuerhalten. Betterment zielt darauf ab, die erwirtschafteten Verluste zu maximieren und gleichzeitig die Zielrisikoverteilung beizubehalten und Wash-Sales zu vermeiden, die auftreten, wenn ein Anleger ein Wertpapier mit Verlust verkauft und innerhalb von 30 Tagen ein im Wesentlichen identisches Wertpapier kauft. Grealish weist außerdem darauf hin, dass das Steuermanagement Möglichkeiten bietet, den Markt zu übertreffen, und in bestimmten Situationen zu erheblicher Steuervermeidung führen kann.

  • 00:35:00 Adam rät davon ab, nach 30 Tagen blind wieder in ein Primärwertpapier umzusteigen, um eine Erhöhung Ihrer Steuerschuld zu vermeiden, da Sie möglicherweise einen Dollar an langfristigen Verlusten, aber dann vier Dollar an kurzfristigen Kapitalgewinnen realisieren, was zu einem negativen Ergebnis führt Steuerarbitrage. Er betont außerdem, dass der niedrigere Steuersatz für qualifizierte Dividenden erst nach einem Zeitraum von 60 Tagen greift und ein zu schneller Wechsel Ihre Steuereffizienz beeinträchtigen kann. Grealish empfiehlt die Wahl eines sekundären Wertpapiers mit hoher Korrelation zum primären Wertpapier, vergleichbaren Gebühren und ausreichender Liquidität, um Steuereffizienz sicherzustellen. Wenn es um die Ernte geht, schlägt Grealish vor, einen Schwellenwert festzulegen, bei dem der erwartete Nutzen größer sein sollte als die Transaktionskosten und Opportunitätskosten, die mithilfe der Optionstheorie ermittelt werden können, insbesondere wenn Wertpapiere eine hohe Volatilität aufweisen. Der Backtest von Grealish zeigt einen jährlichen Offset von fast 2 Prozent, er warnt jedoch davor, dass es möglicherweise nicht immer optimal ist, dieser Strategie blind zu folgen.

  • 00:40:00 In diesem Abschnitt erörtert Adam Grealish die Vorteile der Steuerverlusteinziehung und gibt Ratschläge, wie man sie effektiv auf einem Privatkonto anwenden kann. Die Ernte von Steuerverlusten kann ein wirksames Mittel zur Risikobewältigung sein, und Backtest-Ergebnisse zeigen, dass sie das Alpha nach Steuern steigert. Allerdings müssen Benutzer die Transaktionskosten und die Opportunitätskosten zukünftiger Wash-Verkäufe berücksichtigen, wenn sie diese Strategie auf Privatkonten anwenden. Der Standort von Vermögenswerten ist eine weitere Strategie, mit der sich die Rendite nach Steuern maximieren lässt. Durch die Aufteilung von Vermögenswerten auf mehrere Konten, um die Zielallokation und das Risiko des Portfolios zu wahren, können Benutzer ihre Rendite nach Steuern steigern.

  • 00:45:00 Adam Grealish erörtert die steuerliche Behandlung verschiedener Wertpapierarten und bietet einen algorithmischen Ansatz für persönliche Investitionen. Er erklärt, wie man die Anlage auf drei Konten optimiert, indem man die ineffizienten Vermögenswerte auf steuerbegünstigte Konten und die effizienten auf steuerpflichtige Konten verschiebt. Dabei müssen die Wachstumsraten, Dividendenrenditen, Liquidationssteuern und qualifizierten Dividendenertragsquoten der Vermögenswerte berücksichtigt und das Problem als lineares Programmierproblem aufgesetzt werden. Dieser algorithmische Anlageansatz fügt einer nicht optimierten Strategie jährlich etwa 50 Basispunkte hinzu.

  • 00:50:00 In diesem Abschnitt spricht Adam Grealish über die Verwaltung von Steuergrundstücken und darüber, wie Betterment seinen Benutzern hilft, alle ihre Grundstücke zu sortieren und die größten Verluste zuerst zu verkaufen, bevor sie sich den Gewinnen zuwenden und die kleinsten zuerst verkaufen. Er betont auch die Bedeutung von Verlusten für Steuerzwecke und wie sie gegen Kapitalgewinne verwendet, einkommenswirksam abgeschrieben oder vorgetragen werden können. Anschließend erörtert Grealish das Problem der Steuersatzunsicherheit und wie Betterment dieses durch seinen „Black Litman“-Prozess angeht, indem es die Outperformance nach Steuern als Gesichtspunkt einbezieht und ein Maß an Vertrauen dafür angibt. Anschließend führen sie eine gründliche Optimierung ihrer späteren Renditen durch und konstruieren daraus ein optimales Portfolio, während sie ihre Kapitalmarktannahmen und den strategischen Vermögensstandort jährlich überprüfen. Abschließend geht er auf die erhöhte Allokation von Kommunalanleihen in ihrem steuerpflichtigen Portfolio aufgrund ihrer höheren erwarteten Leistung nach Steuern ein.

  • 00:55:00 Adam Grealish diskutiert das Thema Verhalten und wie es sich auf Kleinanleger auswirkt. Er erklärt, dass Anleger dazu neigen, zu kaufen, wenn der Markt steigt, und zu verkaufen, wenn der Markt fällt, was zu einer Underperformance und einem geringeren Vermögen führt. Um dem entgegenzuwirken, legen Robo-Berater intelligente Standardvorgaben fest, nutzen Automatisierung und fördern zielorientiertes Investieren, um besseres Verhalten zu fördern. Adam erwähnt auch Studien, die die auf das Anlegerverhalten zurückzuführende jährliche Underperformance beziffern, die typischerweise zwischen 1 und 4 % liegt.

  • 01:00:00 Adam bespricht den Ansatz von Betterment zur Bekämpfung von Fehlinvestitionsverhalten durch gezieltes Design und Datenanalyse. Er stellt fest, dass rund drei Viertel ihrer Kunden kein Market Timing betreiben und das Unternehmen die Kundenaktivitäten genau überwacht. Betterment nutzt Farbdesign, um anzuzeigen, wenn ein Kunde nicht auf dem richtigen Weg ist, sein finanzielles Ziel zu erreichen, und fordert ihn auf, Maßnahmen zu ergreifen, um wieder auf den richtigen Weg zu kommen. In Zeiten der Marktunsicherheit verlässt sich das Unternehmen auf seine Plattform, um verschiedene Nachrichten und Interventionen zu testen, und stellte fest, dass die Benachrichtigung von Kunden über negative Markttrends Alarm auslöste und zu negativen Ergebnissen führte. Stattdessen erwiesen sich Interventionen und Nachrichten innerhalb der App als wirksamer bei der Reduzierung negativer Ergebnisse und der Erhöhung der Kundeneinlagen.

  • 01:05:00 In diesem Abschnitt erörtert Adam Grealish, Chief Investment Officer von Betterment, inwieweit algorithmisches Investieren durch den Wunsch motiviert ist, Vermögenswerte zu sammeln, und ob es ethisch vertretbar ist. Er weist darauf hin, dass das System vor allem Personen betrifft, die mit ihren Zielen nicht zielführend sind oder kurz davor stehen, auf dem richtigen Weg zu sein, und sagt, dass es bessere Möglichkeiten gäbe, Vermögenswerte zu extrahieren, wenn dies das Ziel des Unternehmens wäre. Weitere Strategien, die er bespricht, umfassen die Änderung von Ersparnissen und Einlagen oder die Änderung des Zielplans. Grealish beschreibt auch den Ansatz von Betterment zur Minderung von Verhaltensverzerrungen, beispielsweise die Funktion „Vorschau auf Steuerauswirkungen“, die Kunden potenzielle Steuerschulden anzeigt und sich als wirksam bei der Verringerung der Wahrscheinlichkeit vorschneller Entscheidungen erwiesen hat.

  • 01:10:00 Adam diskutiert die möglichen Einsatzmöglichkeiten von KI im Fintech-Bereich. Er glaubt, dass KI zunächst bei der Automatisierung peripherer Finanzbereiche wie Robo-Advising und Cash-Management zum Einsatz kommen wird. Betterment erforscht beispielsweise den Einsatz von KI, um ein externes Konto einem Proxy-Ticker zuzuordnen und Transaktionsdaten zu nutzen, um Menschen darüber zu informieren, wie viel Bargeld sie auf ihrem Girokonto haben sollten. Grealish weist außerdem darauf hin, dass Betterment langfristig darauf abzielt, einen Finanzberater in den Mittelpunkt des Finanzlebens aller zu stellen und Dinge, die nur sehr vermögenden und institutionellen Anlegern zur Verfügung standen, allgemein verfügbar zu machen, einschließlich der Steuervorbereitung. Allerdings würde eine Individualisierung der Steuervorbereitung den Problemraum deutlich komplexer machen.

  • 01:15:00 Adam Grealish von Betterment erklärt, dass bundesstaatliche Kommunalanleihen nicht auf der Betterment-Plattform verfügbar sind, weil es nicht immer offensichtlich ist, dass es die beste Option ist, im Bundesstaat zu sein, und es ist ein bisschen wie ein Punkt, der nicht auf der Speisekarte steht . Während Sie mit der Betterment-Plattform externe Konten für beliebige andere Immobilienbestände verknüpfen und Ihr Nettovermögen manuell verfolgen können, sind ressourcenintensive Risiko-Rendite-Bewertungen anderer Fonds ebenfalls nicht verfügbar. Betterment konzentriert sich auf das Nachdenken über Anlageklassen, anstatt eine Anlageklasse aus steuerlichen Gründen auszuschließen, und ist im Robo-Advisory-Bereich aufgrund seiner Struktur als unabhängiger Berater und seiner Einbindung in die täglichen Transaktionen der Kunden einzigartig und wird zu einem Finanzberater mit umfassenderem Serviceangebot . Das Unternehmen führt einige seiner Forschungsberechnungen auf AWS durch, obwohl es noch kein großer Nutzer von AWS oder bestehenden öffentlichen APIs ist.

  • 01:20:00 In diesem Abschnitt bespricht Adam Grealish den Handelsprozess für Betterment. Sie erwogen zwar eine Internalisierung der Orderströme für ihre Kunden, diese Option wurde jedoch aufgrund der Einstufung als alternativer Handelsplatz letztlich nicht verfolgt. Stattdessen verfügt Betterment über einen eigenen Handelsschalter, in dem die Geschäfte über Apex ausgeführt werden, das auch für sie abwickelt. Den Kunden werden keine Transaktionskosten berechnet, sondern nur die pauschale Plattformgebühr, wodurch der Handel seltener erfolgt. Die ETFs von Betterment bestehen aus Aktien und Anleihen und bieten gleichzeitig Steuerersparnisse innerhalb von Rentenfonds. Darüber hinaus verfolgt Betterment alle Renditen abzüglich ihrer erwarteten Rendite, da diese in realisierte und erwartete Renditen unterteilt werden kann.
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

Miquel Noguer i Alonso: „Neueste Entwicklung im Deep Learning im Finanzwesen“



Miquel Noguer i Alonso: „Neueste Entwicklung im Deep Learning im Finanzwesen“

In diesem umfassenden Video untersucht Miquel Noguer i Alonso das Potenzial von Deep Learning im Finanzbereich trotz der inhärenten Komplexität und empirischen Natur der Branche. Deep Learning bietet wertvolle Möglichkeiten zur Erfassung nichtlinearer Beziehungen und zur Erkennung wiederkehrender Muster, insbesondere in unstrukturierten Daten und Finanzanwendungen. Es birgt jedoch auch Herausforderungen wie Überanpassung und begrenzte Wirksamkeit in instationären Situationen. Um diese Herausforderungen zu bewältigen, kann die Integration von Faktoren, Stimmungsanalysen und die Verarbeitung natürlicher Sprache wertvolle Erkenntnisse für Portfoliomanager liefern, die mit riesigen Datenmengen arbeiten. Es ist wichtig zu beachten, dass es kein einheitliches Modell gibt und tiefe neuronale Netze herkömmliche Benchmark-Modelle nicht ersetzen sollten. Darüber hinaus hebt Alonso die Bedeutung von BERT hervor, einem Open-Source- und hocheffizienten Sprachmodell, das ein tiefes Verständnis von Zahlen in Finanztexten demonstriert und es daher besonders wertvoll für Finanzdatensätze macht.

Im gesamten Video teilt Alonso wichtige Erkenntnisse und diskutiert verschiedene Aspekte der Nutzung von Deep-Learning-Modellen im Finanzwesen. Er erforscht die Umwandlung von Finanzdaten in Bilder zur Analyse mithilfe von Faltungs-Neuronalen Netzen, die Nutzung von Auto-Encodern für die nichtlineare Datenkomprimierung und die Anwendung von Speichernetzwerken für die Zeitreihenanalyse. Die Zusammenarbeit zwischen Fachexperten und Praktikern des maschinellen Lernens wird als entscheidender Faktor für die effektive Lösung finanzbezogener Probleme mithilfe von Deep-Learning-Techniken hervorgehoben.

Alonso geht auf die Herausforderungen ein, die bei der Arbeit mit Deep Learning im Finanzwesen auftreten, wie etwa die dynamische Natur des Datengenerierungsprozesses und die Notwendigkeit, Modelle zu entwickeln, die sich an diese Veränderungen anpassen können. Er beleuchtet Konzepte aus der Informationstheorie, der Komplexität und der Komprimierung von Informationen, um eine möglichst prägnante Darstellung zu finden. Der universelle Approximationssatz wird diskutiert und betont die Fähigkeit tiefer neuronaler Netze, jede Funktion mit beliebiger Präzision zu approximieren. Eine Verallgemeinerung ist jedoch nicht garantiert. Der Redner empfiehlt die weitere Untersuchung von Forschungsarbeiten zu Regularisierung, intrinsischen Dimensionen neuronaler Netze und überparametrisierten neuronalen Netzen.

Der Redner geht auch auf die Idee eines interpolierenden Regimes ein, bei dem tiefe neuronale Netze größere Funktionsklassen aufdecken können, die interpolierende Funktionen mit kleineren Normen identifizieren. Sie diskutieren die qualitativen Aspekte tiefer neuronaler Netze und betonen die unterschiedliche Bedeutung verschiedener Schichten und ihre Rolle bei der Zeitreihenvorhersage. Es wird jedoch betont, dass lineare Modelle weiterhin als Benchmark dienen und die Ergebnisse von Deep-Learning-Modellen mit ihnen verglichen werden sollten.

Alonso bietet Einblicke in die Leistung von Deep-Learning-Modellen im Finanzwesen, zeigt die Ergebnisse der Verwendung von Netzwerken mit langem Kurzzeitgedächtnis bei mehreren Aktien und demonstriert deren Überlegenheit gegenüber anderen neuronalen Netzwerken. Es hat sich gezeigt, dass Deep-Learning-Modelle lineare Modelle bei der Auswahl der besten Aktien im S&P 500 übertreffen, was zu besseren Informationsquoten außerhalb der Stichprobe führt. Der Referent betont, dass Deep Learning durchweg gute Leistungen erbringt und eine verlässliche Wahl bei der Modellauswahl sein kann.

Faktoren spielen in Deep-Learning-Modellen für den Finanzbereich eine entscheidende Rolle und ermöglichen die Untersuchung nichtlinearer Beziehungen mit Renditen. Die Nutzung der Nichtlinearität unterscheidet diesen Ansatz von reinen Zeitreihenübungen. Der Referent betont auch die Bedeutung der Parameterauswahl während des Trainingszeitraums und warnt davor, davon auszugehen, dass die Verwendung weiterer Daten immer zu einer verbesserten Genauigkeit führt. Es ist wichtig zu beachten, dass diese Modelle weder Kosten noch reale Überlegungen berücksichtigen, da sie in erster Linie für Forschungszwecke auf der Grundlage historischer Daten dienen.

Der Redner verdeutlicht den Schwerpunkt seines Beitrags und betont, dass die Absicht nicht darin besteht, zu behaupten, dass tiefe neuronale Netze überlegen seien, sondern vielmehr die Notwendigkeit hervorzuheben, sie neben traditionellen Benchmark-Modellen zu verwenden. Die Bedeutung der Erfassung nichtlinearer Zusammenhänge und des Verständnisses wiederkehrender Zyklen wird ebenso diskutiert wie die Notwendigkeit, Parameter wie das Lernfenster zu berücksichtigen. Tiefe neuronale Netze können in bestimmten Szenarien einzigartige Erkenntnisse liefern, indem sie Effekte zweiter oder dritter Ordnung erfassen, die lineare Modelle möglicherweise übersehen. Es wird jedoch betont, dass es kein universelles Modell gibt und tiefe neuronale Netze bestehende Benchmark-Modelle ergänzen und nicht ersetzen sollten.

Die Anwendung der Verarbeitung natürlicher Sprache, insbesondere der Stimmungsanalyse, im Finanzwesen wird ebenfalls untersucht. Angesichts der enormen Menge an Informationen, die auf den Märkten generiert werden, sind Big-Data-Tools für die Untersuchung und Analyse hochdimensionaler Räume unerlässlich. Maschinelles Lernen, insbesondere Deep Learning, erweist sich bei der Bewältigung dieser Herausforderungen als wertvoll. Sprachmodelle können für Aufgaben wie die Stimmungsanalyse genutzt werden, die Einblicke in die Marktdynamik liefern können. Das Durchsuchen des Internets hat sich als effizienter Ansatz zur Erkennung von Informationsänderungen erwiesen, die auf Marktverschiebungen hinweisen können. Insgesamt bietet die Verarbeitung natürlicher Sprache wertvolle Erkenntnisse für Portfoliomanager, die mit großen Datenmengen arbeiten.

Im Video geht der Redner auf die beiden Ansätze der Sentimentanalyse im Finanzwesen ein. Die traditionelle Methode umfasst das Zählen der Häufigkeit positiver und negativer Wörter, während der fortgeschrittenere Ansatz Deep Learning und Worteinbettungen nutzt, um die kontextuelle und semantische Bedeutung von Wörtern zu erfassen. Der Redner hebt die Wirksamkeit der bidirektionalen Encoderdarstellung von Transformatoren (BERT) hervor, einem hochmodernen Sprachmodell, das eine genauere und effizientere Darstellung von Wörtern bietet. Die Fähigkeit von BERT, Zahlen in Finanztexten zu verstehen, ist für eine genaue Finanzanalyse besonders wichtig. Andere Funktionsnäherungen wie mehrschichtige Perzeptrone, Speichernetzwerke und Covenets werden ebenfalls als nützliche Werkzeuge im Finanzwesen erwähnt.

Darüber hinaus erörtert der Referent das Konzept der Umwandlung von Finanzdaten in Bilder und der Verwendung von Faltungs-Neuronalen Netzen zur Analyse. Dieser Ansatz erweist sich insbesondere bei unüberwachten Lernproblemen als vorteilhaft. Die Verwendung von Auto-Encodern zur nichtlinearen Datenkomprimierung und Speichernetzwerken zur Zeitreihenanalyse wird vorgestellt. Speichernetzwerke können für die Analyse von Zeitreihendaten geeignet sein, wenn die Umgebung ausreichend stabil ist. Darüber hinaus geht der Referent auf den Einsatz von Transformer-Modellen zur Sprachverarbeitung im Finanzwesen ein und gibt Einblicke in deren Umsetzung mit TensorFlow.

In Bezug auf die Implementierung von Open-Source-Deep-Learning-Modellen im Finanzwesen betont der Redner, dass zwar eine spezifische Schulung für Finanzanwendungen erforderlich sein kann, dies jedoch aufgrund der Fülle an verfügbarem Open-Source-Code ein erreichbares Ziel ist. Die Zusammenarbeit zwischen Fachexperten und maschinellen Lernenden ist für die Lösung finanzbezogener Probleme von entscheidender Bedeutung, da es zahlreiche Möglichkeiten gibt, maschinelles Lernen in diesem Bereich zu nutzen. Der Redner stellt fest, dass im Finanzwesen derzeit handgefertigte Ansätze zur Verarbeitung natürlicher Sprache eingesetzt werden, Deep-Learning-Modelle in der Branche jedoch noch nicht weit verbreitet sind.

Das Video befasst sich auch mit traditionellen Methoden der manuellen Kontrolle im Finanzwesen, bei denen Einzelpersonen Wörterbücher verwenden, um Unternehmen wie JP Morgan zu beschreiben und dabei sicherzustellen, dass es keine Tippfehler gibt. Die Wirksamkeit verschiedener Algorithmen für maschinelles Lernen, wie z. B. Netzwerke mit langem Kurzzeitgedächtnis und BERT, wird diskutiert. BERT gilt als Stand der Technik in der veröffentlichten Forschung. Das Potenzial des maschinellen Lernens für Querschnittsinvestitionen wird ebenfalls untersucht. Dabei wird der Einsatz von Faktoren oder Renditen vorgeschlagen, um Maschinen bei der Interpretation flacher Renditen oder Faktoren zu unterstützen.

Der Redner geht auf die Schwierigkeit ein, beim Deep Learning optimale Werte zu finden, und räumt ein, dass es sich dabei um ein NP-Problem handeln kann. Menschliche Datenwissenschaftler mit Erfahrung und Intuition müssen auf der Grundlage ihres Fachwissens heuristische Entscheidungen treffen. Die Herausforderung, tiefe neuronale Netze zu verstehen und zu interpretieren, wird hervorgehoben, da selbst Mathematiker Schwierigkeiten haben, Gleichungen zu formulieren, um ihre außergewöhnliche Leistung zu erklären. In solchen Fällen wird häufig eine qualitative Analyse eingesetzt. Mit der Zeit und nach der Arbeit mit verschiedenen Datensätzen können Datenwissenschaftler jedoch ein Gespür für die Auswahl der am besten geeigneten Parameter für bestimmte Situationen entwickeln.

  • 00:00:00 Miguel Noguer i Alonso diskutiert die Anwendung von Deep Learning im Finanzwesen. Er stellt fest, dass Deep Learning in anderen Bereichen wie Bilderkennung und Sprachmodellen erfolgreich war, es jedoch aufgrund der empirischen und unübersichtlichen Natur der Branche schwierig ist, zu erkennen, wie es im Finanzwesen erfolgreich angewendet werden kann. Trotz der Komplexität gibt es spannende Möglichkeiten für den Einsatz von Deep Learning in unstrukturierten Daten und Finanzanwendungen. Das Education Finance Institute arbeitet mit Universitäten und Unternehmen zusammen, um den Einsatz von KI im Finanzwesen zu erforschen.

  • 00:05:00 In diesem Abschnitt des Videos erörtert Miquel Noguer i Alonso das Potenzial des Einsatzes maschineller Lernmodelle im Finanzwesen und den Mangel an Forschung in diesem Bereich. Anschließend beleuchtet er die verschiedenen Bereiche des maschinellen Lernens, die im Finanzwesen eingesetzt werden können, darunter überwachtes, unüberwachtes und verstärkendes Lernen. Noguer i Alonso ermutigt Forscher, sich auf die Entwicklung weiterer Tools für unbeaufsichtigtes Lernen zu konzentrieren, da es in diesem Bereich derzeit nur begrenzte Forschungsergebnisse gibt. Abschließend stellt er fest, dass es im Finanzwesen keinen Ort gibt, an dem maschinelles Lernen nicht für Zwecke wie die Vorhersage von Kreditausfällen und die Organisation von Datensätzen eingesetzt werden kann.

  • 00:10:00 Der Referent stellt Deep Learning als Motor für unmögliches Lernen, Regressionsprobleme und unüberwachtes Lernen durch die Verwendung nichtlinearer Funktionen vor. Das neuronale Netzwerk wird als nichtlineare Funktion mit einer Vielzahl von Parametern erklärt, was zu Warnungen von Statistikern und Ingenieuren hinsichtlich seiner Machbarkeit geführt hat. Die Pioniere des Deep Learning haben jedoch die richtigen Kombinationen aus Aktivierungsfunktionen, Anzahl der Schichten und Neuronen gefunden, die dafür sorgen, dass es den statistischen Erwartungen widerspricht. Der Redner erörtert auch die verschiedenen Architekturen des Deep Learning, wie z. B. Faltungs-Neuronale Netze, wiederkehrende Neuronale Netze und Transformatoren.

  • 00:15:00 Der Redner diskutiert die Vor- und Nachteile von Deep Learning im Finanzwesen. Positiv zu vermerken ist, dass Deep-Learning-Modelle die Nichtlinearität und die Ausdruckskraft von Datensätzen besser erfassen und in multivariaten Zeitreihen effizient sind. Sie konkurrieren auch mit Boosting Trees, einer der besten Techniken für kategoriale und numerische Daten. Die Hauptnachteile sind jedoch die Überanpassung aufgrund der großen Anzahl von Parametern in Deep-Learning-Modellen und ihrer mangelnden Wirksamkeit in instationären Situationen, was im Finanzwesen ein großes Problem darstellt, da sich Zeitreihen ständig ändern. Der Referent stellt fest, dass aktuelle Modelle keine guten Lösungen für dieses Problem bieten.

  • 00:20:00 Miquel Noguer i Alonso erklärt die Herausforderungen, denen Deep Learning im Finanzwesen gegenübersteht, insbesondere in Bezug auf die sich verändernde Natur des Datengenerierungsprozesses und wie man Modelle erstellt, die darin funktionieren können. Eine Lösung, die er vorschlägt, stammt aus der Informationstheorie; die Idee der Komplexität und der Komprimierung von Informationen auf ein möglichst kurzes Programm. Er erörtert auch das Universal Approximation Theorem und wie es garantiert, dass tiefe Netze alles mit beliebiger Präzision approximieren können, es ist jedoch nicht garantiert, dass sie verallgemeinern. Er empfiehlt den Lesern, einen Aufsatz von Sun zu lesen, der argumentiert, dass Regularisierung für eine Verallgemeinerung nicht ausreicht, und empfiehlt Aufsätze zu den intrinsischen Dimensionen neuronaler Netze und überparametrisierter neuronaler Netze.

  • 00:25:00 In diesem Abschnitt spricht der Redner über ein neues Regime namens Interpolationsregime, bei dem tiefe Netze möglicherweise einige Zertifikate schreiben können, indem sie eine große Menge an Schwerkraft zurückgeben, was zur Entdeckung großer Funktionsklassen führen könnte, die finden Interpolationsfunktionen mit kleineren Normen. Die Idee besteht darin, mit dieser Anzahl an Funktionen einfachere Dinge zu finden. Sie diskutieren auch die qualitativen Aspekte der Modelle, etwa die Tatsache, dass nicht alle Schichten gleich sind, und die Rolle tiefer neuronaler Netze bei der Zeitreihenvorhersage. Allerdings sind die Benchmark-Modelle für sie immer noch die linearen Modelle und sie müssen die Ergebnisse mit den Benchmarks vergleichen.

  • 00:30:00 Der Redner diskutiert die Leistung von Deep-Learning-Modellen im Finanzwesen. Sie demonstrieren die Ergebnisse der Verwendung von Netzwerken mit langem Kurzzeitgedächtnis mit 30 Beständen statt nur einem und stellen fest, dass der absolute Fehler im Vergleich zu anderen neuronalen Netzen geringer ist. Der Redner zeigt auch, wie Deep-Learning-Modelle lineare Modelle bei der Auswahl der besten Aktien im S&P 500 übertreffen, was zu besseren Informationsquoten außerhalb der Stichprobe führt. Insgesamt wird festgestellt, dass Deep Learning den besten Modellen durchweg nahe kommt und eine gute Wahl ist, wenn man sich blind für ein Modell entscheidet.

  • 00:35:00 Der Referent diskutiert die Verwendung von Faktoren in Deep-Learning-Modellen für das Finanzwesen. Faktoren wie Qualität, Wert und Momentum werden verwendet, um nichtlineare Zusammenhänge mit Renditen zu untersuchen. Der Unterschied zwischen dieser Methode und einer reinen Zeitreihenübung besteht in der Verwendung der Nichtlinearität. Der Redner erörtert auch die Bedeutung von Trainingszeitraumparametern und weist darauf hin, dass die Verwendung von mehr Daten nicht unbedingt eine bessere Genauigkeit bedeutet. Das Modell berücksichtigt weder Kosten noch reale Überlegungen, da es ausschließlich Forschungszwecken dient und auf Daten aus der Vergangenheit basiert.

  • 00:40:00 In diesem Abschnitt diskutiert der Redner das Papier, das sie aktualisieren, und stellt klar, dass die Behauptung in dem Papier nicht darin besteht, dass Deep Nets besser sind, sondern dass sie neben traditionellen Benchmark-Modellen betrieben werden müssen. Darüber hinaus erklärt der Referent, dass Deep Nets nützlich sind, um nichtlineare Beziehungen zu erfassen und richtige Zyklen zu lernen. Allerdings müssen auch die Parameter berücksichtigt werden, etwa das Fenster, in dem Netzwerke lernen. Darüber hinaus können uns tiefe Netze in einigen Reparaturregimen unterschiedliche Dinge sagen, da sie Effekte zweiter oder dritter Ordnung lernen, die einem linearen Modell möglicherweise entgehen. Der Referent betont außerdem, dass es kein einheitliches Modell gibt und dass Deep Nets traditionelle Benchmark-Modelle nicht ersetzen sollten.

  • 00:45:00 Miguel Noguer i Alonso diskutiert den Einsatz der Verarbeitung natürlicher Sprache im Finanzwesen, insbesondere die Stimmungsanalyse. Angesichts der enormen Menge an Informationen, die auf den Märkten generiert werden, sind für die Untersuchung Big-Data-Tools erforderlich, und maschinelles Lernen, insbesondere Deep Learning, kann für den Umgang mit hochdimensionalen Räumen nützlich sein. Sprachmodelle können für Aufgaben wie die Stimmungsanalyse verwendet werden, die ein Vorbote für Dynamik im Finanzwesen sein können. Das Durchsuchen des Internets hat sich auch als effiziente Methode zur Suche nach Informationsänderungen erwiesen, die auf Marktverschiebungen hinweisen könnten. Insgesamt kann die Verarbeitung natürlicher Sprache Portfoliomanagern nützliche Erkenntnisse beim Umgang mit großen Datenmengen liefern.

  • 00:50:00 In diesem Abschnitt erörtert der Redner den Einsatz der Stimmungsanalyse im Finanzwesen und die zwei Möglichkeiten, wie sie durchgeführt werden kann: die traditionelle Methode zum Zählen der Häufigkeit positiver und negativer Wörter und die fortgeschrittenere Methode zur Verwendung von Deep Lernen und Worteinbettungen, um den Kontext und die Semantik der Wörter zu verstehen. Das fortschrittlichste Modell ist die bidirektionale Encoder-Darstellung von Transformatoren, die eine effizientere und genauere Darstellung der Wörter ermöglicht. Diese Technologie kann beispielsweise beim Wettermanagement und bei Lieferkettenproblemen nützlich sein.

  • 00:55:00 In diesem Abschnitt diskutiert Miquel Noguer i Alonso die neueste Entwicklung beim Deep Learning im Finanzwesen mit einem Schwerpunkt auf bidirektionaler komplizierter Architektur, BERT und der Bedeutung von Zahlen in Sprachmodellen. BERT ist ein hocheffizientes Open-Source-Sprachmodell, das zum Trainieren von Finanzdatensätzen verwendet werden kann, was Zeit und menschlichen Aufwand sparen kann. Es bietet eine bessere Leistung als andere Modelle und ist besonders gut darin, Zahlen in Finanztexten zu verstehen, was für eine genaue Analyse von entscheidender Bedeutung ist. Die mehrschichtigen Perzeptrone, Speichernetze und Covenets sind weitere Funktionsnäherungswerte, die im Finanzwesen nützlich sind.

  • 01:00:00 Miguel Noguer i Alonso diskutiert die Idee, Finanzdaten in Bilder umzuwandeln und Faltungs-Neuronale Netze zu deren Analyse zu verwenden, was besonders bei Problemen des unüberwachten Lernens nützlich sein kann. Er stellt außerdem das Konzept von Auto-Encodern vor, die zur nichtlinearen Komprimierung von Daten verwendet werden können, und von Speichernetzwerken, die sich für die Zeitreihenanalyse eignen können, wenn die Umgebung stabil genug ist. Abschließend erwähnt Noguer i Alonso die Verwendung von Transformatormodellen für die Sprachverarbeitung im Finanzwesen und wie diese Modelle in TensorFlow implementiert werden.

  • 01:05:00 In diesem Abschnitt des Videos diskutiert Miquel Noguer i Alonso, Direktor für Finanzinnovation und Dozent für Finanzen an der ESADE Business School, die Machbarkeit der Implementierung von Open-Source-Deep-Learning-Modellen im Finanzwesen. Er erklärt, dass eine Menge Open-Source-Code verfügbar sei und dass zwar eine Schulung speziell für Finanzanwendungen erforderlich sei, dies aber kein unerreichbares Ziel sei. Alonso betont auch die Bedeutung der Zusammenarbeit zwischen Fachexperten und maschinellen Lernenden zur Lösung finanzbezogener Probleme, da es im Finanzwesen viele Möglichkeiten für maschinelles Lernen gibt. Darüber hinaus stellt er fest, dass im Finanzwesen zwar handgefertigte NLP-Ansätze zum Einsatz kommen, Deep-Learning-Modelle in dieser Branche jedoch noch nicht weit verbreitet sind.

  • 01:10:00 Die Referenten diskutieren traditionelle Methoden der manuellen Kontrolle im Finanzwesen, bei denen Menschen Wörterbücher verwenden, um Dinge wie JP Morgan zu beschreiben und sicherzustellen, dass es keine Tippfehler gibt. Anschließend diskutieren sie den Einsatz von maschinellem Lernen im Finanzwesen und die Wirksamkeit verschiedener Algorithmen wie Short-Long-Shot-Memory-Netzwerke und BERT, die ihrer Ansicht nach derzeit den neuesten Stand der veröffentlichten Forschung darstellen. Die Referenten erörtern auch das Potenzial des Einsatzes von maschinellem Lernen für Querschnittsinvestitionen und schlagen vor, Faktoren oder Renditen zu verwenden, um der Maschine dabei zu helfen, flache Renditen oder Faktoren zu verstehen.

  • 01:15:00 In diesem Abschnitt diskutieren Noguer und Alonso die Schwierigkeit, optimale Werte beim Deep Learning zu finden, und wie es ein NP-Problem sein kann, das die Fähigkeiten und Intuition eines menschlichen Datenwissenschaftlers erfordert, um heuristische Entscheidungen auf der Grundlage von Erfahrung und Intuition zu treffen . Sie verdeutlichen die Herausforderungen beim Verstehen und Interpretieren tiefer Netze, da selbst Mathematiker Schwierigkeiten haben, Gleichungen aufzustellen, um zu verstehen, warum dies so gut funktioniert, und stattdessen auf qualitative Analysen zurückgreifen müssen. Trotz dieser Herausforderungen können Datenwissenschaftler nach der Arbeit mit mehreren Datensätzen eine Vorstellung davon entwickeln, welche Parameter für eine bestimmte Situation am besten geeignet sind.
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

Gordon Ritter: „Reinforcement Learning und die Entdeckung von Arbitragemöglichkeiten“



Gordon Ritter: „Reinforcement Learning und die Entdeckung von Arbitragemöglichkeiten“

In diesem Video untersucht Gordon Ritter die Anwendung von Reinforcement Learning im Kontext der Finanzmärkte und konzentriert sich dabei insbesondere auf die Entdeckung von Arbitragemöglichkeiten im Derivatehandel. Er betont die Bedeutung einer komplexen mehrperiodigen Planung und Strategie angesichts von Unsicherheit. Ritter demonstriert die Verwendung von Wertfunktionen zur Steuerung der Suche nach optimalen Richtlinien und schlägt eine Belohnungsfunktion vor, die ein Einzelperiodeninkrement mit einer Konstante kombiniert, die mit dem Quadrat der Abweichung vom Mittelwert multipliziert wird.

Ritter erörtert den Prozess der Erstellung einer Simulation, die eine Arbitragemöglichkeit beinhaltet, ohne der Maschine explizit anzugeben, wo sie diese finden soll. Er hebt die Verwendung stochastischer Simulationen zur Modellierung von Finanzmärkten hervor und schlägt vor, dass ein durch Reinforcement Learning geschulter Agent mit genügend Daten Marktarbitrage erkennen kann. Er erkennt jedoch die Einschränkungen des verstärkenden Lernens an, wie z. B. Überanpassung und die Herausforderungen beim Umgang mit unvorhergesehenen Szenarien. Weitere Tests, beispielsweise die Erforschung von Gammaneutralitäts-Handelsstrategien, werden vorgeschlagen, um die Fähigkeiten geschulter Agenten zu erweitern.

Das Video enthält eine Analyse der Leistung eines Reinforcement-Learning-Agenten im Vergleich zu einem Baseline-Agenten bei der Absicherung von Derivaten. Der geschulte Agent weist erhebliche Kosteneinsparungen auf und behält gleichzeitig eine ähnliche Bandbreite an realisierter Volatilität bei, was seine Fähigkeit unter Beweis stellt, Kompromisse zwischen Kosten und Risiko einzugehen. Ritter diskutiert die Relevanz von Wertfunktionen beim Reinforcement Learning für den Derivatehandel, da Derivatpreise selbst als eine Form von Wertfunktionen angesehen werden können.

Ritter betont auch die Bedeutung der Konstruktion geeigneter Zustandsvektoren und Aktionsräume beim verstärkenden Lernen. Die Einbeziehung relevanter Informationen in den Zustandsvektor und die Definition geeigneter Maßnahmen sind für eine effektive Entscheidungsfindung von wesentlicher Bedeutung. Er präsentiert die Verwendung von Ornstein- und Limbischen Prozessen als Mittel zur Modellierung von Mean-Reverting-Dynamik, die möglicherweise zu Arbitragemöglichkeiten führen kann.

Darüber hinaus werden in dem Video die Herausforderungen bei der Nutzung kurzfristiger Renditen für Handelsmöglichkeiten und die Einschränkungen endlicher Zustandsräume erörtert. Ritter schlägt den Einsatz kontinuierlicher Zustandsräume und Funktionsnäherungsmethoden wie Modellbäume und neuronale Netze vor, um diese Herausforderungen anzugehen und die Schätzung von Wertfunktionen zu verbessern.

Abschließend räumt Ritter ein, dass Reinforcement Learning zwar ein wertvolles Instrument zur Entdeckung von Arbitrage-Möglichkeiten sein kann, im realen Handel jedoch kein garantierter Ansatz ist. Er schließt mit der Hervorhebung des Potenzials von Reinforcement Learning zur Aufdeckung profitabler Geschäfte durch stochastische Systeme, warnt jedoch davor, zu erwarten, dass dadurch Arbitragemöglichkeiten gefunden werden, wenn diese auf dem Markt nicht vorhanden sind. Die Grenzen des verstärkenden Lernens, einschließlich Überanpassung und seiner Unfähigkeit, unvorhergesehene Szenarien zu bewältigen, werden ebenfalls erkannt.

  • 00:00:00 In diesem Abschnitt spricht Gordon Ritter über das Lernen durch Erfahrung, um die Belohnungen in einem unsicheren Umfeld im Laufe der Zeit zu optimieren. Er liefert Beispiele dafür, wie Roboter durch einen Raum navigieren können und wie Gazellen das Laufen lernen, indem sie Signale an ihre Beinmuskeln senden. Er erwähnt auch, dass der beste Go-Spieler der Welt jetzt ein durch Reinforcement-Learning-Methoden ausgebildeter Agent ist, was im Mittelpunkt seines Vortrags steht. Ritter betont die Bedeutung einer komplexen mehrperiodigen Planung und Strategie bei Unsicherheit und wie Reinforcement Learning im Finanzwesen eingesetzt werden kann, um Arbitragemöglichkeiten zu entdecken.

  • 00:05:00 Gordon Ritter erklärt das Konzept des Reinforcement Learning, bei dem es sich um den Prozess handelt, bei dem ein Agent mit der Umgebung interagiert und Maßnahmen ergreift, um ein Belohnungssignal zu optimieren. Der Agent beobachtet den Zustand der Umgebung und stellt fest, ob seine Handlungen zu einer positiven oder negativen Belohnung geführt haben. Reinforcement Learning beinhaltet die Verwendung von Wertfunktionen zur Strukturierung der Suche nach optimalen Richtlinien, um die Erwartung einer langfristigen Belohnung zu maximieren. Ritter weist darauf hin, dass die Idee von Wertfunktionen denjenigen mit einem Hintergrund in der Finanzmathematik vertraut ist.

  • 00:10:00 In diesem Abschnitt des Videos diskutiert Gordon Ritter das Konzept des Reinforcement Learning, insbesondere die Hamilton-Jacobi-Bellman-Gleichung, die verwendet wird, um die Wertfunktion einer optimalen Richtlinie zu ermitteln. Er stellt jedoch fest, dass es in realen Szenarien manchmal nicht möglich ist, die Gleichung explizit zu lösen. Ritter führt dann die Aktionswertfunktion ein, die verwendet wird, um den erwarteten langfristigen Gewinn zu ermitteln, der sich aus der Durchführung einer bestimmten Aktion in einem bestimmten Zustand und der anschließenden Befolgung einer Richtlinie ergibt. Das Ziel des verstärkenden Lernens besteht darin, die optimale Richtlinie zu finden, indem die entsprechende Cue- oder Aktionswertfunktion ermittelt wird. Anschließend stellt Ritter die Frage, ob künstliche Intelligenz in einem realistischen Szenario unter Berücksichtigung der Handelskosten wie Geld-Brief-Spanne und Provisionen eine optimale dynamische Handelsstrategie entdecken kann. Er schlägt vor, dass, wenn es eine Arbitrage auf dem Markt gäbe, ein Agent, der durch Reinforcement Learning erzeugt würde, in der Lage wäre, sie mit ausreichend Daten zu finden.

  • 00:15:00 Gordon Ritter diskutiert den Einsatz von Reinforcement Learning zur Entdeckung von Arbitragemöglichkeiten auf Finanzmärkten. Ritter argumentiert, dass im Gegensatz zu herkömmlichen Methoden, die auf konsistenten Arbitrage-freien Preisen basieren, Reinforcement Learning genutzt werden kann, um herauszufinden, ob es in einem bestimmten dynamischen System Arbitrage-Möglichkeiten gibt. Dieser Ansatz kann verwendet werden, um den Algorithmus darauf zu trainieren, Strategien mit hohen Sharpe-Ratios zu finden, die zur Identifizierung statistischer Arbitrage verwendet werden können, bei der es sich nicht um eine reine Arbitrage, sondern um eine gute Handelsstrategie handelt. Ritter behauptet, dass ein solcher Ansatz AlphaGo Zero ähnelt, das gelernt hat, Go ohne menschliche Anleitung zu spielen und menschliche Champions zu schlagen.

  • 00:20:00 Gordon Ritter erklärt die Annahmen, die bei der Maximierung des erwarteten Vermögensnutzens verwendet werden, und wie diese mathematisch äquivalent zur Maximierung der quadratischen Form der mittleren Varianz sind. Er stellt klar, dass eine quadratische Funktion keine Nutzenfunktion sein kann und erklärt das Belohnungssignal, das er verwendet, um rationale Agenten so zu trainieren, dass sie sich wie von Neumann Morgenstern-Investoren verhalten. Er schlägt vor, das Inkrement in einer einzelnen Periode minus einer Konstante mal dem Quadrat um den Mittelwert für die Belohnungsfunktion zu kombinieren, und gibt Ratschläge zur Auswahl dessen, was in den Zustand eingefügt werden soll, wobei er betont, wie wichtig es ist, relevante Informationen einzubeziehen, die dem Agenten helfen, gute Entscheidungen zu treffen.

  • 00:25:00 Gordon Ritter diskutiert, wie man beim Reinforcement Learning einen Zustandsvektor und einen Aktionsraum konstruiert. Er erklärt, dass, damit ein Agent lernen kann, ein Signal für eine Handelsentscheidung zu nutzen, dieses Signal im Zustandsvektor enthalten sein muss. Darüber hinaus sollte der Handlungsspielraum die Auswahl der zu verwendenden Ausführungsstrategie, die Auswahl eines Parameters in einem Algorithmus zur Änderung seines Verhaltens oder die Entscheidung, ob der Spread überschritten oder eine Warteschlange auf der anderen Seite des Auftragsbuchs hinzugefügt werden soll, umfassen. Ritter liefert auch ein Beispiel dafür, wie Ornstein- und Limbic-Prozesse im Finanzwesen zur Modellierung der Mean-Reverting-Dynamik genutzt werden können, was zu einer Arbitragemöglichkeit führen könnte.

  • 00:30:00 In diesem Abschnitt erläutert Gordon Ritter den Aufbau einer stochastischen Simulation, die zumindest eine ungefähre Arbitrage als statistische Arbitrage enthält, auch wenn es sich nicht um einen garantierten Gewinn handelt. Er betont, dass der Agent alles herausfinden muss, indem er Spiele spielt und ein paar Mal verliert. Die Simulation hat Spread-Kosten und Impact-Kosten, die auf einer linearen Preis-Impact-Funktion basieren, und manchmal spielt er gerne mit einem Multiplikator vor den Gesamtkosten. Er sagt, dass der Zustandsvektor recht einfach sein kann und der Zustand nur das enthält, was der Agent hält, und den Preis, der das Signal enthält. Abschließend weist er darauf hin, dass es sich lediglich um einen Proof of Concept handelt, da nicht garantiert werden kann, dass es im realen Handel funktioniert.

  • 00:35:00 Gordon Ritter erläutert den Prozess der Erstellung einer Simulation, die eine Arbitragemöglichkeit bietet, ohne der Maschine explizit mitzuteilen, wo sie danach suchen soll. Er erklärt, dass es durch das Lernen einer Wertfunktion und durch eine klassische Methode namens Q-Learning funktioniert. Allerdings gibt er zu, dass ihm das Modell für die Q-Funktion nicht besonders gefällt, da es jedes Matrixelement unabhängig und ohne Kontinuität lernen muss. Ritter präsentiert außerdem eine Darstellung der Wertfunktion als Funktion des Preises für verschiedene Aktionen und zeigt die Entstehung einer Handelsverbotszone um den Gleichgewichtspreis.

  • 00:40:00 In diesem Abschnitt erörtert Gordon Ritter die Grenzen der Verwendung kurzfristiger Renditen für Handelsmöglichkeiten und die Herausforderungen, die sich aus der Verwendung eines endlichen Zustandsraums ergeben. Er schlägt vor, kontinuierliche Zustandsräume und Funktionsnäherungsmethoden wie Modellbäume zu verwenden, um die Bellman-Wertfunktion Q zu schätzen und die beste unbekannte Funktion zu finden, die zu den Trainingsdaten passt. Diese Methode ermöglicht eine effizientere und effektivere Annäherung an die Wertfunktion und die Suche nach Handelsmöglichkeiten.

  • 00:45:00 Gordon Ritter diskutiert den Einsatz statistischer Techniken des maschinellen Lernens, wie z. B. Funktionsnäherungen, um Reinforcement-Learning-Agenten zu trainieren, Belohnungen in Form von langfristigen und kurzfristigen Belohnungen zu approximieren. Durch die Verwendung eines besseren Funktionsnähers, beispielsweise eines neuronalen Netzwerks, kann die Bellmen-Wertfunktion genauer angenähert und eine kontinuierliche Funktion erhalten werden, was ein besseres Verständnis optimaler Aktionen ermöglicht. Ritter wendet diese Techniken dann am Beispiel der Derivate-Absicherung an, bei der Banken Risiken in Positionen neutralisieren möchten, ohne die Derivate auf den Markt zu werfen. Das Ziel besteht darin, Reinforcement-Learning-Agenten einzusetzen, die einen Korb von Derivaten auf der Grundlage dynamischer Replikationsstrategien optimal handeln können, was eine automatische Absicherung ermöglicht und die Kosten durch Marktauswirkungen reduziert.

  • 00:50:00 In diesem Abschnitt diskutiert Gordon Ritter die Zustandsvariablen, die mindestens in einem europäischen Optionsmarkt vorhanden sein müssen, um eine dynamisch replizierende Portfoliostrategie zu ermöglichen. Er gibt an, dass die Zustandsvariablen, die in einer Welt vom Typ Black-Scholes in die Berechnung des Deltas einfließen würden, der zugrunde liegende Preis und die Zeit bis zum Verfall sind, wobei der Ausübungspreis der Option Teil der Definition dessen ist, was die Option ist. Darüber hinaus erwähnt er, dass der Staat die Option Greeks nicht enthalten muss und vom Agenten erwartet wird, dass er diese nichtlinearen Funktionen selbst lernt. Abschließend sagt er, dass die Maschine nur durch Erfahrung lernen kann, wo sie durch Simulation einen großen Erfahrungssatz generieren kann.

  • 00:55:00 Gordon Ritter bespricht die Ausgabe seines Reinforcement-Learning-Agenten, der Kosten gegen Vol eintauscht, und vergleicht sie mit einem Basisagenten, der Delta-Hedging verwendet. Der geschulte Agent zeigt eine reibungslosere Positionsverfolgung der Delta-Absicherung, während der Basisagent übermäßige Handelsaktivitäten und höhere Kosten aufgrund der Delta-Absicherung aufweist. Der geschulte Agent hat gelernt, einen Kompromiss zwischen Kosten und Risiko einzugehen, und Ritter weist darauf hin, dass es akzeptabel ist, für eine große Kosteneinsparung eine gewisse Volatilität in Kauf zu nehmen. Obwohl der Markt mit hohen Handelskosten simuliert wurde, schnitt der geschulte Agent immer noch besser ab als der Basisagent.

  • 01:00:00 In diesem Abschnitt stellt der Referent Histogramme von Simulationen vor, um die Leistung des Delta-Agenten und der Reinforcement-Learning-Methode zu vergleichen. Der Delta-Agent weist ein sehr vorhersehbares realisiertes Volumen auf, der geschulte Agent zeigt jedoch erhebliche Kosteneinsparungen bei gleichzeitiger Beibehaltung eines ähnlichen Bereichs des realisierten Volumens. Der Redner schlägt weitere Tests vor, beispielsweise die Betrachtung von Handelsstrategien, die Gammaneutralität erreichen, was möglicherweise vom Agenten entdeckt werden könnte. Der Referent kommt zu dem Schluss, dass der Einsatz wertfunktionsbasierter Methoden, wie sie beim Reinforcement Learning zu sehen sind, sich gut mit dem Bereich des Derivatehandels überschneidet, da Derivatpreise selbst eine Form von Wertfunktionen sind.

  • 01:05:00 Gordon Ritter erklärt, dass Reinforcement Learning genutzt werden kann, um Arbitragemöglichkeiten zu entdecken, indem ein stochastisches System trainiert wird, das profitable Trades finden kann. Wenn das System jedoch nach Millionen oder Milliarden von Simulationen keine Gelegenheit findet, kann dies ein Hinweis darauf sein, dass der Markt keine Arbitrage zulässt. Er erörtert auch die Grenzen des verstärkenden Lernens, einschließlich Überanpassung und der Unfähigkeit, unendliche Trades und unvorhergesehene Szenarien wie Flash-Abstürze zu bewältigen.
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

Marcos Lopez de Prado: „Die 7 Gründe, warum die meisten Fonds für maschinelles Lernen scheitern“



Marcos Lopez de Prado: „Die 7 Gründe, warum die meisten Fonds für maschinelles Lernen scheitern“

Marcos Lopez de Prado hielt einen umfassenden Vortrag, in dem er die Gründe für das Scheitern der meisten Fonds für maschinelles Lernen in der Finanzbranche darlegte. Er betonte die Bedeutung mehrerer Schlüsselfaktoren, die zum Erfolg in diesem Bereich beitragen.

Einer der Hauptfaktoren, die de Prado hervorhob, war das Fehlen einer gut formulierten Theorie bei diskretionären Fonds. Er stellte fest, dass vielen Investitionsgesprächen aufgrund des Fehlens einer soliden theoretischen Grundlage ein konstruktiver und abstrakter Ansatz fehlt. Ohne eine Theorie als Leitfaden für die Entscheidungsfindung fällt es diskretionären Fonds schwer, mit anderen zu interagieren und ihre Ideen zu testen, was zu schlechten Entscheidungen und potenziellen Verlusten führt.

De Prado erörterte auch die nachteiligen Auswirkungen der Arbeit in isolierten Silos innerhalb von Fonds für maschinelles Lernen. Er betonte, dass Zusammenarbeit und Kommunikation für den Erfolg von entscheidender Bedeutung seien, und warnte davor, zahlreiche Doktoranden einzustellen und sie in separate Aufgaben aufzuteilen. Stattdessen plädierte er für einen teambasierten Ansatz, bei dem Spezialisten unabhängig voneinander arbeiten, aber das Fachwissen der anderen kennen, was zu besseren Strategien und Ergebnissen führt.

Die Spezialisierung innerhalb des Teams war ein weiterer entscheidender Aspekt, den de Prado hervorhob. Er betonte, wie wichtig es sei, eine Gruppe von Spezialisten zusammenzustellen, die in der Lage seien, komplexe Systeme und Aufgaben zu bewältigen. Diese Experten sollten über unabhängige Fähigkeiten verfügen, gleichzeitig die Gesamtstrategie verstehen und sich der Fachgebiete ihrer Kollegen bewusst sein. Dieses Metastrategie-Paradigma ist nicht nur für die Entwicklung effektiver Strategien wertvoll, sondern auch für fundierte Entscheidungen in unsicheren Situationen, einschließlich Einstellung, Investitionsüberwachung und Definition von Stoppkriterien.

Der ordnungsgemäße Umgang mit Finanzdaten war ein weiterer wichtiger Faktor, den de Prado ansprach. Er betonte die Notwendigkeit, die Datenstationarität zu erreichen und gleichzeitig wertvolle Informationen zu bewahren. Er schlug vor, Daten nach Bruchteilen zu differenzieren, um Gedächtnisinformationen aus früheren Beobachtungen zu behalten und kritische Vorhersagen an bestimmten Punkten zu ermöglichen. Darüber hinaus empfahl er die Verwendung eines bestimmten Schwellenwerts, um eine nahezu perfekte Korrelation zwischen stationären und Originalserien zu erreichen, ohne übermäßig viel Speicher zu beanspruchen. De Prado warnte davor, Renditen in Fällen zu verwenden, in denen es keine liquiden Terminkontrakte gibt, und empfahl die Verwendung einer einzigen Beobachtung in den meisten Szenarien.

Auch die Häufigkeit der Stichproben und die angemessene Kennzeichnung der Daten wurden von de Prado angesprochen. Er schlug vor, die Stichprobenhäufigkeit auf das Eintreffen von Marktinformationen zu stützen, anstatt sich auf herkömmliche Methoden wie tägliche oder minutengenaue Beobachtungen zu verlassen. Durch den Einsatz von Techniken wie Dollarbarren, die eine Stichprobe basierend auf dem Transaktionsvolumen erstellen, kann sichergestellt werden, dass gleiche Informationsmengen in die Stichprobe einbezogen werden. Die ordnungsgemäße Kennzeichnung von Beobachtungen, beispielsweise mithilfe der Touch-Barrier-Labeling-Methode, ermöglicht die Entwicklung risikobewusster Strategien unter Berücksichtigung der Preisdynamik und der Möglichkeit, ausgestoppt zu werden.

Das Konzept des Meta-Lernens, bei dem ein maschinelles Lernmodell die Genauigkeit der Vorhersagen eines anderen Modells vorhersagt, wurde als Mittel zur Erzielung von Präzision und Erinnerung diskutiert. Durch die Zusammenstellung zweier separater Modelle kann man den Kompromiss zwischen Präzision und Erinnerung mithilfe des harmonischen Mittels ausgleichen. De Prado empfahl den Einsatz verschiedener Algorithmen für maschinelles Lernen für unterschiedliche Aufgaben, um die Leistung zu optimieren.

De Prado betonte die Herausforderungen bei der Anwendung von maschinellem Lernen im Finanzwesen und betonte die Notwendigkeit, dass menschliche Experten Daten filtern, bevor sie Algorithmen für maschinelles Lernen einsetzen. Finanzdaten sind von Natur aus chaotisch und nicht eindeutig, was es schwierig macht, spezifische Beobachtungen mit Vermögenswerten zu verknüpfen. Darüber hinaus erfordern die ständigen Veränderungen auf den Finanzmärkten aufgrund von Vorschriften und Gesetzen einen sorgfältigen und differenzierten Ansatz bei der Implementierung von Algorithmen für maschinelles Lernen. Für den Erfolg im Finanzwesen reicht es nicht aus, Finanzdaten einfach in ein maschinelles Lernmodell einzubinden.

Ein weiterer wichtiger Aspekt von de Prados Präsentation war die Auseinandersetzung mit den Themen Nichteinzigartigkeit und Überanpassung. Er schlug eine Methode zur Bestimmung der Einzigartigkeit von Beobachtungen vor und empfahl die Entfernung von Beobachtungen, die ältere Informationen enthalten als die, die mit dem Testsatz geteilt werden, ein Prozess, der als „Bereinigung“ bekannt ist. Dies trägt dazu bei, genauere Modelle für maschinelles Lernen zu erstellen, indem es sich an den Annahmen von Kreuzvalidierungstechniken orientiert. De Prado warnte auch vor den Gefahren einer Überanpassung und betonte, dass wiederholte Backtesting-Strategien zu falsch positiven Ergebnissen und einem mit der Zeit abnehmenden Nutzen führen können. Die Berücksichtigung der Anzahl der Versuche, die zur Ermittlung von Strategien erforderlich sind, ist entscheidend, um eine Überanpassung und falsch positive Ergebnisse zu vermeiden. De Prado empfahl, einen hohen Schwellenwert für die Leistung von Strategien festzulegen, um die mit Überanpassung verbundenen Risiken zu mindern.

Das Konzept der „deflationierten Erdbeere“ wurde von de Prado eingeführt und veranschaulicht, dass viele Hedgefonds eine negative Schiefe und eine positive übermäßige Kurtosis aufweisen, auch wenn Fondsmanager nicht absichtlich auf diese Merkmale abzielten. Dies liegt vor allem daran, dass Fondsmanager anhand der Sharpe Ratio bewertet werden und diese statistischen Eigenschaften die Quote aufblähen können. De Prado betonte, wie wichtig es sei, bei der Analyse der Ergebnisse die Stichprobengröße und die Anzahl der Versuche zu berücksichtigen, die zur Erzielung einer Entdeckung erforderlich seien. Er warnte davor, in Strategien zu investieren, bei denen die Wahrscheinlichkeit gering ist, dass sie eine echte Sharpe-Ratio von mehr als Null erreichen.

Das Erreichen eines Gleichgewichts zwischen Modellanpassung und Überanpassung wurde von de Prado hervorgehoben. Er riet davon ab, eine perfekte Passform anzustreben, da dies zu Selbstüberschätzung und erhöhtem Risiko führen könne. Stattdessen empfahl er, einen Weg zu finden, wichtige Erinnerungen zu bewahren und gleichzeitig statistische Modelle effektiv anzuwenden. De Prado warnte außerdem davor, zu komplizierte Modelle zu verwenden, da diese die Dateneingabe und gegenseitige Befruchtung behindern und damit die Gesamtwirksamkeit von Algorithmen für maschinelles Lernen beeinträchtigen könnten.

De Prado befasste sich mit dem Phänomen in der Branche, dass bestimmte Merkmale oder Kennzahlen bevorzugt werden, was zu einer Konvergenz der Strategien führt. Er verglich es mit der Hundezucht, bei der menschliche Vorlieben und Ästhetik bestimmte Merkmale prägen, und erklärte, wie die Verwendung spezifischer Kennzahlen, wie die Kombination aus Sharpe-Ratio und negativer Skewness, bei Hedgefonds beliebt geworden sei, auch wenn dies ursprünglich nicht der Fall war gezielt. Die Bewältigung dieses Phänomens erweist sich als schwierig, da es ohne ein bestimmtes auslösendes Ereignis auftritt.

Darüber hinaus betonte de Prado, wie wichtig es sei, bei Prognosen aktuelle Preisdaten zu verwenden, da diese für die unmittelbare Zukunft von größerer Relevanz seien. Er empfahl die Verwendung eines exponentiellen Gewichtsabfalls zur Bestimmung der Probenlänge unter Verwendung aller verfügbaren Daten. Darüber hinaus betonte er die Bedeutung der Kontrolle der Anzahl der Versuche und der Vermeidung isolierter Arbeitsumgebungen als häufige Fallstricke, die zum Scheitern von Mitteln für maschinelles Lernen führen. Er stellte fest, dass sich das Finanzwesen von anderen Bereichen unterscheidet, in denen maschinelles Lernen erhebliche Fortschritte gemacht hat, und dass die Einstellung von Statistikern möglicherweise nicht immer der effektivste Ansatz für die Entwicklung erfolgreicher Handelsalgorithmen ist.

Zusammenfassend beleuchtete der Vortrag von Marcos Lopez de Prado die Gründe, warum die meisten Fonds für maschinelles Lernen in der Finanzbranche scheitern. Er betonte die Notwendigkeit einer gut formulierten Theorie, Teamzusammenarbeit, Spezialisierung, ordnungsgemäßer Handhabung und Differenzierung von Finanzdaten, angemessener Stichprobenziehung und Kennzeichnung, der Bewältigung von Herausforderungen wie Nichteindeutigkeit und Überanpassung sowie der Einbeziehung menschlichen Fachwissens bei der Implementierung von Algorithmen für maschinelles Lernen. Durch das Verständnis dieser Faktoren und einen sorgfältigen und differenzierten Ansatz können Praktiker die Erfolgswahrscheinlichkeit in der dynamischen und komplexen Finanzwelt erhöhen.

  • 00:00:00 Marcos Lopez de Prado erläutert, wie das Fehlen einer gut formulierten Theorie bei diskretionären Fonds Menschen daran hindert, ein wirklich konstruktives und abstraktes Gespräch über Investitionen zu führen. Wenn er an Investmentkonferenzen teilnimmt, sind die meisten Gespräche seiner Meinung nach anekdotisch, ohne dass eine wirkliche Theorie besprochen wird. Infolgedessen können diskretionäre Fonds unter der Unfähigkeit leiden, mit anderen zu interagieren und Theorien zu testen. Das Fehlen einer gut formulierten Theorie kann zu einer schlechten Entscheidungsfindung und schließlich zu Geschäftsverlusten führen.

  • 00:05:00 In diesem Abschnitt erörtert Marcos Lopez de Prado, warum die meisten Fonds für maschinelles Lernen scheitern, und nennt dabei das Problem der Arbeit in Silos als Hauptfaktor. Er erklärt, dass es unmöglich sei, 50 Doktoranden einzustellen und sie in Silos zusammenarbeiten zu lassen, wobei jeder immer wieder an denselben Aufgaben arbeitet, ohne jegliche Zusammenarbeit oder Kommunikation. Dies führt häufig dazu, dass mehrere Strategien ausprobiert werden, was zu fehlerhaften Entdeckungen, fehlgeschlagenen Implementierungen und schließlich zur Schließung des Fonds führt. Lopez de Prado behauptet, dass die Entwicklung von Strategien Teamarbeit erfordert und viele Strategien erforderlich sind, um Erfolg zu haben.

  • 00:10:00 Marcos Lopez de Prado betont die Bedeutung der Spezialisierung innerhalb einer Gruppe als Schlüsselfaktor für den Erfolg bei der Implementierung von maschinellem Lernen im Finanzwesen. Er argumentiert, dass die Bildung eines Spezialistenteams für den Aufbau einer leistungsstarken Infrastruktur, die in der Lage ist, komplexe Systeme wie industrielle Prozesse oder maschinelle Lernstrategien zu bewältigen, von entscheidender Bedeutung ist. Die einzelnen Experten sollten in der Lage sein, unabhängig zu arbeiten, aber dennoch den gesamten Spielplan kennen und die Fachgebiete des anderen sowie die für ihn relevanten Fragen und Probleme kennen. Dieses Metastrategie-Paradigma ist nicht nur für die Entwicklung von Strategien nützlich, sondern auch für die Entscheidungsfindung unter Unsicherheit, einschließlich Einstellung, Überwachung von Investitionen und Stoppkriterien für Strategien.

  • 00:15:00 In diesem Abschnitt betont Marcos Lopez de Prado, wie wichtig der ordnungsgemäße Umgang mit Finanzdaten ist, um Stationarität zu erreichen und gleichzeitig die wertvollsten Informationen zu bewahren. Das Differenzieren von Daten ist mit Kosten verbunden, da dadurch wertvolle Signalinformationen gelöscht werden und es unmöglich wird, etwas vorherzusagen. Daher schlägt er vor, Daten nach Bruchteilen zu differenzieren, um einige Gedächtnisinformationen über frühere Beobachtungen zu bewahren, die eine Unterscheidung ermöglichen, ob sich eine Reihe an einem kritischen Punkt für die Erstellung einer Vorhersage befindet. Eine Kombination aus differenzierenden und stationären Daten liefert nützliche Informationen für die klassische Analyse.

  • 00:20:00 Der Referent bespricht die Erstellung stationärer Serien und wie man dies erreicht. Durch die Verwendung eines bestimmten Schwellenwerts ist es möglich, eine stationäre Serie zu erreichen, die nahezu perfekt mit der Originalserie korreliert, ohne zu viel Speicher zu beanspruchen. Wenn die Korrelation mit der Originalreihe praktisch Null ist, ist das Erreichen der Stationarität nutzlos. Darüber hinaus stellt der Redner fest, dass es in Zukunft keine liquiden Fälle gibt, in denen die Verwendung von Renditen gerechtfertigt ist, und rät davon ab, sie selbst bei Tagesdaten zu verwenden. Er schlägt vor, dass die Verwendung einer einzigen Beobachtung in den meisten Fällen ausreichen würde.

  • 00:25:00 Der Redner erörtert die Bedeutung der Sampling-Häufigkeit und schlägt vor, dass diese auf der Menge an Informationen basieren sollte, die auf dem Markt ankommen, und nicht auf kanonischen Methoden wie täglichen oder einminütigen Beobachtungen. Er gibt ein Beispiel für die Verwendung von Dollarbarren, bei denen Stichproben auf der Grundlage der Anzahl der Transaktionen vorgenommen werden, um sicherzustellen, dass die Stichprobe gleiche Mengen an Informationen und nicht nur gleiche Mengen an Zeit oder Preis enthält. Der Redner betont auch, wie wichtig es ist, bei der Stichprobe die Preise zu berücksichtigen, da sie wichtige Informationen liefern, die sich auf die Marktaktivität auswirken.

  • 00:30:00 Marcos Lopez de Prado diskutiert, wie wichtig es ist, Daten im Finanzwesen korrekt zu erfassen und zu kennzeichnen. Er erklärt, dass es entscheidend sei, mehr Proben zu nehmen, wenn viele Informationen auf den Markt kommen, weil sie mehr Informationen enthalten. Er schlägt vor, die Touch Barrier Labeling-Methode zu verwenden, um Beobachtungen korrekt zu kennzeichnen, indem berücksichtigt wird, was mit dem Preis passiert und wie er zu diesem bestimmten Ergebnis geführt hat. Auf diese Weise kann man eine Strategie entwickeln, die das Risikoniveau berücksichtigt. Dies ist wichtig, da die meisten Menschen das Risikoniveau im Auge behalten und die Möglichkeit eines Ausstiegs in Betracht ziehen müssen.

  • 00:35:00 Marcos López de Prado diskutiert das Konzept des Meta-Lernens, bei dem ein maschinelles Lernmodell verwendet wird, um vorherzusagen, ob die Vorhersage eines anderen maschinellen Lernmodells korrekt ist. Er erklärt, wie wichtig es ist, die beiden Entscheidungen in zwei verschiedenen Modellen zusammenzufassen und wie nützlich es ist, Präzision und Erinnerung in Algorithmen für maschinelles Lernen zu erreichen. López de Prado stellt außerdem das Konzept des harmonischen Mittelwerts vor, das verwendet wird, um den Kompromiss zwischen Präzision und Erinnerung auszugleichen, und schlägt vor, verschiedene Algorithmen für maschinelles Lernen zu verwenden, um zwei sehr unterschiedliche Aufgaben zu erledigen.

  • 00:40:00 In diesem Abschnitt erklärt Marcos Lopez de Prado die Herausforderungen beim Einsatz von maschinellem Lernen im Finanzwesen. Er betont, wie wichtig es ist, dass menschliche Experten die Daten filtern, bevor sie maschinelle Lernalgorithmen verwenden, da Finanzdaten chaotisch und nicht eindeutig sind und es daher nicht einfach ist, eine bestimmte Beobachtung einem bestimmten Patienten oder in diesem Fall einem bestimmten Vermögenswert zuzuordnen . Darüber hinaus verändern sich die Finanzmärkte aufgrund neuer Vorschriften und Gesetze ständig, was sich erheblich auf die Leistung eines maschinellen Lernmodells auswirken kann. Daher erfordert der Einsatz von maschinellem Lernen im Finanzwesen einen sorgfältigen und differenzierten Ansatz und kann nicht einfach durch die Einbindung von Finanzdaten in einen Algorithmus für maschinelles Lernen implementiert werden.

  • 00:45:00 Marcos Lopez de Prado diskutiert das Problem der Nichteinzigartigkeit von Beobachtungen und schlägt eine Methodik vor, um dieses Problem anzugehen. Er schlägt vor, das Ausmaß der Überlappung bei jeder Beobachtung zu ermitteln und ihre Einzigartigkeit zu bestimmen, um eine Lösung abzuleiten. Da bei Kreuzvalidierungstechniken davon ausgegangen wird, dass Beobachtungen unabhängig und identisch verteilt sind, empfiehlt er außerdem, zu ermitteln, welche Beobachtungen aus dem Trainingssatz entfernt werden sollten, um die Annahme einer IID zu vermeiden. Dieser als „Bereinigung“ bezeichnete Prozess entfernt Beobachtungen, die Informationen enthalten, die älter sind als die, die mit dem Testsatz geteilt werden, was zu genaueren Modellen für maschinelles Lernen im Finanzbereich führt.

  • 00:50:00 In diesem Abschnitt diskutiert Marcos Lopez de Prado den siebten Grund, warum die meisten Fonds für maschinelles Lernen scheitern: Überanpassung. Er erklärt, dass man durch wiederholtes Backtesten der Strategie schließlich eine erstaunliche Strategie auf dem Papier finden kann, selbst wenn die Sharpe-Ratio einer Strategie Null ist. Allerdings kann ein wiederholtes Backtesting zu falsch positiven Ergebnissen führen und verliert mit der Zeit an Nutzen. Um eine Überanpassung und falsch positive Ergebnisse zu vermeiden, muss man schlau sein und üben, die Anzahl der Versuche zu berücksichtigen, die für ihre Entdeckung erforderlich sind. Je mehr Sie üben, desto höher ist die Schwelle, die Sie für das Üben einfordern sollten.

  • 00:55:00 Marcos Lopez de Prado erklärt das Konzept der deflationierten Erdbeere. Dabei geht es um die Idee, dass die meisten Hedgefonds eine negative Schiefe und eine positive übermäßige Kurtosis aufweisen, obwohl Fondsmanager diese Momente nicht absichtlich ins Visier nehmen. Dies liegt daran, dass Fondsmanager auf der Grundlage der Sharpe Ratio bewertet werden und statistisch gesehen eine negative Schiefe und eine positive übermäßige Kurtosis diese Quote aufblähen können. De Prado betont, wie wichtig es ist, bei der Analyse der Renditen die Stichprobengröße und die Anzahl der Versuche zu berücksichtigen, die zur Erstellung einer Entdeckung erforderlich sind, und warnt davor, in eine Strategie zu investieren, bei der die Wahrscheinlichkeit einer echten Sharpe-Ratio größer als Null gering ist.

  • 01:00:00 Marcos Lopez de Prado betont, wie wichtig es ist, den Kompromiss zwischen der Anpassung Ihres Modells an die Daten und der Vermeidung einer Überanpassung abzuwägen. Er schlägt vor, sich nicht zu sehr auf die perfekte Passform zu konzentrieren, da dies zu Selbstüberschätzung und erhöhtem Risiko führen kann. Stattdessen empfiehlt er, einen Weg zu finden, Erinnerungen zu bewahren und gleichzeitig statistische Modelle effektiv kaufen und anwenden zu können. Lopez de Prado weist außerdem darauf hin, dass die Verwendung zu komplizierter Modelle die Fremdbestäubung und die Datenfütterung erschweren kann.

  • 01:05:00 Marcos Lopez de Prado erklärt, wie bestimmte Merkmale oder Kennzahlen bei Fonds für maschinelles Lernen und Hedgefonds zu den bevorzugten Merkmalen werden können, was zu einer Konvergenz in der Branche führt. Am Beispiel der Zucht von Hunden, bei denen bestimmte Merkmale aufgrund menschlicher Vorliebe und Ästhetik bevorzugt werden, vergleicht er dieses Phänomen mit der Verwendung von Sharpe-Ratio-Trade und negativer Skewness, die für Hedgefonds zur bevorzugten Kombination geworden ist, auch wenn dies ursprünglich nicht der Fall war gezielt. Er stellt fest, dass die Bewältigung dieses Phänomens eine Herausforderung darstellt, da es ohne das Eintreten eines bestimmten Ereignisses geschieht.

  • 01:10:00 In diesem Abschnitt erörtert Marcos López de Prado die Bedeutung der Verwendung aktueller Preisdaten bei Prognosen, da diese für die unmittelbare Zukunft relevanter sind. Er schlägt vor, alle verfügbaren Daten mit einem exponentiellen Abfall der Gewichtung zu verwenden, um die Stichprobenlänge zu bestimmen. López de Prado betont auch die Notwendigkeit, die Anzahl der Versuche zu kontrollieren und die Arbeit in Silos zu vermeiden, da dies häufige Gründe für das Scheitern von Fonds für maschinelles Lernen sind. Darüber hinaus betont er, dass sich das Finanzwesen von anderen Bereichen unterscheidet, in denen maschinelles Lernen erhebliche Fortschritte gemacht hat, und dass die Einstellung von Statistikern nicht immer der beste Ansatz für die Entwicklung eines erfolgreichen Handelsalgorithmus ist.
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
  • 2019.05.13
  • www.youtube.com
Seminar Date: September 5, 2017For more information, please visit Marcos Lopez de Prado's website: http://www.quantresearch.org/Summary: In this popular thro...
 

Irene Aldridge: „Echtzeitrisiko bei der langfristigen Portfoliooptimierung“



Irene Aldridge: „Echtzeitrisiko bei der langfristigen Portfoliooptimierung“

Irene Aldridge, Präsidentin und Geschäftsführerin von Able Alpha Trading, liefert eine umfassende Diskussion über die Auswirkungen des Hochfrequenzhandels (HFT) auf langfristige Portfoliomanager und die systemischen Veränderungen auf dem Markt, die sich auf die gesamte Branche auswirken. Sie untersucht die zunehmende Automatisierung im Finanzwesen, die durch Fortschritte bei Big Data und maschinellem Lernen vorangetrieben wird, und ihre Auswirkungen auf die Portfoliooptimierung. Darüber hinaus befasst sich Aldridge mit den Herausforderungen und Chancen, die Intraday-Volumendaten mit sich bringen, und schlägt einen schrittweisen Ansatz vor, der die Risikoidentifizierung in Echtzeit mithilfe von Big Data integriert. Sie plädiert für eine differenziertere Strategie zur Portfoliooptimierung, die mikrostrukturelle Faktoren berücksichtigt, und schlägt den Einsatz von Faktoren als Abwehrmaßnahme vor. Aldridge geht auch auf den dreijährigen Lebenszyklus quantitativer Strategien, das Potenzial von virtueller Realität und Automatisierung bei der Datenanalyse sowie die Anwendung einer Computermatrix bei der Portfoliooptimierung ein.

In ihrem gesamten Vortrag stellt Aldridge das Missverständnis in Frage, dass der Hochfrequenzhandel keine Auswirkungen auf langfristige Portfoliomanager habe. Sie argumentiert, dass systemische Veränderungen am Markt alle Anlagestrategien beeinflussen, unabhängig von ihrem Zeithorizont. Aldridge stützt sich auf ihr Fachwissen in den Bereichen Elektrotechnik, Softwareentwicklung, Risikomanagement und Finanzen und betont, wie wichtig es ist, neue Bereiche wie Echtzeit-Risikobewertung und Portfoliooptimierung zu erkunden.

Aldridge hebt den bedeutenden Wandel hin zur Automatisierung in der Finanzbranche hervor und stellt fest, dass der manuelle Handel automatisierten Systemen im Aktien-, Devisen-, Renten- und Rohstoffhandel gewichen ist. Um relevant zu bleiben, haben sich Branchenteilnehmer Big Data und Techniken des maschinellen Lernens zu eigen gemacht. Sie erkennt jedoch den anfänglichen Widerstand einiger Händler an, die befürchteten, dass die Automatisierung ihr Fachwissen überflüssig machen würde.

Der Redner untersucht die Entwicklung von Big Data und seine Rolle bei der Portfoliooptimierung. Sie weist darauf hin, dass die Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten die Finanzlandschaft revolutioniert hat. Aldridge erklärt, wie Techniken wie Singular Value Decomposition (SVD) die Verarbeitung großer Datensätze ermöglichen, um wertvolle Erkenntnisse zu gewinnen. SVD wird zunehmend zur Automatisierung der Portfolioallokation eingesetzt, mit dem Ziel, möglichst viele Daten in Anlageentscheidungen einzubeziehen.

Aldridge befasst sich mit dem Prozess der Reduzierung von Datendimensionen mithilfe der Singulärwertzerlegung. Durch die Darstellung der durch diesen Prozess abgeleiteten Einzelwerte können Forscher die Vektoren identifizieren, die wichtige Informationen enthalten, während die übrigen Vektoren als Rauschen behandelt werden. Diese Technik kann auf verschiedene Finanzdatensätze angewendet werden, darunter Marktkapitalisierung, Beta, Preis und Intraday-Volatilität. Der resultierende reduzierte Datensatz bietet zuverlässige Orientierung für Forschungszwecke und hilft bei der Identifizierung entscheidender Faktoren für die langfristige Portfoliooptimierung.

Der Redner erörtert die von Portfolioanalysten häufig verwendeten Faktoren wie Preis, Marktrisiko (Beta), Marktkapitalisierung und Dividendenrendite. Auch institutionelle Aktivitäten sind ein wichtiger Faktor, und Aldridge hebt die Nutzung von Big Data hervor, um Tick-Daten zu analysieren und Muster zu erkennen. Das Erkennen institutioneller Aktivitäten liefert den Marktteilnehmern sichtbare Signale, die zu einem höheren Volumen und einer günstigen Ausführung führen.

Aldridge unterscheidet zwischen aggressiven und passiven HFT-Strategien und deren Auswirkungen auf die Liquidität. Aggressive HFT-Strategien, die durch Auftragsstornierungen gekennzeichnet sind, können die Liquidität untergraben und zum Risiko beitragen, während passive HFT-Strategien wie Market-Making die Volatilität reduzieren können, indem sie Liquidität bereitstellen. Sie weist darauf hin, dass die Präferenz institutioneller Anleger für volumengewichtete Durchschnittspreise und die Verwendung zeitgewichteter Durchschnittspreise in bestimmten Märkten, wie z. B. Devisen, wo Volumeninformationen möglicherweise nicht immer verfügbar sind.

Der Redner geht auf die Herausforderungen ein, die Intraday-Volumendaten angesichts der Vielzahl von Börsen, immer kürzeren Zeitintervallen und der Notwendigkeit, das beste Geschäft und das beste Angebot unter mehreren Börsen zu ermitteln, mit sich bringen. Trotz dieser Herausforderungen sieht Aldridge erhebliche Chancen für Innovationen und weitere Forschung in der Aufteilung und Analyse von Intraday-Volumendaten. Sie erwähnt den von der SEC betriebenen Security Information Processor (SIP), der Limitaufträge von mehreren Börsen zusammenfasst, erkennt jedoch die ständige Herausforderung an, Probleme zwischen verschiedenen Börsen abzugleichen und zu lösen.

Aldridge hebt die unerforschten mikrostrukturellen Faktoren und Risiken bei der Portfoliooptimierung hervor. Während sich langfristige Portfoliomanager traditionell auf Risiko-Rendite-Merkmale konzentrieren und mikrostrukturelle Faktoren außer Acht lassen, schlägt Aldridge vor, diese als Inputs einzubeziehen und die Fülle der verfügbaren Daten zu nutzen. Sie schlägt einen schrittweisen Ansatz vor, der die Verwendung der Einzelwertzerlegung zur Vorhersage der Leistung auf der Grundlage früherer Renditen und die Nutzung von Big Data zur Identifizierung und Bewältigung von Echtzeitrisiken umfasst. Algorithmen können dabei helfen, komplexe Feinheiten im Austausch zu erkennen und zu nutzen, wie etwa Ping-Aufträge, die von menschlichen Händlern möglicherweise unbemerkt bleiben.

Aldridge hinterfragt die Grenzen der traditionellen Portfoliooptimierung und führt einen umfassenderen Ansatz ein, der mikrostrukturelle Faktoren und andere Marktdynamiken integriert. Sie hebt das disruptive Potenzial von Faktoren wie ETFs und Flash-Crashs hervor und betont, dass Korrelationsmatrizen allein möglicherweise nicht für die Risikoanalyse ausreichen. Durch die Berücksichtigung unabhängiger mikrostruktureller Faktoren, die über allgemeine Marktbewegungen hinausgehen, plädiert Aldridge für eine differenzierte Portfoliooptimierungsstrategie, die die Rendite steigern und die Sharpe Ratios verbessern kann. Weitere Details zu ihrem Ansatz finden Sie in ihrem Buch, und sie freut sich über Fragen des Publikums zum Hochfrequenzhandel.

Aldridge geht weiter auf die Beständigkeit des Hochfrequenzhandels innerhalb eines Tages und seine Auswirkungen auf die langfristige Portfolioallokation ein. Sie verdeutlicht dies am Beispiel des Intraday-Hochfrequenzhandelsvolumens von Google, das über die Zeit eine Stabilität innerhalb einer bestimmten Bandbreite aufweist. Aldridge hebt die geringeren Kosten hervor, die mit dem Hochfrequenzhandel bei höherpreisigen Aktien verbunden sind, und den geringeren Prozentsatz des Hochfrequenzhandelsvolumens bei Penny Stocks. Darüber hinaus stellt sie fest, dass die Komplexität der Kodierung Hochfrequenzhändler oft davon abhält, sich mit Aktien mit hohen Dividenden zu beschäftigen. Aggressive Hochfrequenzhandelsstrategien beinhalten Marktaufträge oder aggressive Limitaufträge, die nahe am Marktpreis platziert werden.

Der Referent erklärt den dreijährigen Lebenszyklus einer quantitativen Strategie und beleuchtet die Herausforderungen, denen Quants bei der Entwicklung erfolgreicher Strategien gegenüberstehen. Im ersten Jahr geht es in der Regel darum, eine erfolgreiche Strategie aus einem früheren Job mitzubringen und einen guten Bonus zu verdienen. Das zweite Jahr ist von Innovationsversuchen geprägt, doch vielen fällt es in dieser Zeit schwer, eine erfolgreiche Strategie zu entwickeln. Im dritten Jahr erhalten diejenigen, die eine erfolgreiche Strategie gefunden haben, möglicherweise einen guten Bonus, während andere sich möglicherweise dafür entscheiden, das Unternehmen zu verlassen und ihre bisherige Strategie einem neuen Unternehmen zu übertragen. Dies trägt zu einer Konzentration ähnlicher Hochfrequenzhandelsstrategien bei, die optimiert oder leicht modifiziert werden können und häufig Geschäfte etwa zur gleichen Zeit ausführen. Aldridge betont, dass der Hochfrequenzhandel, wie auch andere Formen der Automatisierung, vorteilhaft ist und nicht ignoriert werden sollte.

Aldridge schließt ihren Vortrag mit einer Diskussion des Potenzials von virtueller Realität und Automatisierung in der Datenanalyse ab. Sie geht auf die Nützlichkeit von Beta-basierten Portfolios und Faktoren ein, indem sie das Beispiel des Kaufs eines Paares Socken im Vergleich zum Kauf eines Dell-Computers verwendet und wie sich Beta-Änderungen unterschiedlich auf deren Preise auswirken. Es wird auch hervorgehoben, wie wichtig es ist, Retouren zu normalisieren und Zufälligkeiten an Geschäftstagen zu bekämpfen. Aldridge schlägt den Einsatz von Faktoren als Verteidigungsform vor und betont, dass der Einsatz von Faktoren ein angenehmer Ansatz sein kann.

In einem Abschnitt erklärt Aldridge die Anwendung einer Computermatrix bei der Bestimmung der Bedeutung oder des Koeffizienten für jede Aktie in einem Portfolio. Die Matrix umfasst Varianz-Kovarianz- und Schrumpfungstechniken, um die Erträge anzupassen und ein präziseres Ergebnis zu erzielen. Durch die Identifizierung von Mustern in den Renditen früherer Tage kann die Matrix zukünftige Ergebnisse vorhersagen und das Portfolio optimieren. Während das besprochene Spielzeugmodell ein einfaches Beispiel darstellt, veranschaulicht es das Potenzial der Verwendung einer Computermatrix zur langfristigen Portfoliooptimierung.

Zusammenfassend bietet die Präsentation von Irene Aldridge wertvolle Einblicke in die Auswirkungen des Hochfrequenzhandels auf langfristige Portfoliomanager und die sich entwickelnde Landschaft der Finanzbranche. Sie betont die Rolle von Automatisierung, Big Data und maschinellem Lernen bei der Portfoliooptimierung. Aldridge erörtert die Herausforderungen und Chancen, die Intraday-Volumendaten mit sich bringen, plädiert für die Einbeziehung mikrostruktureller Faktoren und schlägt einen schrittweisen Ansatz zur Echtzeit-Risikoerkennung vor. Ihre Ideen tragen zu einem differenzierteren Verständnis der Portfoliooptimierung bei und verdeutlichen das Potenzial von Virtual Reality und Automatisierung für die Datenanalyse. Der umfassende Ansatz von Aldridge ermutigt Portfoliomanager, technologische Fortschritte zu nutzen und die riesigen verfügbaren Datenmengen zu nutzen, um fundierte Anlageentscheidungen zu treffen.

Darüber hinaus betont Aldridge, wie wichtig es ist, mikrostrukturelle Faktoren zu berücksichtigen, die bei der traditionellen Portfoliooptimierung oft unbeachtet bleiben. Durch die Einbeziehung von Faktoren wie ETFs und Flash-Crashs in die Analyse können Portfoliomanager ein genaueres Verständnis der Marktdynamik und der damit verbundenen Risiken erlangen. Sie stellt die Vorstellung in Frage, dass Korrelationsmatrizen allein für die Risikoanalyse ausreichen, und schlägt einen ausgefeilteren Ansatz vor, der unabhängige mikrostrukturelle Faktoren berücksichtigt. Dieser Ansatz hat das Potenzial, die Portfoliorenditen zu steigern und die risikoadjustierte Performance zu verbessern.

Aldridge beleuchtet auch die komplexe Welt des Hochfrequenzhandels. Sie erörtert den Unterschied zwischen aggressiven und passiven HFT-Strategien und hebt deren Auswirkungen auf die Marktliquidität und -volatilität hervor. Während aggressive Strategien mit Orderstornierungen die Liquidität untergraben und das Risiko erhöhen können, können passive Strategien, die sich auf Limit-Orders und Market-Making konzentrieren, Liquidität bereitstellen und die Volatilität verringern. Für langfristige Portfoliomanager ist es wichtig, die Dynamik des Hochfrequenzhandels und seine Auswirkungen auf die Portfolioallokation zu verstehen.

Darüber hinaus erörtert Aldridge die Herausforderungen und Chancen, die mit Intraday-Volumendaten verbunden sind. Bei mehreren Austauschvorgängen und immer kürzeren Zeitintervallen kann die effektive Analyse und Interpretation dieser Daten komplex sein. Aldridge sieht darin jedoch eine Chance für Innovation und weitere Forschung. Sie erwähnt den von der SEC betriebenen Security Information Processor (SIP), der Limitaufträge verschiedener Börsen zusammenfasst, um das beste Geschäft und das beste Angebot zu ermitteln. Sie räumt jedoch ein, dass die Abstimmung und Lösung von Problemen zwischen verschiedenen Börsen weiterhin eine Herausforderung darstellt.

Aldridges Präsentation betont auch die Bedeutung des Einsatzes von Faktoren als Verteidigungsmaßnahme bei der Portfoliooptimierung. Durch die Berücksichtigung verschiedener Faktoren, die über die traditionellen Risiko-Rendite-Merkmale hinausgehen, können Portfoliomanager tiefere Einblicke gewinnen und ihren Entscheidungsprozess verbessern. Faktoren wie Marktkapitalisierung, Beta, Preis und Intraday-Volatilität können wertvolle Informationen zur Optimierung langfristiger Portfolios liefern.

Abschließend geht Aldridge auf das Potenzial von virtueller Realität und Automatisierung bei der Datenanalyse ein. Diese technologischen Fortschritte bieten neue Möglichkeiten für die Analyse komplexer Finanzdaten und ein tieferes Verständnis der Marktdynamik. Durch die Nutzung der Möglichkeiten der Automatisierung und des Einsatzes von Virtual-Reality-Tools können Portfoliomanager ihre Datenanalysefähigkeiten verbessern und fundiertere Anlageentscheidungen treffen.

Abschließend liefert Irene Aldridges Diskussion über die Auswirkungen des Hochfrequenzhandels und der sich entwickelnden Finanzlandschaft wertvolle Erkenntnisse für langfristige Portfoliomanager. Ihre Auseinandersetzung mit Automatisierung, Big Data und maschinellem Lernen unterstreicht das transformative Potenzial dieser Technologien bei der Portfoliooptimierung. Durch die Einbeziehung mikrostruktureller Faktoren, die Nutzung von Faktoren als Verteidigungsmaßnahme und die Nutzung technologischer Fortschritte können sich Portfoliomanager an die sich ändernde Marktdynamik anpassen und neue Möglichkeiten für die Erzielung einer optimalen langfristigen Portfolioperformance erschließen.

  • 00:00:00 Irene Aldridge diskutiert das Missverständnis, dass der Hochfrequenzhandel keine Auswirkungen auf langfristige Portfoliomanager hat. Während viele Manager behaupten, dass sie Vermögenswerte über einen langen Zeitraum halten und so die Auswirkungen des Hochfrequenzhandels vermeiden können, argumentiert Aldridge, dass dies tatsächlich Auswirkungen auf langfristige Portfoliomanager hat. Sie erklärt, wie systemische Veränderungen auf dem Markt und wie sie sich auf alle auswirken, Auswirkungen auf Portfoliomanager haben können, unabhängig davon, ob ihre Anlagestrategie langfristig oder kurzfristig ist. Aldridge hat einen Hintergrund in Elektrotechnik, Softwareentwicklung, Risikomanagement und Finanzen und ihre Arbeit umfasst die Erforschung neuer Bereiche wie Echtzeit-Risiko- und Portfoliooptimierung.

  • 00:05:00 In diesem Abschnitt erörtert der Redner den Wandel hin zur Automatisierung in der Finanzbranche und wie noch vor einem Jahrzehnt der Großteil des Handels manuell abgewickelt wurde. Mittlerweile ist die Automatisierung jedoch nicht nur im Aktienhandel weit verbreitet, sondern auch im Devisen-, Renten- und Rohstoffhandel. Das Ziel der Automatisierung besteht darin, den menschlichen Handel zu ersetzen, und diejenigen, die in der Branche weiterhin relevant sind, haben sich Big Data und maschinelles Lernen zu eigen gemacht, um auf dem Laufenden zu bleiben. Einige Händler sträubten sich jedoch dagegen, ihr Wissen mit Computern zu teilen, weil sie befürchteten, dass dies zu einer sofortigen Automatisierung und ihrer eigenen Veralterung führen würde.

  • 00:10:00 Irene Aldridge spricht über die Entwicklung von Big Data und wie es bei der Portfoliooptimierung eingesetzt wird. Sie weist darauf hin, dass die meisten Finanzinstitute noch vor wenigen Jahren keinen Zugriff auf große Datenmengen hatten, doch das hat sich geändert, und es gibt heute Datenbanken mit strukturierten und unstrukturierten Daten, die auf unterschiedliche Weise verarbeitet werden können, um nützliche Erkenntnisse zu gewinnen. Eine dieser Methoden ist die Singular Value Decomposition (SVD), die große Datenmengen in besser verwaltbare Formen reduziert. Aldridge erklärt, wie SVD zur Automatisierung der Portfoliozuteilung eingesetzt wird, einer Branche, die am Rande der Automatisierung steht. Auch wenn einige Unternehmen immer noch Forscher einsetzen, um monatliche Daten zu analysieren und auf der Grundlage dieser Daten Investitionsentscheidungen zu treffen, geht der Trend dahin, so viele Daten wie möglich in die Investitionsentscheidungen einzubeziehen.

  • 00:15:00 Irene Aldridge diskutiert den Prozess der Reduzierung von Datendimensionen durch Singularwertzerlegung. Durch die grafische Darstellung der durch diesen Prozess extrahierten Einzelwerte können Forscher bestimmen, welche Vektoren wichtige Informationen enthalten, und sich darauf konzentrieren, diese Vektoren beizubehalten, während der Rest als Rauschen betrachtet wird. Diese Technik kann auf eine Vielzahl von Datensätzen angewendet werden, einschließlich Finanzdaten wie Marktkapitalisierung, Beta, Preis und Intraday-Volatilität. Der daraus resultierende reduzierte Datensatz bietet zuverlässige Orientierung für Forschungszwecke und hilft, wichtige Faktoren für die langfristige Portfoliooptimierung zu identifizieren.

  • 00:20:00 In diesem Abschnitt erörtert Irene Aldridge die Faktoren, die häufig von Portfolioanalysten verwendet werden, wie z. B. Preis- und Marktrisiko oder Beta. Marktkapitalisierung und Dividendenrendite sind ebenfalls Faktoren zur Portfoliooptimierung, die in das von Unternehmen wie MSCI, Barra und anderen verwendete Rahmenwerk einbezogen werden. Aldridge erklärt, wie sie institutionelle Aktivitäten anhand von Big Data auf Tick-Daten schätzen und nach spezifischen Mustern in den Daten suchen. Institutionelle Aktivitäten sind wichtig, da sie ein sichtbares Signal für Marktteilnehmer sind, das dazu führen kann, dass andere Marktteilnehmer sich stürzen, das Auftragsvolumen ansteigt und zu einer günstigen Ausführung des Auftrags führt.

  • 00:25:00 Irene Aldridge diskutiert den Unterschied zwischen aggressiven und passiven HFT-Strategien, die sich beide auf die Liquidität auswirken. Aggressive HFT-Strategien können Alpha-gesteuert sein und viele Orderstornierungen beinhalten, was die Liquidität untergräbt und das Risiko erhöht, während passive HFT-Strategien, die reine Limit-Orders wie Market-Making beinhalten, die Volatilität reduzieren können, indem sie mehr Liquidität bereitstellen. Institutionelle Anleger bevorzugen einen volumengewichteten Durchschnittspreis, während in einigen Märkten wie dem Devisenmarkt, wo Volumen nicht immer verfügbar ist, immer noch zeitgewichtete Durchschnittspreise verwendet werden. Insgesamt ist HFT ein komplexes Thema, das sowohl Vorteile als auch Risiken birgt.

  • 00:30:00 In diesem Abschnitt erörtert Irene Aldridge die Struktur von Datenspalten und die Herausforderungen, die mit Intraday-Volumendaten angesichts der großen Anzahl von Börsen, der immer kürzeren Zeitintervalle von Änderungen und der Frage, die besten Geschäfts- und Handelsdaten zu finden, einhergehen bestes Angebot unter mehreren Börsen. Trotz der Herausforderungen ist sie davon überzeugt, dass Intraday-Volumendaten auf viele verschiedene Arten unterteilt werden können und eine Chance für Innovation und weitere Forschung bieten. Sie erwähnt auch den von der SEC betriebenen Security Information Processor (SIP), der Limitaufträge von mehreren Börsen zusammenfasst und das beste Geschäft und beste Angebot ermittelt, weist jedoch darauf hin, dass die Abstimmung und Lösung von Problemen zwischen verschiedenen Börsen immer noch eine Herausforderung darstellt.

  • 00:35:00 Der Redner erklärt, dass es bei langfristigen Portfoliomanagern zwar in erster Linie um Risiko-Rendite-Merkmale geht und sie sich nicht um die Ausführung kümmern, es aber viele Mikrostrukturen und Risikofaktoren gibt, die völlig unerforscht sind und als Inputs verwendet werden könnten sowie viele Daten, die neue Informationen und Erkenntnisse liefern könnten. Sie schlagen einen schrittweisen Ansatz vor, der die Verwendung einer Einzelwertzerlegung zur Vorhersage der Leistung auf der Grundlage früherer Renditen und die Nutzung großer Datenmengen zur Identifizierung und Bewältigung von Echtzeitrisiken umfasst. Der Redner weist außerdem darauf hin, dass es bei Börsen viele Ping-Aufträge und andere Komplexitäten gibt, die für menschliche Händler nicht immer offensichtlich sind, aber mithilfe von Algorithmen identifiziert und genutzt werden können.

  • 00:40:00 In diesem Abschnitt erörtert Irene Aldridge die Grenzen der traditionellen Portfoliooptimierung für langfristige Investitionen und stellt einen neuen Ansatz vor, der Mikrostruktur und andere Marktfaktoren in den Optimierungsprozess integriert. Sie erklärt, wie Faktoren wie ETFs und Flash-Crashs den Markt stören können und wie Korrelationsmatrizen möglicherweise nicht für die Risikoanalyse ausreichen. Durch die Berücksichtigung mikrostruktureller Faktoren, die unabhängig von größeren Marktbewegungen sind, schlägt Aldridge einen differenzierteren Ansatz zur Portfoliooptimierung vor, der Renditen und Sharpe-Ratios verbessern kann. Sie stellt fest, dass ihr Ansatz in ihrem Buch ausführlicher behandelt wird und Fragen des Publikums zum Hochfrequenzhandel beantwortet.

  • 00:45:00 Irene Aldridge erklärt die Beständigkeit des Hochfrequenzhandels innerhalb eines Tages und wie er sich auf die langfristige Portfolioallokation auswirkt. Sie stellt fest, dass das Intraday-Hochfrequenzhandelsvolumen zwar zwischen 0 und 100 schwanken kann, im Laufe der Zeit jedoch für Google mit einer Spanne von 36–42 % ziemlich stabil war. Diese Stabilität bleibt auch bei anderen Aktien bestehen. Der Hochfrequenzhandel ist beim Handel mit höherpreisigen Aktien kostengünstiger und der Prozentsatz des Hochfrequenzhandelsvolumens bei Penny Stocks ist geringer. Darüber hinaus neigen Hochfrequenzhändler aufgrund der Komplexität der Kodierung dazu, Aktien mit hohen Dividenden zu meiden. Beim aggressiven Hochfrequenzhandel werden Marktaufträge oder aggressive Limitaufträge nahe am Marktpreis verwendet.

  • 00:50:00 Irene Aldridge erklärt den dreijährigen Lebenszyklus einer quantitativen Strategie, wobei der Quant im ersten Jahr eine erfolgreiche Strategie aus seinem vorherigen Job mitbringt und einen guten Bonus verdient, im zweiten Jahr versucht er jedoch, innovativ zu sein Vielen Menschen fällt es schwer, eine erfolgreiche Strategie zu entwickeln, und wenn sie im dritten Jahr etwas Gutes gefunden haben, verdienen sie möglicherweise einen guten Bonus, andernfalls verlassen sie das Unternehmen und gehen mit ihrer bisherigen Strategie in ein neues Geschäft. Dies trägt zur Konzentration ähnlicher Hochfrequenzhandelsstrategien bei, die optimiert oder leicht modifiziert werden können und oft fast gleichzeitig ausgeführt werden. Aldridge glaubt, dass Hochfrequenzhandel gut und nicht entschuldbar ist, da es sich um Automatisierung handelt, genau wie Roboter, die Böden reinigen, oder ein Hausautomationssystem, das Heizung und Kühlung steuert.

  • 00:55:00 Irene Aldridge, Präsidentin und Geschäftsführerin von Able Alpha Trading, diskutiert das Potenzial von virtueller Realität und Automatisierung für die Datenanalyse. Sie geht auch auf die Nützlichkeit von Beta-basierten Portfolios und Faktoren ein und führt als Beispiel den Kauf eines Paares Socken im Vergleich zum Kauf eines Dell-Computers an und erläutert, wie sich Beta-Änderungen unterschiedlich auf deren Preise auswirken. Sie betont die Bedeutung der Normalisierung von Retouren und geht auf das Problem der Zufälligkeit in Geschäftstagen ein. Abschließend geht Aldridge auf den Einsatz von Faktoren als Verteidigungsform ein und weist darauf hin, dass der Einsatz von Faktoren Spaß machen kann.

  • 01:00:00 In diesem Abschnitt erläutert Aldridge die Verwendung einer Computermatrix zur Bestimmung der Bedeutung oder des Koeffizienten für jede Aktie in einem Portfolio. Die Zeilen der Matrix stellen jeden Bestand dar, wobei die erste Zeile Äpfel darstellt und die anderen Zeilen Marktdaten für verschiedene Bestände darstellen. Durch die Einbeziehung von Varianz, Kovarianz und Schrumpfung kann die Matrix die Rendite berücksichtigen und Anpassungen vornehmen, um ein spezifischeres Ergebnis zu erzielen. Dies geschieht, indem man das Weihnachtsfest in der Rückkehr der vorherigen Tage findet und von dort aus vorhersagt. Während das beschriebene Spielzeugmodell nur ein einfaches Beispiel ist, zeigt es, wie eine Computermatrix zur Optimierung eines Portfolios verwendet werden kann.
 

Grundlagen des quantitativen Handels



Grundlagen des quantitativen Handels

In diesem Video über die Grundlagen des quantitativen Handels erörtert der algorithmische Händler Shaun Overton die Herausforderungen und Chancen des algorithmischen Handels. Overton erklärt, dass Datenerfassung, Analyse und Handel die drei einfachen Probleme beim algorithmischen Handel sind, obwohl der Prozess aufgrund der Suche nach qualitativ hochwertigen Daten und der richtigen Analyse kompliziert werden kann. Es kann schwierig sein, die richtige Plattform mit guten Daten und Funktionen auszuwählen, um die Ziele des Händlers zu erreichen. Die beliebtesten Plattformen sind MetaTrader, NinjaTrader und TradeStation, je nachdem, welche Handelsart man bevorzugt. Overton erörtert auch die harte Realität, wie leicht es ist, beim Handel auf dem Live-Markt Konten zu sprengen, und wie wichtig es ist, das Risiko zu managen. Darüber hinaus erklärt er, wie quantitative Händler übertriebene Marktbewegungen vorhersagen können, und erörtert die Auswirkungen von Währungskriegen.

Das Video „Basics of Quantitative Trading“ auf YouTube behandelt verschiedene Strategien für den algorithmischen Handel, darunter Sentimentanalyse und langfristige Strategien auf Basis von Chartlinien; Die größten Erträge werden jedoch bei großen Ereignissen und Trends erzielt. Die Teilnehmer des Videos diskutieren über verschiedene Plattformen für Backtesting, die Herausforderungen bei der Integration mehrerer Plattformen für die Handelsanalyse und das zunehmende Interesse an der Formalisierung und Automatisierung von Handelsstrategien. Einige Langzeithändler streben nach einer Automatisierung, da sie schon lange im Spiel sind, und NinjaTrader für Programmiersprachen wird empfohlen, weist jedoch Einschränkungen auf.

  • 00:00:00 Algorithmischer Trader Shaun Overton erklärt die drei einfachen Probleme beim algorithmischen Handel: Datenerfassung, Analyse und Handel. Allerdings kann der Prozess aufgrund von Hindernissen wie der Suche nach qualitativ hochwertigen Daten und einer ordnungsgemäßen Analyse kompliziert werden, insbesondere da der Handel eine sorgfältige Prüfung der Daten erfordert. Der Handel mit kostenlosen Optionen wird nicht empfohlen, da diese Duplikate oder Lücken in den Daten enthalten können. Darüber hinaus ist die Verwendung kostenpflichtiger Optionen nicht für Einzelhändler geeignet, da sie Tausende von Dollar pro Instrument kosten kann. Dennoch kann der Handel durch den Einsatz von Plattformen, die Software und Broker-APIs anbieten, vereinfacht werden.

  • 00:05:00 Der Referent erläutert die verschiedenen verfügbaren Softwareoptionen zur Datenanalyse und Platzierung von Trades. Die beliebtesten Plattformen für den Devisenhandel sind MetaTrader, NinjaTrader und TradeStation, je nachdem, welche Handelsart man bevorzugt. MetaTrader ist mit überwältigender Mehrheit der beliebteste und es gibt mehr als tausend Broker auf der ganzen Welt, die ihn anbieten. Der Redner erklärt, dass die Verwendung einer vorgefertigten Plattform wie dieser Optionen den Handel und die Analyse von Daten einfacher macht und die Notwendigkeit vermeidet, die Analyse beim Handel mehrmals neu zu kodieren. Der Referent geht auch auf die verschiedenen Programmiersprachen ein, die von jeder Plattform verwendet werden.

  • 00:10:00 Der Redner diskutiert verschiedene Plattformen für den quantitativen Handel und erklärt, wie Multicharts durch das Kopieren der Plattform und Sprache von TradeStation populär geworden ist. Es gibt jedoch Unterschiede zwischen den Sprachen und es ist nicht immer vollständig kompatibel. Der Redner spricht auch über die Bedeutung von Daten im quantitativen Handel und die Herausforderungen, die jede Plattform mit sich bringt. Er weist darauf hin, dass MetaTrader einfach zu verwenden, aber für komplexere Analysen nicht ausgereift genug ist und die bereitgestellten Daten oft von schlechter Qualität sind. Insgesamt betont der Redner, wie wichtig es ist, sorgfältig eine Plattform mit guten Daten und Funktionen auszuwählen, die den Zielen des Händlers entsprechen.

  • 00:15:00 Shaun Overton diskutiert die Herausforderungen beim Sammeln und Speichern von Daten für quantitative Handelsstrategien. Er erklärt die Schwierigkeiten beim Versuch, jahrelange Testdaten zu speichern, und die Einschränkungen, die Broker aufgrund von Serverbeschränkungen bei der Datenbeschaffung auferlegen. Er weist darauf hin, dass MetaTrader zwar kostenlose Daten anbietet, diese jedoch nicht von hoher Qualität sind, während NinjaTrader zwar gute Daten bereitstellt, aber eine steile Lernkurve zum Einrichten erfordert. Er warnt auch vor den Gefahren der Programmierung spezifischer Strategien für einen bestimmten Broker, da diese den Händler an diesen bestimmten Broker bindet und es schwierig macht, zu wechseln, wenn er unzufrieden ist. Er listet Gründe auf, warum Händler mit einem Broker verärgert sein könnten, darunter schlechter Service und schlechte Ausführung.

  • 00:20:00 Shaun Overton erklärt einige der Probleme und Spiele, die Broker spielen, um mit Händlern und ihren Geschäften Geld zu verdienen. Broker können Marktpreise und Geschäfte manipulieren, um Händler dazu zu zwingen, mehr für ihre Geschäfte zu zahlen, indem sie einen Preis angeben und die Händler dann dazu bringen, einen schlechteren Preis zu akzeptieren. Darüber hinaus kann ein Händler aufgrund einer schlechten Latenz oder eines Softwarefehlers eine schlechte Ausführung erhalten. Das größte Problem beim algorithmischen Handel ist derzeit die institutionalisierte Korruption und die Art und Weise, wie Institutionen aufgrund technologischer Unfälle Händlern Geld stehlen können, sowie Dark Pools und andere Handelsplätze, die ihre eigenen Regeln zur Manipulation von Geschäften haben.

  • 00:25:00 Der Referent diskutiert die Grenzen von Broker-spezifischen Plattformen für den quantitativen Handel. Während sie für extrem einfache Strategien effizient sein mögen, haben sie Einschränkungen und können keine anspruchsvolleren Strategien unterstützen. Der Referent empfiehlt stabile Plattformen wie NinjaTrader und MultiCharts, die über eine gute Recherchequalität verfügen und individuelle Programmierungen und GUI-Anpassungen ermöglichen. Der Redner warnt jedoch, dass diese Plattformen nicht für die Verwaltung von Portfolios oder die Verwaltung von Fonds geeignet seien, da sie nicht in der Lage seien, mit mehreren Diagrammen zu kommunizieren, und viel manuelle Arbeit erfordern.

  • 00:30:00 Shaun Overton spricht über die harte Realität, wie leicht es ist, Konten zu sprengen, wenn man auf dem Live-Markt handelt, wo 90-95 % der Konten innerhalb von 6 Monaten oder einem ganzen Jahr geschlossen werden. Es gibt zwei Möglichkeiten, wie Broker Geld verdienen: durch Provisionen oder durch Risiko. Die beliebtere und lukrativere Möglichkeit ist häufig die Übernahme von Handelsverlusten. Normale Händler verdienen Geld, wenn die Volatilität niedrig ist, aber wenn sie hoch ist, werden sie dezimiert. Über Risikomanagement wird gesprochen, aber für die meisten Menschen ist es nur heiße Luft, und sie verlieren weiterhin Geld, wenn sie ihr Risiko nicht managen.

  • 00:35:00 Shaun diskutiert, wie sich Volatilität auf quantitative Handelsstrategien auswirkt und wie Einzelhändler dazu neigen, mit ihren Marktprognosen falsch zu liegen. Er erklärt, wie das Verhältnis von Long- zu Short-Positionen von Brokern mit Zugriff auf Kundenkonten verfolgt werden kann und wie diese Informationen zur Vorhersage überzogener Bewegungen genutzt werden können. Overton weist darauf hin, dass diese Informationen immer breiter verfügbar werden und Websites wie MyFxBook und OANDA Daten zur Marktpositionierung veröffentlichen. Er warnt jedoch davor, dass diese Informationen zwar eine Goldgrube für Makler sein können, sie jedoch möglicherweise keinen stabilen Cashflow liefern und zu Phasen großer Verluste führen können.

  • 00:40:00 Shaun Overton erörtert das Potenzial quantitativer Händler, sich die Kundengelder großer Banken anzusehen, um Long- und Short-Strategien zu entwickeln, die auf dem Prozentsatz der Geschäfte basieren, die in eine bestimmte Richtung gehen. Er kommentiert auch die Skepsis von Privatanlegern, die an der Börse teilnehmen, insbesondere angesichts der jüngsten negativen Nachrichten, die seit dem letzten Crash zu einem Abzug von Milliarden Dollar geführt haben. Overton erwähnt auch einen aktuellen Nachrichtenbeitrag auf CNBC über große Fondsmanager und deren Einfluss auf die Aktien großer Unternehmen, was die Macht institutioneller Gelder bei der Bewegung des Marktes demonstriert.

  • 00:45:00 Es wird diskutiert, dass der institutionelle Handel, insbesondere im Devisenhandel, aufgrund der durchschnittlichen Kontogröße der Händler möglicherweise nicht so einflussreich auf dem Markt ist wie der Privathandel. Größere Bewertungen und größere gehandelte Geldbeträge führen jedoch dazu, dass mehr Leute mit den Preisen herumspielen, und selbst kleine Ereignisse wie betrunkener Handel könnten Auswirkungen auf den Markt haben. Der Haupttreiber der Währungen sind die Zinssätze, und es ist ein Währungskrieg, bei dem jeder einen Nullzins will, wodurch es schwieriger wird, die Währung des Landes zu bestimmen, die die schwächste ist. Abschließend wird das Währungspaar Japans, der Dollar-Yen, im Hinblick auf seine Geschichte analysiert und untersucht, wie der Preisverfall mit der Abschwächung des Dollars und der Stärkung des Yen zusammenhängen könnte.

  • 00:50:00 Shaun Overton diskutiert die Auswirkungen von Währungskriegen auf Exporteure. Er erklärt, dass Exporteure wie Toyota stark betroffen sind, wenn der Wert der Währung, in der sie tätig sind, steigt. Overton gibt an, dass es derzeit einen Währungskrieg zwischen den wichtigsten Währungen gibt, in dem die Länder versuchen, sich selbst abzuwerten, und alle darum konkurrieren, Null zu sein. Daher müssen Händler darüber spekulieren, wer bei der Zerstörung einer Währung am schlechtesten abschneiden wird, da sie in diesem Umfeld die besten sein werden. Overton ist der Meinung, dass der Dollar derzeit eine Katastrophe ist, aber die bisher größte Katastrophe. Auch länderspezifische soziale Risiken und Ereignisse wie der 11. September und die Fukushima-Katastrophe können sich auf die Währungspreise auswirken.

  • 00:55:00 Die Redner diskutierten den Handel in dünnen Märkten und exotischen Währungen. Es wurde erwähnt, dass man für den algorithmischen Handel Liquidität und einen geringen Spread benötigt, was den Handel mit weniger beliebten Währungen wie dem südafrikanischen Rand oder der türkischen Lira erschwert. Darüber hinaus kann der Spread dieser Währungen das Acht- bis Neunfache der Kosten betragen, die der Handel zwischen Euro und Dollar kostet, was es schwierig macht, Gewinne zu erzielen. In Bezug auf Strategien für diejenigen mit weniger als 50.000 Konten erwähnen die Redner, wie wichtig es ist, sich auf Dinge wie den Commitments of Traders-Bericht auf den Terminmärkten zu konzentrieren, um Einblicke in die Marktpositionen zu gewinnen.

  • 01:00:00 Eine Gruppe diskutiert verschiedene Strategien für den algorithmischen Handel, darunter eine Sentimentanalyse und eine einfache langfristige Strategie auf Basis von Chartlinien. Die Herausforderung beim Handel besteht darin, die Renditeverteilung zu verstehen, da es sich dabei meist nur um Rauschen handelt. Die größten Erträge werden jedoch bei großen Ereignissen und Trends erzielt. Deshalb verdienen die besten Strategien nicht immer Geld, sondern ergreifen Gelegenheiten, wenn sie sich bieten. Trotz des Wunsches nach Signalen und Maßnahmen ist es am besten, den Markt tun zu lassen, was er tun wird. Auch Quantopian, ein Programm zur Analyse von Marktdaten, wird erwähnt.

  • 01:05:00 In diesem Abschnitt diskutieren Teilnehmer des YouTube-Videos „Grundlagen des quantitativen Handels“ über verschiedene Plattformen, die sie für Backtesting und Optimierung verwenden, sowie über die Herausforderungen der Integration mehrerer Plattformen für Handelsanalysen und Strategieentwicklung. Während einige Teilnehmer anmerken, dass Quantopian eine Plattform für individuelle Analysen bereitstellt und Verträge mit Brokern aushandelt, um möglicherweise Herausforderungen bei der Plattformintegration zu lösen, diskutieren andere die Einschränkungen von Plattformen wie NinjaTrader und die Schwierigkeiten bei der Integration mit anderen Plattformen, wobei einige die Tatsache hervorheben, dass dies der Fall ist eignen sich besser für den manuellen Handel oder als einfache Backtesting-Tools. Darüber hinaus weist Shaun Overton darauf hin, dass sein Geschäft auf der Formalisierung und Automatisierung der eigenen Strategien der Händler basiert, wobei die Teilnehmer anmerkten, dass sowohl einzelne Händler als auch Märkte ein zunehmendes Interesse an der Formalisierung und Automatisierung ihrer Handelsstrategien zeigen.

  • 01:10:00 Händler, die an einem Seminar zum quantitativen Handel teilnehmen, fragen nach den Vorteilen der Automatisierung bestimmter Handelsstrategien. Shaun Overton, der Redner, stellt fest, dass einige Händler, die seit 10, 20 oder sogar 30 Jahren im Spiel sind, ihre Strategien einfach automatisieren möchten, damit sie sie nicht mehr den ganzen Tag überwachen müssen. Wenn es um handelsspezifische Programmiersprachen geht, befürwortet Overton NinjaTrader, da es auf C Sharp läuft, weist jedoch darauf hin, dass es Einschränkungen hinsichtlich dessen gibt, was darin getan werden kann.
Basics of Quantitative Trading
Basics of Quantitative Trading
  • 2013.02.26
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton speaks to the meetup group Dallas Algorithmic Traders about quantitative trading. Most members of the audience h...
 

Was ist ein Quant-Trader?



Was ist ein Quant-Trader?

„Was ist ein Quant-Trader?“ ist ein Video, in dem Michael Halls-Moore in die Welt des Quant Trading eintaucht und erklärt, wie Mathematik und Statistik zur Entwicklung von Handelsstrategien und zur Analyse von Marktineffizienzen eingesetzt werden. Während sich Quant-Fonds vor allem auf kurzfristige Strategien konzentrieren, betont der Referent, dass auch niederfrequente und automatisierte Ansätze zum Einsatz kommen. Institutionelle Händler priorisieren das Risikomanagement, während Einzelhändler vom Gewinn getrieben werden. Eine effektive Erkennung des Marktregimes ist von entscheidender Bedeutung, aber aufgrund zufälliger Ereignisse auf dem Markt eine Herausforderung. Quant-Tradern wird empfohlen, sich nicht nur auf ein einzelnes Modell zu verlassen, sondern ständig neue Modelle zu erforschen und zu testen, um bekannte und unbekannte Marktdynamiken zu berücksichtigen. Trotz der damit verbundenen Risiken können erfolgreiche Quant-Trader eine beeindruckende jährliche Gebührenrendite von 35 % erzielen.

Im Video bietet Michael Halls-Moore eine aufschlussreiche Perspektive auf das Konzept eines „Quant Traders“. Er erklärt, dass Quant-Trader im Finanzbereich mathematische und statistische Techniken einsetzen und dabei rechnerische und statistische Methoden nutzen. Ihre Arbeit umfasst ein breites Spektrum an Aktivitäten, von der Programmierung von Handelsstrukturen über die Durchführung eingehender Recherchen bis hin zur Entwicklung robuster Handelsstrategien. Kauf- und Verkaufsregeln spielen zwar eine Rolle, stehen aber nicht im Mittelpunkt, da Quant-Trader in einem größeren System agieren, in dem Signalgeneratoren nur eine Komponente sind.

Quantitative Fonds betreiben typischerweise Hochfrequenzhandel und streben danach, Technologie und Mikrostrukturen innerhalb der Marktwerte zu optimieren. Die Zeitrahmen beim Quant Trading können stark variieren und von Mikrosekunden bis hin zu Wochen reichen. Einzelhändler haben eine erhebliche Chance, Strategien im Stil höherer Frequenzen zu übernehmen.

Entgegen der landläufigen Meinung konzentriert sich Quant Trading nicht ausschließlich auf Hochfrequenzhandel und Arbitrage. Es umfasst auch niederfrequente und automatisierte Strategien. Aufgrund ihres wissenschaftlichen Ansatzes, physische Ineffizienzen im System auszunutzen, konzentrieren sich Quant-Fonds jedoch überwiegend auf kurzfristige Strategien. Der Redner betont, wie wichtig es ist, über eine Mischung aus wissenschaftlichem und handelsbezogenem Hintergrund zu verfügen, um im Bereich Quant Trading erfolgreich zu sein.

Ein bemerkenswerter Unterschied zwischen Privatanlegern und institutionellen Händlern liegt in ihrem Ansatz zum Risikomanagement. Einzelhändler sind in erster Linie von Gewinnmotiven getrieben, während institutionelle Händler dem Risikomanagement Vorrang einräumen, auch wenn dies den Verzicht auf potenzielle Renditen bedeutet. Institutionelle Händler verfolgen eine risikoorientierte Mentalität und legen Wert auf Due Diligence, Stresstests und die Implementierung von Absicherungspolicen, um Risiken wirksam zu mindern.

Das Risikomanagement umfasst verschiedene Techniken, wie z. B. die Anpassung des Leverage basierend auf dem Kontokapital mithilfe mathematischer Rahmenwerke wie dem Kelly-Kriterium. Konservativere Händler entscheiden sich für eine Reduzierung der Drawdowns, um eine kontrollierte Wachstumsrate zu erreichen. Frühe Risikoindikatoren wie der VIX werden verwendet, um die zukünftige Volatilität abzuschätzen. Bei diesen Geschäften kommt dem Risikomanagementsystem eine größere Bedeutung zu als dem Einstiegssystem. Während Stop-Losses bei der Trendverfolgung eingesetzt werden, erfordern Mean-Reversion-Strategien eine Neubewertung und Untersuchung verschiedener Szenarien und historischer Daten für die Drawdown-Planung. Vor der Implementierung von Handelsalgorithmen werden Backtesting-Phasen durchgeführt, um Risikofaktoren effektiv zu steuern.

Das Video befasst sich mit der Bedeutung des Herausfilterns von Handelsstrategien und der Verwendung von Backtesting als Werkzeug zum Filtern dieser Strategien, anstatt sie direkt in die Produktion umzusetzen. Es unterstreicht, wie wichtig es ist, im weiteren Verlauf mit schlimmeren Drawdowns zu rechnen und Filtermechanismen zu nutzen, um die Eignung einer Strategie für die Umsetzung zu bestimmen. Das Gespräch befasst sich dann mit Nassim Nicholas Talebs Glauben an Fat Tails und untersucht, wie maschinelle Lerntechnologie eingesetzt werden kann, um Range-Trading- und Trend-Trading-Strategien anzuwenden und so die Erkennung von Marktregimen zu ermöglichen.

Die effektive Erkennung von Marktregimen ist ein entscheidender Aspekt der quantitativen Finanzierung. Es stellt jedoch eine Herausforderung dar, da es auf zufällige Ereignisse wie Zinssenkungen und Markttrends angewiesen ist. Anspruchsvollere Unternehmen verfolgen Fundamentaldaten und integrieren sie in ihre Modelle, um die Erkennung von Marktregimen zu verbessern. Beim Handel hängt die Auswahl der Aktien oder ETFs vom jeweiligen Markt ab und die Auswahl der richtigen Vermögenswerte kann eine komplexe Aufgabe sein. Der Redner betont, dass eine Kombination aus mathematischen Modellen und Marktfundamentaldaten für eine wirksame Abwehr von Black Swan-Ereignissen von entscheidender Bedeutung ist, da frühere Perioden hoher Volatilität Einblicke in die Vorhersage zukünftiger Volatilität und Marktveränderungen liefern können.

Das Video untersucht weiter die potenziellen Renditen und Risiken, die mit Quant Trading verbunden sind. Quant-Trader haben das Potenzial, eine beeindruckende jährliche Gebührenrendite von 35 % zu erzielen, insbesondere wenn sie mit einem soliden Bildungshintergrund, wie etwa einem Doktortitel, und einem effizienten Managementprozess gekoppelt sind. Hochfrequenzquants können jedoch vor Herausforderungen stehen, wenn Änderungen in der zugrunde liegenden Hardware oder Börse auftreten, was möglicherweise zu Systemabstürzen führen kann.

Trotz der damit verbundenen Risiken gilt es als günstig, durch die Nutzung profitabler Chancen langfristig eine konstante Rendite von 15 % bis 20 % zu erzielen. Quant-Trader verlassen sich nicht auf einen einzigen magischen Algorithmus und geraten nicht in Panik, wenn sie mit Problemen konfrontiert werden. Stattdessen befassen sie sich mit statistischen Eigenschaften, deren Analyse möglicherweise komplex ist, die sich jedoch im Voraus auf die Bewältigung potenzieller Herausforderungen vorbereiten.

Das Video betont, wie wichtig es ist, eine übermäßige Abhängigkeit von einem einzigen Modell im quantitativen Handel zu vermeiden. Modelle können nicht alle zukünftigen Ereignisse genau vorhersagen, wie historische Abstürze an der Wall Street und Investitionsausfälle aufgrund von Modellmängeln zeigen. Für Quant-Trader ist es wichtig, kontinuierlich neue Modelle zu erforschen und zu testen und deren Leistung zu bewerten. Drawdown-Zeiträume sind ein fester Bestandteil der Handelsreise und Händler müssen darauf vorbereitet sein, diese zu bewältigen.

Zusammenfassend lässt sich sagen, dass sich einige Händler möglicherweise zu sehr auf das Mikromanagement ihrer Modelle konzentrieren. Es ist jedoch wichtig zu verstehen, ob ein Modell alle Marktdynamiken berücksichtigt, einschließlich der unbekannten Unbekannten. Quant-Händler sollten einen mehrdimensionalen Ansatz verfolgen und mathematische Modelle mit Marktgrundlagen kombinieren, um ein umfassendes Verständnis des Marktverhaltens zu erlangen. Durch die ständige Verfeinerung und Diversifizierung ihrer Strategien können Quant-Trader ihre Erfolgschancen in einer sich ständig weiterentwickelnden Finanzlandschaft erhöhen.

  • 00:00:00 In diesem Abschnitt erklärt Michael Halls-Moore die Bedeutung von „Quant Trader“, also jemand, der Mathematik oder Statistiken im Finanzwesen auf rechnerische und statistische Weise nutzt. Dies kann von der Programmierung von Handelsstrukturen über die Erforschung des Hardcore-Handels bis hin zur Entwicklung einer Strategie reichen. Die Bedeutung von Kauf- und Verkaufsregeln ist nicht so wichtig wie andere Aspekte, und Signalgeneratoren sind nur ein Teil eines größeren Systems. Quantitative Fonds befassen sich in der Regel mit dem Hochfrequenzhandel und konzentrieren sich auf die Optimierung von Technologie und Mikrostrukturen innerhalb der Marktwerte. Der typische Zeitrahmen für Quant-Trader reicht von Mikrosekunden bis zu Wochen, und die größten Chancen für Einzelhändler liegen in Strategien mit höherem Frequenzstil.

  • 00:05:00 In diesem Abschnitt erfahren wir, dass es beim Quant Trading nicht nur um Hochfrequenzhandel und Arbitrage geht, sondern dass es auch Niederfrequenz- und automatisierte Strategien umfasst. Aufgrund ihres wissenschaftlichen Ansatzes, physische Ineffizienzen im System auszunutzen, konzentrieren sich Quant-Fonds jedoch im Allgemeinen auf kurzfristige Strategien. Der Redner ist davon überzeugt, dass eine Mischung aus wissenschaftlichem und handelsbezogenem Hintergrund für den Erfolg im Quant Trading von entscheidender Bedeutung ist. Beim Risikomanagement stellt er einen kulturellen Unterschied zwischen dem Privathandel und dem institutionellen Handel fest, bei dem letzterer eine Risiko-First-Mentalität verfolgt und den Schwerpunkt auf Due Diligence, Stresstests und Verlustversicherungen legt.

  • 00:10:00 In diesem Abschnitt werden im Video die unterschiedlichen Ansätze besprochen, die private und institutionelle Händler in Bezug auf das Risikomanagement verwenden. Während Einzelhändler in erster Linie gewinnorientiert sind, konzentrieren sich institutionelle Händler auf das Risikomanagement, auch wenn die potenziellen Renditen nur einen Bruchteil dessen ausmachen, was möglich ist. Das Video erwähnt das Kelly-Kriterium als mathematisches Mittel zur Anpassung des Leverage auf der Grundlage des Kontokapitals, wobei konservativere Händler sich für einen Slide entscheiden, bei dem sie ihren Drawdown reduzieren, um eine kontrolliertere Wachstumsrate zu erreichen. Darüber hinaus werden Frührisikoindikatoren wie der VIX verwendet, um die zukünftige Volatilität zu erkennen. Das Risikomanagementsystem ist bei diesen Geschäften wichtiger als das Einstiegssystem, wobei Stop-Losses bei der Trendverfolgung eingesetzt werden, nicht jedoch bei der Mean-Reversion, bei der Händler verschiedene Szenarien und Historien für die Drawdown-Planung überdenken und erkunden. Vor Beginn der Handelsalgorithmen werden Backtest-Phasen durchgeführt, um Risikofaktoren zu steuern.

  • 00:15:00 In diesem Abschnitt diskutieren der Interviewer und der Quant-Trader die Bedeutung des Herausfilterns von Handelsstrategien und wie man Backtesting als Mittel zum Herausfiltern von Strategien und nicht als Mittel zu deren Umsetzung nutzen kann. Sie betonen, wie wichtig es ist, beim Vorwärtsgehen mit schlimmeren Drawdowns zu rechnen und mithilfe eines Filtermechanismus festzustellen, ob eine Strategie für die Umsetzung geeignet ist oder nicht. Das Gespräch dreht sich dann um Talebs Glauben an Fat Tails und darum, wie man in Zukunft Range-Trading- und Trend-Trading-Strategien anwenden kann, indem man maschinelle Lerntechnologie nutzt, um Veränderungen im Marktregime zu bestimmen.

  • 00:20:00 In diesem Abschnitt betont der Redner die Bedeutung einer effektiven Marktregimeerkennung in der Quant Finance. Das Problem ist, dass es schwierig ist, dies im Auge zu behalten, da es auf rein zufälligen Ereignissen wie Zinssenkungen und Markttrends beruht. Während es schwierig ist, Marktregime zu erkennen, werden anspruchsvollere Unternehmen grundlegende Daten verfolgen und diese in ihre Modelle integrieren. Je nachdem, was man handelt, stehen beim Handel unterschiedlich viele Aktien oder ETFs zur Auswahl, und die Auswahl der richtigen Aktie kann schwierig sein. Darüber hinaus ist der Redner davon überzeugt, dass die Black Swan-Verteidigung von der Mischung aus mathematischen Modellen und Marktfundamentaldaten abhängt, da eine vorherige schreckliche Volatilität es einem ermöglichen kann, zukünftige Volatilität und Marktveränderungen vorherzusagen.

  • 00:25:00 In diesem Abschnitt erklärt das Video die Renditen, die Quant-Trader erwarten können, und die damit verbundenen Risiken. Mithilfe eines Doktortitels und eines effizienten Managementprozesses kann ein Quant-Trader eine jährliche Gebührenrendite von 35 % erzielen. Hochfrequenzquants können jedoch aufgrund von Änderungen in der zugrunde liegenden Hardware oder Börse leiden und zum Absturz ihres Systems führen. Trotz dieser Risiken ist eine Rendite von 15 bis 20 % bei langfristig möglicher Nutzung eine gute Rendite. Quantenhändler verfügen weder über einen einzigen magischen Algorithmus noch geraten sie in Panik, wenn sie auf Probleme stoßen. Von ihnen wird erwartet, dass sie einige statistische Eigenschaften durchlaufen, deren Analyse und Vorbereitung im Voraus schwierig ist.

  • 00:30:00 In diesem Abschnitt erörtert der Redner, dass es im quantitativen Handel nicht ratsam ist, sich zu sehr auf ein einzelnes Modell zu verlassen, da ein Modell nicht alle zukünftigen Ereignisse genau vorhersagen kann. Er nennt Beispiele für klassische Wall-Street-Crashs und Investitionsausfälle, die vor allem auf Modellmängel zurückzuführen sind. Der Redner betont, wie wichtig es ist, kontinuierlich nach neuen Modellen zu forschen und deren Leistung zu überprüfen; Es wird jedoch immer zu Drawdown-Perioden kommen. Zusammenfassend lässt sich sagen, dass einige Händler möglicherweise den Punkt erreichen, ihre Modelle bis ins kleinste Detail zu verwalten. Es ist jedoch wichtig zu verstehen, ob das Modell die gesamte Marktdynamik oder die unbekannten Unbekannten berücksichtigt.
What is a quant trader?
What is a quant trader?
  • 2013.12.02
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton interviews Michael Halls-Moore, a quantitative developer. Mike jumped from postgraduate school straight into alg...
 

PyCon Canada 2015 – Karen Rubin: Aufbau einer quantitativen Handelsstrategie (Keynote)



PyCon Canada 2015 – Karen Rubin: Aufbau einer quantitativen Handelsstrategie (Keynote)

Karen Rubin setzt die Diskussion fort und geht auf die Ergebnisse und Erkenntnisse ihrer Studie über weibliche CEOs in den Fortune-1000-Unternehmen ein. Die Analyse zeigt, dass weibliche CEOs eine Rendite von 68 % erzielen, während männliche CEOs eine Rendite von 47 % erwirtschaften. Karen betont jedoch, dass ihre Daten noch nicht belegen, dass weibliche CEOs ihre männlichen Kollegen übertreffen. Sie hält diese Studie für ein interessantes Konzept für Unternehmen mit hohem Umsatz und hoher Marktkapitalisierung.

Motiviert durch ihre Erkenntnisse betont Karen die Bedeutung von Vielfalt in der Finanz- und Technologiebranche. Sie ermutigt mehr Frauen, sich diesem Bereich anzuschließen und sich an der Gestaltung von Anlagestrategien zu beteiligen. Sie glaubt, dass die Einbeziehung von Ideen wie der Investition in weibliche CEOs zur Schaffung eines vielfältigen und integrativen Fonds beitragen kann.

Karen erweitert die Diskussion und geht auf andere Faktoren ein, die den Erfolg von CEOs beeinflussen können, darunter ihr Geschlecht, die Einstellungsmethode (intern oder extern) und sogar ihren Geburtsmonat. Sie erkennt die Theorie an, dass Unternehmen weibliche CEOs ernennen, wenn die Organisation schlecht abschneidet, und sie anschließend durch männliche CEOs ersetzen, um von den Vorteilen der Umstrukturierung zu profitieren. Allerdings ist es Karen bisher nicht gelungen, diese Theorie zu argumentieren. Darüber hinaus stellt sie fest, dass die Aktienkurse nach einer CEO-Ankündigung häufig sinken, obwohl sie sich nicht sicher ist, ob dieser Trend bei weiblichen und männlichen CEOs unterschiedlich ist.

Abschließend betont Karen, dass der Aufbau einer quantitativen Handelsstrategie für CEOs die Berücksichtigung verschiedener Faktoren und die Durchführung einer gründlichen Analyse erfordert. Während ihre Studie wertvolle Einblicke in die Leistung weiblicher CEOs liefert, betont sie die Notwendigkeit weiterer Forschung und Erkundung, um ein umfassenderes Verständnis der Geschlechterdynamik in der Führungsebene und ihrer Auswirkungen auf die Anlageergebnisse zu gewinnen.

  • 00:00:00 In diesem Abschnitt stellt die Rednerin sich selbst und ihre Erfahrungen beim Schreiben eines Algorithmus zum Investieren in den Markt vor. Als VP of Product bei Quantiacs, einem Crowdsourcing-Hedgefonds, musste sie einen Algorithmus schreiben, um zu verstehen, was ihre Benutzer taten, damit sie effektive Software für sie entwickeln konnte. Sie interessierte sich für Investitionen in weibliche CEOs, nachdem sie den Gender-Bericht der Credit Suisse gelesen hatte, und fragte sich, ob sie eine Strategie entwickeln könnte, die weibliche CEOs in der Vergangenheit betrachtete und verkaufte, als sie nicht mehr CEO waren.

  • 00:05:00 In diesem Abschnitt spricht Karen Rubin über die ersten Schritte, die sie beim Aufbau einer quantitativen Handelsstrategie unternommen hat. Sie benötigte eine historische Liste aller weiblichen CEOs innerhalb eines bestimmten Zeitraums, um eine Simulation dessen zu erstellen, was im Laufe der Zeit passierte. Karen erklärt, dass das Abrufen und Bereinigen der Daten in den frühen Phasen des Projekts einen erheblichen Teil ihrer Zeit in Anspruch nahm, da sie manuell nach den Start- und Enddaten jedes CEOs und den entsprechenden Tickersymbolen suchen und diese analysieren musste. Sie spricht auch über die Herausforderungen, sicherzustellen, dass die Preisdaten korrekt und bereinigt sind, bevor sie analysiert werden. Trotz der geringen Stichprobengröße trieb Karen ihre Studie weiter voran.

  • 00:10:00 In diesem Abschnitt erklärt Karen Rubin den Prozess ihres Backtests im algorithmischen Handel und wie Simulation in ihrer Strategie funktioniert. Sie simuliert ihre Strategie so, als würde sie auf dem tatsächlichen Markt handeln, indem sie historische Daten durchgeht und auf der Grundlage ihrer Liste weiblicher CEOs Kauf- und Verkaufsentscheidungen für sie trifft. Sie vergleicht ihre erste Version des Algorithmus mit einer Benchmark, dem S&P 500. Später schreibt sie ihre Strategie jedoch mit Hilfe ihres ansässigen Quant um, da sie in ihrer vorherigen Strategie die Hebelwirkung nicht berücksichtigt hat.

  • 00:15:00 In diesem Abschnitt des Videos erläutert Karen Rubin, wie sie ihre Handelsstrategie neu ausbalanciert hat, um ein gleichgewichtetes Portfolio über alle Unternehmen hinweg sicherzustellen. Ihr Algorithmus kauft und verkauft Unternehmen und berechnet den Wert ihres Portfolios, um sicherzustellen, dass sie in Zukunft kein Geld verliert oder sich Geld leihen muss, um Käufe zu tätigen. Sie bespricht auch das Feedback, das sie von der Reddit- und Hacker-News-Community erhalten hat, die fragte, ob ihre Strategie von den Aktienkursen von Yahoo und Alibaba abhängig sei. Sie entfernte Yahoo aus ihrer Strategie, diese Theorie zu testen, und stellte fest, dass sie sich zwar auf die Gesamtrenditen auswirkte, jedoch nicht die alleinige Ursache für diese Renditen war.

  • 00:20:00 In diesem Abschnitt erörtert der Redner, wie man eine Sektorverzerrung durch die Erstellung eines sektorneutralen Portfolios vermeiden kann. Durch Division des Portfoliobetrags durch die Anzahl der Sektoren erhält jedes Unternehmen innerhalb dieses Sektors den gleichen Investitionsbetrag. Wenn das Gesundheitswesen beispielsweise über drei Unternehmen verfügt, wird deren Zuteilung in Drittel aufgeteilt, wohingegen Consumer Cyclical, das etwa 20 Unternehmen umfasst, jeweils ein Zwanzigstel des Gesamtbetrags erhält, der dem Sektor zugewiesen wird. Die daraus resultierenden Renditen der Strategie des Sprechers betragen 275 Prozent, während die gleichgewichtete Benchmark 251 Prozent und der S&P 500 122 Prozent rentiert. Während einige argumentieren, dass Benchmarks wie der S&P 500 philosophisch nicht korrekt sind, da die Unternehmen nicht gleich gewichtet sind, bietet der RSP Guggenheim Equal Weight S&P 500 Index einen besseren Benchmark für Vergleichszwecke.

  • 00:25:00 In diesem Abschnitt erörtert Karen Rubin die Herausforderungen, den richtigen Maßstab für Investitionen in weibliche CEOs zu finden. Sie betont, dass die Fortune-1000-Benchmark zwar die richtige Wahl zu sein scheint, der Kauf der Liste ihrer historischen Bestandteile jedoch kostspielig ist. Stattdessen erstellt sie den Quanto 1000, einen neuen Benchmark, indem sie alle Unternehmen nach Umsatz bewertet und die Top 1000 auswählt. Beim Vergleich der Renditen ihres Algorithmus mit dem Quanto 1000 und dem S&P 500 stellt sie fest, dass der Algorithmus die beiden anderen Benchmarks mit 43 % übertraf. Unterschied. Sie untersucht außerdem einen neuen Datensatz von Event Fessor zu CEO-Wechseln, der es ihr ermöglicht, Vergleichsstrategien zwischen männlichen und weiblichen CEOs zu entwickeln. Die Ergebnisse zeigen, dass eine Strategie, die darin besteht, in weibliche CEOs zu investieren, wenn sie ihre Position antreten, und mit dem Ende, wenn sie ihre Position verlassen, über einen Zeitraum von sieben Jahren eine Rendite von 28 % erzielt, im Vergleich zu männlichen CEOs, die eine Rendite von 44 % erzielten.

  • 00:30:00 In diesem Abschnitt beschreibt Karen die Ergebnisse ihrer Studie über weibliche CEOs in den Fortune-1000-Unternehmen. Die Analyse ergab, dass weibliche CEOs eine Rendite von 68 % erzielen, während männliche CEOs eine Rendite von 47 % erzielen. Karen glaubt jedoch, dass ihre Daten noch nicht zeigen, dass weibliche CEOs ihre männlichen Kollegen übertreffen. Sie ist der Meinung, dass diese Studie eine interessante Vorstellung von weiblichen CEOs in Unternehmen mit hohem Umsatz und hoher Marktkapitalisierung liefert. Karen möchte die Vielfalt in der Finanz- und Technologiebranche fördern und lädt mehr Frauen ein, sich diesem Bereich anzuschließen. Sie ist davon überzeugt, dass es wichtig ist, Ideen wie die Investition in weibliche CEOs einzubringen, um einen vielfältigen Fonds zu schaffen.

  • 00:35:00 In diesem Abschnitt erörtert der Redner verschiedene Faktoren, die den Erfolg von CEOs beeinflussen können, darunter ihr Geschlecht, interne oder externe Einstellungen und ihr Geburtsmonat. Sie befasst sich auch mit der Theorie, dass Unternehmen weibliche CEOs einstellen, wenn diese schlecht abschneiden, und sie dann durch männliche CEOs ersetzen, um von den Vorteilen der Umstrukturierung zu profitieren. Es gelang ihr jedoch nicht, diese Theorie zu widerlegen. Darüber hinaus weist sie darauf hin, dass die Aktienkurse nach einer CEO-Ankündigung oft sinken, sie ist sich jedoch nicht sicher, ob dieser Trend bei weiblichen CEOs anders ist als bei männlichen CEOs. Insgesamt müssen bei der Entwicklung einer quantitativen Handelsstrategie für CEOs viele Faktoren berücksichtigt werden.
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
  • 2015.11.24
  • www.youtube.com
PyCon Canada 2015: https://2015.pycon.ca/en/schedule/67/Talk Description:Upon joining Quantopian, in order to understand her users better, Karen Rubin embark...
 

Webinar „Maschinelles Lernen für quantitativen Handel“ mit Dr. Ernie Chan



Webinar „Maschinelles Lernen für quantitativen Handel“ mit Dr. Ernie Chan

Dr. Ernie Chan, eine prominente Persönlichkeit der Finanzbranche, teilt seine Erkenntnisse und Erfahrungen mit maschinellem Lernen im Handel. Er beginnt damit, über seine frühen Versuche nachzudenken, maschinelles Lernen auf den Handel anzuwenden, und räumt ein, dass dies zunächst keine erfolgreichen Ergebnisse erbrachte. Dr. Chan betont, wie wichtig es ist, die Grenzen des maschinellen Lernens im Handel zu verstehen, insbesondere im Futures- und Indexhandel, wo die Daten möglicherweise nicht ausreichen.

Er betont jedoch das Potenzial des maschinellen Lernens bei der Generierung profitabler Handelsstrategien, wenn es auf einzelne Technologieaktien, Orderbuchdaten, Fundamentaldaten oder nicht-traditionelle Datenquellen wie Nachrichten angewendet wird. Um die Einschränkungen der Datenverfügbarkeit und des Datenschnüffelns anzugehen, schlägt Dr. Chan den Einsatz von Resampling-Techniken wie Oversampling oder Bagging vor. Diese Techniken können zur Erweiterung des Datensatzes beitragen, es ist jedoch von entscheidender Bedeutung, die serielle Autokorrelation in Zeitreihendaten beizubehalten, wenn diese für Handelsstrategien verwendet werden.

Die Funktionsauswahl spielt eine entscheidende Rolle für erfolgreiche Anwendungen des maschinellen Lernens im Handel. Dr. Chan betont, wie wichtig es ist, die Verzerrung der Datenstichprobe durch die Auswahl relevanter Merkmale oder Prädiktoren zu reduzieren. Er erklärt, dass viele Leute zwar glauben, dass mehr Funktionen besser seien, ein funktionsreicher Datensatz im Handel jedoch zu falscher Autokorrelation und schlechten Ergebnissen führen kann. Er diskutiert drei Algorithmen zur Merkmalsauswahl: Vorwärts-Feature-Auswahl, Klassifizierungs- und Regressionsbäume (CART) und Random Forest, die dabei helfen, die prädiktivsten Variablen zu identifizieren.

Dr. Chan befasst sich mit dem Klassifizierungsalgorithmus der Support Vector Machines (SVM), der darauf abzielt, zukünftige Tagesrenditen und deren positive oder negative Natur vorherzusagen. SVM findet eine Hyperebene zum Trennen von Datenpunkten und erfordert möglicherweise nichtlineare Transformationen für eine effektive Trennung. Er geht auch auf andere Ansätze des maschinellen Lernens wie neuronale Netze ein, hebt jedoch deren Einschränkungen bei der Erfassung relevanter Merkmale und ihre Ungeeignetheit für den Handel aufgrund der instationären Natur der Finanzmärkte hervor.

Das Webinar betont auch die Bedeutung einer maßgeschneiderten Zielfunktion in einer Handelsstrategie. Dr. Chan empfiehlt Techniken wie schrittweise Regression, Entscheidungsbäume und satzweise Regression, um Vorhersagemodelle zu entwickeln. Er unterstreicht, wie wichtig es ist, die Quadratwurzel der Anzahl der Trades zu reduzieren, um eine hohe Genauigkeit beim Schutz der Renditen zu erreichen. Die Sharpe-Ratio wird als effektiver Maßstab für die Bewertung der Wirksamkeit einer Strategie dargestellt, wobei ein Verhältnis von zwei oder mehr als günstig gilt.

Dr. Chan liefert wertvolle Einblicke in die Anwendung des maschinellen Lernens in der Finanzbranche, hebt dessen Potenzial in bestimmten Bereichen hervor und warnt gleichzeitig vor seinen Grenzen. Er betont die Bedeutung der Merkmalsauswahl, des Daten-Resamplings und der Auswahl einer geeigneten Zielfunktion für erfolgreiche maschinelle Lernanwendungen im quantitativen Handel.

  • 00:00:00 In diesem Abschnitt teilt Dr. Ernie Chan seinen Hintergrund und seine Erfahrungen mit maschinellem Lernen in der Finanzbranche. Er erläutert, dass es ihm trotz seiner Fachkenntnisse auf diesem Gebiet und seiner Arbeit für namhafte Unternehmen nicht gelang, maschinelles Lernen auf den Handel anzuwenden. Dr. Chan teilt mit, dass das Ziel des Vortrags darin besteht, die Fallstricke des maschinellen Lernens zu erklären und zu erklären, warum es im Handel nicht funktioniert und wie es im Handel funktionieren kann. Er weist darauf hin, dass er, als er anfing, maschinelles Lernen im Handel einzusetzen, den Fehler gemacht hat, zu glauben, dass es auf täglichen Balken funktionieren würde, und technische Indikatoren als Eingaben zu verwenden, was letztendlich zu keinen erfolgreichen Ergebnissen geführt hat.

  • 00:05:00 In diesem Abschnitt erörtert Dr. Ernie Chan die Einschränkungen des Einsatzes von Algorithmen für maschinelles Lernen beim Futures- und Indexhandel aufgrund unzureichender Daten und des Risikos einer Datenschnüffelei. Er glaubt, dass maschinelles Lernen ein größeres Potenzial für die Generierung profitabler Handelsstrategien hat, wenn es auf einzelne Technologieaktien, Orderbuchdaten, Fundamentaldaten oder nicht-traditionelle Daten wie Nachrichten angewendet wird. Um die Einschränkungen unzureichender Daten und Datenschnüffelei zu überwinden, schlägt Dr. Chan die Verwendung von Resampling-Techniken wie Oversampling oder Bagging vor. Während Resampling den Datensatz erweitern kann, muss sorgfältig darauf geachtet werden, die serielle Autokorrelation in Zeitreihendaten beizubehalten, wenn diese Techniken für Handelsstrategien verwendet werden.

  • 00:10:00 In diesem Abschnitt diskutiert Dr. Chan die Verwendung von Trigrammen beim maschinellen Lernen, was die Verwendung mehrerer Tage als Eingabe anstelle nur eines einzelnen Tages ermöglicht, um die Autokorrelation aufrechtzuerhalten. Er betont auch, wie wichtig es ist, die Verzerrung bei der Datenstichprobe zu reduzieren, was durch die Reduzierung der Anzahl von Merkmalen oder Prädiktoren erreicht werden kann. Während viele Leute denken, dass es besser sei, mehr Funktionen zu haben, ist dies beim Handel nicht der Fall, da ein Datensatz mit vielen Funktionen aufgrund der falschen Autokorrelation zwischen Funktionen und dem Ziel ein Fluch ist. Daher ist die Auswahl der Merkmale von entscheidender Bedeutung, und Algorithmen für maschinelles Lernen, die die Auswahl der Merkmale unterstützen, sind ideal für den Handel. Dr. Chan hebt drei solcher Algorithmen hervor, darunter die schrittweise Regression, Random Forests und die LASSO-Regression. Er warnt davor, dass neuronale Netze und Deep-Learning-Algorithmen, die keine Funktionen auswählen, sondern alles zusammenmischen, nicht ideal für den Handel sind.

  • 00:15:00 In diesem Abschnitt bespricht Dr. Ernie Chan drei verschiedene Algorithmen zur Merkmalsauswahl: Vorwärts-Feature-Auswahl, Klassifizierungs- und Regressionsbäume (CART) und Random Forest. Bei der Vorwärts-Feature-Auswahl werden Features nacheinander zu linearen Regressionsmodellen hinzugefügt, bis der Algorithmus identifiziert, welche Features die Vorhersagbarkeit verbessern. Andererseits ähnelt CART einem Entscheidungsbaum und arbeitet hierarchisch mit Bedingungen, die bei jeder Iteration zu Klassifizierungszwecken auferlegt werden. Random Forest ist eine Technik, die auf verschiedene Klassifizierungsalgorithmen angewendet werden kann, indem Bagging mit Random Subspace kombiniert wird, was eine Überabtastung von Daten und eine Unterabtastung von Prädiktoren beinhaltet, um ein Gleichgewicht zwischen Daten und Merkmalen zu erreichen. Um das Konzept besser zu erklären, stellt Dr. Chan eine Beispieltabelle mit hypothetischen Merkmalen zur Vorhersage der morgigen Rendite zur Verfügung.

  • 00:20:00 In diesem Abschnitt erläutert Dr. Ernie Chan den Prozess der Reduzierung des Funktionsumfangs mithilfe von Klassifizierungsalgorithmen wie Klassifizierungsregressionsbäumen. Er erklärt, dass es dafür viele Techniken gibt, wie zum Beispiel die Unterabtastung oder die Nutzung gegenseitiger Informationen. Er gibt jedoch an, dass diese Techniken die einfachsten und bekanntesten seien. Anhand einer repräsentativen Stichprobe aus den Daten demonstriert er, wie der Algorithmus funktioniert, indem er ermittelt, welche technischen Indikatoren für die Vorhersage zukünftiger Renditen nützlich sind und welche Werte dieser Indikatoren positive oder negative Renditen generieren. Sobald eine Teilmenge der Daten klassifiziert ist, wird der Prozess wiederholt, um andere Variablen für eine bessere Klassifizierung zu identifizieren.

  • 00:25:00 In diesem Abschnitt erklärt Dr. Ernie Chan, dass Algorithmen für maschinelles Lernen funktionieren, indem sie prädiktive Variablen und Parameter finden, die für den Klassifikator nützlich sind, und iterieren, bis keine statistische Signifikanz mehr gefunden wird. Algorithmen für maschinelles Lernen sind oft statistische Regressionssysteme mit mehr Details und Bedingungen für die Daten. Anschließend erörtert er den Klassifizierungsalgorithmus der Support-Vektor-Maschinen, der darauf abzielt, zukünftige Tagesrenditen vorherzusagen und festzustellen, ob diese positiv oder negativ sein werden. Der Algorithmus versucht, eine Hyperebene zum Durchschneiden der Daten zu finden, oft ist jedoch eine nichtlineare Transformation erforderlich, um eine Trennung zu finden. Diese Transformation ist entscheidend für den effektiven Betrieb der Support-Vektor-Maschine.

  • 00:30:00 In diesem Abschnitt erörtert Dr. Chan die Notwendigkeit, Daten erneut abzutasten, wenn nicht genügend Daten vorhanden sind, damit der Algorithmus für maschinelles Lernen lernen kann, obwohl die erforderliche Menge davon abhängt, wie viele Prädiktoren vorhanden sind. Er erläutert, wie Support-Vektor-Maschinen eine Möglichkeit zur Datenklassifizierung darstellen, und obwohl die SVM weniger ein Merkmalsauswahlalgorithmus als die schrittweise Regression oder der Klassifizierungsbaum ist, findet sie eine Hyperebene, die jede Dimension durchschneiden kann. Er stellt fest, dass neuronale Netze eine nichtlineare Gleichung sind und die Daten mit einer riesigen linearen Funktion anpassen, anstatt wie bei der Regression eine lineare Funktion zu verwenden, und dass Deep Learning einfach ein neuronales Netz mit vielen Schichten, aber sehr wenigen Knoten pro Schicht ist Es ist einfacher, Features schrittweise zu erfassen.

  • 00:35:00 In diesem Abschnitt diskutiert Dr. Ernie Chan das Konzept der Verwendung eines neuronalen Netzwerks für den quantitativen Handel. Er erklärt, dass ein neuronales Netzwerk ein leistungsstarkes Werkzeug ist, da es jede nichtlineare Funktion annähern kann und in der Lage ist, die Rendite von morgen anhand der Variablen von heute vorherzusagen. Allerdings weist er auch darauf hin, dass das neuronale Netzwerk im Handel nicht gut funktioniert, da die Finanzmärkte nicht stationär sind und es mit diesem Ansatz schwierig ist, relevante Merkmale zu erfassen. Er betont, dass das neuronale Netzwerk alle Eingaben nutzt und keine Merkmale auswählt, was es schwierig macht, Variablen zu finden, die einen kausalen Effekt auf den Markt haben.

  • 00:40:00 In diesem Abschnitt erklärt Dr. Ernie Chan, wann maschinelles Lernen für Händler nützlich ist. Maschinelles Lernen ist hilfreich, wenn Händler kein Gespür für ihre Daten oder den Markt haben oder wenn sie kein mathematisches Modell ihrer Daten haben. Darüber hinaus kann maschinelles Lernen Händlern helfen, eine Intuition zu entwickeln, wenn es zu viele Funktionen gibt oder sie nicht wissen, welche Funktionen wichtig sind. Wenn Händler jedoch über eine gute Intuition und ein einfaches mathematisches Modell verfügen, ist es besser, einfache Modelle zu erstellen, als maschinelles Lernen zu verwenden. Händler sollten beim Einsatz von maschinellem Lernen auch vorsichtig sein, wenn sie über zu wenige Daten verfügen oder wenn es zu Regimewechseln in ihrem Markt gekommen ist, denn ein schlechtes Marktmodell kann dazu führen, dass Algorithmen bei einem Regimewechsel auseinanderfallen.

  • 00:45:00 In diesem Abschnitt des Webinars erklärt Dr. Ernie Chan die Bedeutung der Verwendung stationärer Daten bei der Anwendung maschineller Lerntechniken im quantitativen Handel. Er weist darauf hin, dass viele statistische und technische Tests verwendet werden können, um die Stationarität eines Datensatzes zu bestimmen, die Ergebnisse jedoch oft mehrdeutig sein können. Dr. Chan erörtert auch seine Skepsis gegenüber der Wirksamkeit von Reinforcement Learning und Deep Learning im Handel aufgrund des Mangels an erfolgreicher Out-of-Sample-Replikation. Darüber hinaus betont er die Notwendigkeit einer maßgeschneiderten Zielfunktion in einer Handelsstrategie und schlägt den Einsatz von Techniken wie satzweiser Regression oder Entscheidungsbäumen für die prädiktive Modellierung vor.

  • 00:50:00 In diesem Abschnitt diskutiert Dr. Ernie Chan die Zielfunktionsauswahl beim maschinellen Lernen für den quantitativen Handel und erklärt, dass die Verfügbarkeit von Daten die Auswahl der Zielfunktion bestimmt. Wenn es sich bei der Zielfunktion um eine einmonatige Rendite handelt, werden tägliche Renditen zur Eingabe, und die Auswahl der Zielvariablen muss mit der Zeitskala der Prädiktorvariablen übereinstimmen. Dr. Chan erklärt auch den Unterschied zwischen Adam- und Deep-Learning-Methoden und stellt fest, dass Deep Learning bei der Auswahl von Merkmalen weniger Vorteile bringt. Darüber hinaus befasst sich der Abschnitt mit der Definition verschiedener Regime und wie man sie anhand ihrer bevorzugten Kriterien definieren kann. Abschließend betont Dr. Chan, dass die Anzahl der Trades im quantitativen Handel nicht der entscheidende Faktor für den Erfolg ist.

  • 00:55:00 In diesem Abschnitt erläutert Dr. Ernie Chan, wie wichtig es ist, die Quadratwurzel von n auf eine überschaubare Zahl zu reduzieren, um eine hohe Genauigkeit beim Schutz der Rendite zu erreichen. Er erklärt, dass der Fehler proportional zur Quadratwurzel der Anzahl der Trades ist und dass die Sharpe-Ratio ein hervorragendes Maß für die statistische Signifikanz ist, da sie dieses Konzept in ihre Konstruktion einbezieht. Eine Strategie mit einer Sharpe-Ratio von zwei oder mehr gilt als effektiv. Obwohl die letzte von Christophe gestellte Frage möglicherweise zu technisch ist, glaubt Dr. Chan, dass die Sharpe Ratio ein guter Maßstab für die Wirksamkeit der Strategie ist.
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
  • 2017.03.28
  • www.youtube.com
Quantitative trading and algorithmic trading expert Dr. Ernie Chan teaches you machine learning in quantitative finance. You will learn:1) The pros and cons ...