Quantitativer Handel - Seite 37

 

Regressionsdiagnostik (FRM Teil 1 2023 – Buch 2 – Kapitel 9)


Regressionsdiagnostik (FRM Teil 1 2023 – Buch 2 – Kapitel 9)

In diesem Kapitel besprechen wir die Regressionsdiagnostik und ihre Bedeutung bei der Analyse von Regressionsmodellen. Um den Kontext zu verdeutlichen, betrachten wir ein hypothetisches Szenario, in dem wir die Bonitätsänderungen von Anleiheemissionen untersuchen. Wir haben umfangreiche Daten zu verschiedenen Anleiheemissionen gesammelt, darunter Variablen wie Cashflows, Verschuldungsquoten, Führungsfaktoren, Zinssätze und mehr. Unser Ziel ist es festzustellen, ob Moody's, Standard & Poor's oder Fitch die Bonitätsbewertung einer bestimmten Anleiheemission ändern werden. Um dies zu analysieren, verwenden wir ein multiples Regressionsmodell mit der Änderung des Ausfallrisikos als abhängiger Variable und den zuvor erwähnten unabhängigen Variablen.

Zunächst untersuchen wir die von Software wie Excel erzeugten Regressionsergebnisse, um die Gesamtanpassung des Modells mithilfe von Metriken wie dem R-Quadrat und der F-Statistik zu bewerten. Wir bewerten auch die Bedeutung einzelner Steigungskoeffizienten. Es ist jedoch wichtig zu erkennen, dass diese Schlussfolgerungen stark auf den Annahmen des OLS-Modells (Ordinary Least Squares) beruhen. Wenn diese Annahmen verletzt werden, sind die aus der Regressionsausgabe gezogenen Schlussfolgerungen möglicherweise nicht gültig.

Dieses Kapitel kann als Leitfaden zum Verständnis und zur Bewältigung potenzieller Probleme angesehen werden, die in Regressionsmodellen auftreten können. Der Titel könnte treffend sein: „Was könnte möglicherweise schief gehen?“ Wir untersuchen verschiedene Probleme, die sich auf die Gültigkeit von Regressionsergebnissen auswirken können, darunter Heteroskedastizität, Multikollinearität, zu wenige oder zu viele unabhängige Variablen, Ausreißer und der beste lineare erwartungstreue Schätzer (BLAU). Lassen Sie uns näher auf jedes dieser Themen eingehen.

Heteroskedastizität, unser erstes Anliegen, bezieht sich auf die Verletzung der Annahme, dass Fehlerterme im Regressionsmodell eine konstante Varianz aufweisen (Homoskedastizität). Wenn Heteroskedastizität vorliegt, ist die Varianz der Fehlerterme nicht konstant, sondern variiert über verschiedene Beobachtungen hinweg. Wir können uns dies als Kegelform vorstellen, wenn wir die Beziehung zwischen der unabhängigen Variablen und der abhängigen Variablen darstellen. Dies impliziert, dass mit zunehmender unabhängiger Variable auch die Variabilität der abhängigen Variablen zunimmt. Heteroskedastizität kann auftreten, wenn das Modell unvollständig ist oder wenn der Datensatz klein ist und Ausreißer enthält.

Die Folgen der Heteroskedastizität sind erheblich. OLS-Schätzer verlieren ihre Effizienz, was bedeutet, dass andere Schätzer mit geringeren Varianzen existieren. Diese Ineffizienz führt zu falschen Standardfehlern, die sich wiederum auf Konfidenzintervalle und Hypothesentests auswirken. Folglich können die aus diesen Tests gezogenen Schlussfolgerungen irreführend oder sogar völlig nutzlos sein. Um Heteroskedastizität zu erkennen, können Forscher zunächst Streudiagramme verwenden, um die Beziehung zwischen den Variablen visuell zu beurteilen. Statistische Tests wie der White-Test, der die Nichtlinearität von Fehlertermen berücksichtigt, ermöglichen jedoch eine genauere Bewertung der Heteroskedastizität. Der Umgang mit Heteroskedastizität kann durch gewichtete kleinste Quadrate, Datentransformation (z. B. logarithmisch), Verwendung von Gewichten bei der Schätzung oder andere geeignete Methoden erreicht werden.

Wenn wir zur Multikollinearität übergehen, stoßen wir auf eine Situation, in der zwei oder mehr unabhängige Variablen stark korrelieren. Im Idealfall sollten unabhängige Variablen unabhängig voneinander sein, in der Realität besteht jedoch häufig ein gewisser Grad an Korrelation. Allerdings kann die perfekte Multikollinearität, bei der Variablen perfekt linear korreliert sind, ein ernstes Problem darstellen. In solchen Fällen sollte eine der kollinearen Variablen weggelassen werden, da sie im Wesentlichen identisch sind. Unvollkommene Multikollinearität tritt auf, wenn unabhängige Variablen mäßig oder stark, aber nicht perfekt korrelieren. Hohe Korrelationen zwischen unabhängigen Variablen deuten auf das Vorhandensein von Multikollinearität hin. Das Fehlen einer hohen Korrelation garantiert jedoch nicht deren Abwesenheit, da Variablen bis zu einem gewissen Grad zufällig korreliert sein können.

Die Folgen der Multikollinearität sind zweifach. Erstens bleiben die Schätzungen zwar unvoreingenommen, die Varianz und die Standardfehler nehmen jedoch zu.

Die Einbeziehung irrelevanter Variablen in ein Regressionsmodell wird als Problem der Überspezifikation bezeichnet. Dies geschieht, wenn wir unabhängige Variablen hinzufügen, die keine echte Beziehung zur abhängigen Variablen haben. Die Einbeziehung solcher Variablen kann zu verzerrten Schätzungen und einer ineffizienten Ressourcennutzung führen.

Andererseits müssen wir auch das Problem der Unterspezifikation berücksichtigen. Dies geschieht, wenn wichtige unabhängige Variablen im Modell weggelassen werden. Wie bereits erwähnt, kann das Weglassen einer relevanten Variablen zu verzerrten und inkonsistenten Schätzungen führen.

Um die Probleme der Über- und Unterspezifikation anzugehen, müssen wir die Variablen sorgfältig auswählen, die in unser Regressionsmodell einbezogen werden sollen. Dieser Auswahlprozess sollte auf Theorie, Vorwissen und empirischen Erkenntnissen basieren. Es ist wichtig, die zugrunde liegenden wirtschaftlichen oder theoretischen Beziehungen zwischen den Variablen und der abhängigen Variablen zu berücksichtigen.

Ein weiteres Problem, das bei der Regressionsanalyse auftritt, ist das Vorhandensein von Ausreißern. Ausreißer sind Extremwerte, die deutlich vom allgemeinen Muster der Daten abweichen. Diese Ausreißer können erhebliche Auswirkungen auf die Regressionsergebnisse haben und sich auf die geschätzten Koeffizienten und die Gesamtanpassung des Modells auswirken.

Für den Umgang mit Ausreißern gibt es mehrere Ansätze. Eine gängige Methode besteht darin, die Ausreißer aus dem Datensatz zu identifizieren und zu entfernen. Dies kann durch eine visuelle Untersuchung des Streudiagramms oder durch die Verwendung statistischer Techniken wie der Mahalanobis-Distanz oder studentisierter Residuen erfolgen.

Wenn es sich bei den Ausreißern alternativ um einflussreiche Beobachtungen handelt, die wichtige Informationen enthalten, können wir sie möglicherweise in der Analyse belassen, aber robuste Regressionsmethoden anwenden, die weniger von Extremwerten beeinflusst werden.

Lassen Sie uns abschließend auf das Konzept des besten linearen erwartungstreuen Schätzers (BLAU) eingehen. BLAU ist eine wünschenswerte Eigenschaft des OLS-Schätzers, die sicherstellt, dass er sowohl erwartungstreu ist als auch die geringste Varianz unter allen linearen erwartungstreuen Schätzern aufweist.

Der OLS-Schätzer erreicht die BLUE-Eigenschaft unter den Annahmen des klassischen linearen Regressionsmodells, einschließlich der Annahmen von Linearität, Unabhängigkeit, Homoskedastizität und Abwesenheit von Multikollinearität. Verstöße gegen diese Annahmen können, wie bereits erwähnt, zu verzerrten und ineffizienten Schätzungen führen.

Das Kapitel zur Regressionsdiagnostik konzentriert sich auf die Identifizierung und Behebung potenzieller Probleme, die bei der Regressionsanalyse auftreten können. Zu diesen Problemen gehören Heteroskedastizität, Multikollinearität, ausgelassene Variablenverzerrung, Überspezifikation, Unterspezifikation und Ausreißer. Durch das Verständnis dieser Probleme und den Einsatz geeigneter Techniken können wir die Zuverlässigkeit und Gültigkeit unserer Regressionsergebnisse sicherstellen.

Regression Diagnostics (FRM Part 1 2023 – Book 2 – Chapter 9)
Regression Diagnostics (FRM Part 1 2023 – Book 2 – Chapter 9)
  • 2020.02.05
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Methoden des maschinellen Lernens – Teil A (FRM Teil 1 2023 – Buch 2 – Quantitative Analyse – Kapitel 14)


Methoden des maschinellen Lernens – Teil A (FRM Teil 1 2023 – Buch 2 – Quantitative Analyse – Kapitel 14)

Grüße, ich bin Jim und ich möchte Teil 1 des Buches über quantitative Analyse und Methoden des maschinellen Lernens besprechen. Ziel dieses Abschnitts ist es, die in Teil A behandelten Konzepte zu untersuchen und die Relevanz und Bedeutung des maschinellen Lernens hervorzuheben.

Beginnen wir damit, uns mit der Struktur der Lektüre zu befassen. Es ist in zwei Teile unterteilt, A und B, wobei Teil B in naher Zukunft behandelt wird. Ziel ist es, ein umfassendes Verständnis des maschinellen Lernens zu vermitteln, indem auf den in Teil A erworbenen Kenntnissen aufgebaut wird. Wir hoffen, dass der Abschluss von Teil A Sie dazu inspiriert, weiter zu lernen, indem Sie Teil B erkunden.

Während es verlockend sein mag, diese Lesart als Erweiterung der klassischen ökonometrischen Theorie zu betrachten, geht maschinelles Lernen weit darüber hinaus. Maschinelles Lernen stellt ein eigenständiges Feld mit eigenen einzigartigen Eigenschaften und Anwendungen dar. Erlauben Sie mir, ein einfaches Beispiel zu nennen, um diesen Punkt zu veranschaulichen.

Im Jahr 2023 könnten NBA-Fans bemerken, dass LeBron James wahrscheinlich Kareem Abdul-Jabbar als Rekordtorschütze aller Zeiten überholen wird. Stellen wir uns nun einmal vor, wir wären begeisterte NBA-Fans, die herausfinden möchten, welcher dieser außergewöhnlich talentierten Spieler seinen Torrekord effizienter und effektiver erreicht hat. Dazu sammeln wir riesige Mengen an Daten über ihre Spiele und zeichnen jedes Detail akribisch auf, einschließlich LeBrons Bewegungen und Kareems charakteristischem Skyhook-Schuss. Die Anzahl der von uns erfassten Variablen könnte Billionen erreichen.

Wenn wir diese Daten mithilfe der klassischen ökonometrischen Theorie analysieren würden, könnten wir eine Regressionsanalyse verwenden und Standardabweichungen und Standardfehler berechnen. Wenn es jedoch um eine Billion Datenpunkte geht, werden solche Berechnungen unpraktisch. Die Division durch die Quadratwurzel einer Billion, also etwa 316.000, ergibt eine winzige Zahl, die das Testen von Hypothesen unwirksam macht.

Hier kommt maschinelles Lernen ins Spiel. Maschinelles Lernen ermöglicht es uns, riesige Datenmengen ohne die Einschränkungen der klassischen ökonometrischen Theorie zu verarbeiten. Die Anwendungen des maschinellen Lernens sind vielfältig und reichen von Bilderkennung und medizinischer Forschung bis hin zu Spieltheorie und finanzieller Vermögensallokation.

Maschinelles Lernen kann in drei Typen eingeteilt werden: unbeaufsichtigtes, überwachtes und verstärkendes Lernen. Beim unüberwachten Lernen werden Datenmuster ohne vordefinierte Bezeichnungen untersucht, während beim überwachten Lernen beschriftete Daten zum Trainieren von Modellen verwendet werden. Reinforcement Learning ermöglicht es einem Agenten, aus einer dynamischen Umgebung zu lernen, was es besonders wertvoll für das Risikomanagement macht, wo sich die Bedingungen im Laufe der Zeit ändern.

Obwohl maschinelles Lernen ein enormes Potenzial birgt, birgt es auch einzigartige Herausforderungen. In den ersten vier Lernzielen werden wir die Unterschiede zwischen maschinellen Lerntechniken und klassischer Ökonometrie diskutieren. Wir werden uns mit Konzepten wie Hauptkomponenten, K-Means-Clustering und den Unterscheidungen zwischen unbeaufsichtigten, überwachten und verstärkenden Lernmodellen befassen.

Für die effektive Umsetzung von Modellen ist die Etablierung einer soliden theoretischen Grundlage in der klassischen Ökonometrie von entscheidender Bedeutung. Die klassische Ökonometrie geht von bestimmten Annahmen aus, beispielsweise von linearen Beziehungen zwischen Variablen und dem Vorhandensein von Kausalität. Im Gegensatz dazu bietet maschinelles Lernen einen flexibleren Rahmen, der nichtlineare Beziehungen und größere Datenmengen ermöglicht.

Um Daten für maschinelle Lernalgorithmen geeignet zu machen, müssen wir sie skalieren und vorverarbeiten. Dies beinhaltet eine Standardisierung oder Normalisierung, um sicherzustellen, dass die Daten vergleichbar sind und die zugrunde liegenden Informationen genau wiedergeben. Darüber hinaus ist das Verständnis der Algorithmen des maschinellen Lernens und ihrer Ergebnisse für die Bewertung der Ergebnisse und die Vornahme notwendiger Anpassungen von entscheidender Bedeutung.

Maschinelles Lernen findet in verschiedenen Situationen Anwendung, darunter Bilderkennung, Sicherheitsauswahl, Risikobewertung und Spielen. Durch den Einsatz maschineller Lerntechniken können wir komplexe Probleme angehen und aus großen und vielfältigen Datensätzen aussagekräftige Erkenntnisse gewinnen.

Was meinen E-Mail-Anbieter betrifft, so ist er nicht in der Lage, Spam zu erkennen. Es klassifiziert E-Mails nur dann als Spam, wenn sie extrem spammig sind und von Quellen wie XYZ 627 bei 337-1414 stammen. Verlagern wir unseren Fokus auf die Arten des überwachten Lernens. Der erste Typ ist die Klassifizierung, die ich bereits im Zusammenhang mit LeBron und Kareem erwähnt habe. Dabei werden Daten in verschiedene Klassen kategorisiert, z. B. Standard oder Nicht-Standard. Überwachtes Lernen umfasst auch die Regressionsanalyse. Einige Beispiele für überwachte Lernalgorithmen sind K-Nearest Neighbor, Entscheidungsbäume, neuronale Netze und Support-Vektor-Maschinen. Diese Algorithmen werden in der nächsten Lektüre weiter untersucht.

Lassen Sie uns nun auf die dritte Art des Lernens eingehen: das verstärkende Lernen. Wie ich bereits erwähnt habe, ähnelt Reinforcement Learning einem Versuch und Irrtum, wobei Schach ein klassisches Beispiel ist. Bei dieser Art des Lernens interagiert ein Agent, der das Lernsystem darstellt, mit der Umgebung, trifft Entscheidungen und lernt aus den Ergebnissen. Der Agent erhält Belohnungen für erwünschtes Verhalten und Strafen für unerwünschtes Verhalten. Ziel ist es, Belohnungen zu maximieren und Strafen zu minimieren, indem man kontinuierlich lernt und die Leistung verbessert. Der Agent interpretiert die Umgebung, bildet Wahrnehmungen und ergreift darauf basierende Maßnahmen.

Reinforcement Learning funktioniert zyklisch und iteriert ständig und passt sich an sich ändernde Umgebungen an. Die Belohnungen und Strafen müssen das sich entwickelnde Umfeld widerspiegeln. Wenn beispielsweise ein Agent versucht, ein Gesichtserkennungssystem zu täuschen, indem er eine Verkleidung trägt, aber aufgrund eines schlecht verdeckten Gesichts erwischt wird, sollte ihm eine weitere Chance gegeben werden, anstatt übermäßig bestraft zu werden. Der Agent lernt sowohl aus Fehlern als auch aus Erfolgen, um sein Handeln zu optimieren.

Um diesen Prozess zu veranschaulichen, stellen Sie sich ein blaues Kästchen vor, das die Umgebung darstellt. Der Agent, anthropomorphisiert als eine Person, die im Algorithmus lebt, navigiert durch diese Umgebung und strebt danach, intelligenter zu werden, indem er einem Weg des Versuchs und Irrtums folgt. Die Erfahrungen des Agenten in der sich verändernden Umgebung prägen seinen Lernprozess. Das Ziel besteht darin, die Belohnungen zu maximieren und die Strafen zu minimieren, was eine interessante Prüfungsfrage darstellt.

Lassen Sie uns nun die Hauptkomponentenanalyse (PCA) untersuchen. Diese Technik vereinfacht komplexe Datensätze durch Reduzierung ihrer Dimensionalität. PCA hilft dabei, die wichtigsten Variablen innerhalb eines Datensatzes zu identifizieren, was zu einer verbesserten Interpretierbarkeit von Modellen führt. Der Prozess beinhaltet die Projektion eines Trainingsdatensatzes auf einen niedrigerdimensionalen Raum, der auch als Hyperebene bezeichnet wird. Es beginnt mit der Standardisierung bzw. Normalisierung der Daten und der Berechnung der Kovarianzmatrix. Als nächstes werden die obersten Hauptkomponenten basierend auf der gewünschten Dimensionalität ausgewählt. Die Daten werden dann auf diesen reduzierten Raum projiziert und erfassen dabei die größte Varianz. Diese Analyse ermöglicht es Forschern zu bestimmen, welche Variablen für die Erklärung der Daten am wichtigsten sind.

Ein weiteres faszinierendes Thema ist Clustering, das unter unüberwachtes Lernen fällt. Das Ziel des Clustering besteht darin, Datenpunkte basierend auf ihrer Ähnlichkeit mit einem Schwerpunkt zu gruppieren. Der Algorithmus beginnt mit der zufälligen Zuweisung von K Schwerpunkten und ordnet dann jeden Datenpunkt dem nächstgelegenen Schwerpunkt zu, wodurch K Cluster entstehen. Es werden die Datenpunkte weiterhin iterativ neu zugewiesen und die Schwerpunkte angepasst, um die Summe der quadrierten Abstände zu minimieren. Die Qualität der Clusterbildung kann variieren, wobei einige Cluster klarer definiert sind als andere. Das Finden der optimalen Anzahl von Clustern (K) und die Verbesserung des Clustering-Prozesses sind von entscheidender Bedeutung.

Diese verschiedenen Lerntechniken bieten wertvolle Werkzeuge zur Analyse und Interpretation von Daten und ermöglichen die Mustererkennung, Entscheidungsfindung und Optimierung in verschiedenen Studienbereichen. Während die klassische Ökonometrie eine solide Grundlage bietet, ermöglicht uns der Einsatz von maschinellem Lernen, die Einschränkungen traditioneller Methoden zu überwinden und ein breites Anwendungsspektrum zu erkunden.

Machine-learning Methods – Part A (FRM Part 1 2023 – Book 2 – Quantitative Analysis – Chapter 14)
Machine-learning Methods – Part A (FRM Part 1 2023 – Book 2 – Quantitative Analysis – Chapter 14)
  • 2023.02.03
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Methoden des maschinellen Lernens – Teil B (FRM Teil 1 2023 – Buch 2 – Quantitative Analyse – Kapitel 14)


Methoden des maschinellen Lernens – Teil B (FRM Teil 1 2023 – Buch 2 – Quantitative Analyse – Kapitel 14)

Sie da! Ich bin Jim und ich bin hier, um den Inhalt von Teil eins, Buch zwei mit dem Titel „Quantitative Analyse und Methoden des maschinellen Lernens“ zu besprechen. Konkret konzentrieren wir uns auf Teil B. Im vorherigen Video haben wir die ersten vier Lernziele behandelt, und heute werden wir uns mit den nächsten vier Zielen befassen.

Bevor wir fortfahren, möchte ich noch ein paar Anmerkungen machen. Wenn Sie es bemerkt haben, sind meine Haare in diesem Video kürzer. Meine Frau hat mir gestern Abend einen kostenlosen Haarschnitt geschenkt, also entschuldigen Sie bitte die Veränderung im Aussehen. Lassen Sie uns nun unsere Diskussion über maschinelles Lernen fortsetzen.

Wie wir alle wissen, erfordert maschinelles Lernen die Arbeit mit riesigen Datenmengen. In Teil A haben wir das Konzept des Umgangs mit Billionen von Datenpunkten besprochen, obwohl diese Zahl nur figurativ war. Die Grundidee besteht darin, dass wir Zugriff auf riesige Datenmengen haben, die wir in Algorithmen für maschinelles Lernen nutzen können. In meinem Kurs zu derivativen Wertpapieren heute Morgen haben wir uns beispielsweise mit der Optionspreisgestaltung und den Auswirkungen von Faktoren wie Zinssätzen befasst. Wir haben verschiedene öffentlich verfügbare Datenpunkte analysiert, wie zum Beispiel Realzinsen, risikofreie Zinssätze, Liquiditätsprämien, Ausfallrisikoprämien und Laufzeitrisikoprämien der letzten 50 Jahre. Alle diese Datenpunkte können in maschinelle Lernalgorithmen integriert werden, um wertvolle Erkenntnisse abzuleiten.

In Teil A haben wir Themen wie Clustering, Dimensionsreduktion und Hauptkomponentenanalyse behandelt. Das ultimative Ziel all dieser Techniken ist die Entwicklung von Modellen, die die reale Welt genau abbilden. Es gibt jedoch einige Herausforderungen, denen wir uns stellen müssen.

Im zweiten Teil der Lektüre werden die Konzepte der Überanpassung und Unteranpassung besprochen. Überanpassung tritt auf, wenn wir versuchen, zu viel Komplexität in ein Modell einzubauen. Um dies zu veranschaulichen, möchte ich eine Analogie nennen, die mein Vater verwendet hat, als er mir den Verkehr erklärte. Er würde sagen: „In einen Ein-Pfund-Beutel passen nicht fünf Pfund Steine.“ Ebenso versuchen wir bei einer Überanpassung eines Modells, zu viele Details und Rauschen einzubeziehen, was letztendlich zu einer schlechten Leistung und unzuverlässigen Vorhersagen führt. Obwohl wir bei den Trainingsdaten möglicherweise einen geringen Vorhersagefehler erzielen, wird das Modell wahrscheinlich einen hohen Vorhersagefehler aufweisen, wenn es auf neue Daten angewendet wird. Um einer Überanpassung entgegenzuwirken, können wir das Modell vereinfachen, indem wir seine Komplexität reduzieren, was eine Verringerung der Anzahl von Merkmalen oder Parametern mit sich bringt. Darüber hinaus können wir Regularisierungs- und Frühstopptechniken anwenden, die wir in der nächsten Lektüre untersuchen werden.

Andererseits liegt eine Unteranpassung vor, wenn ein Modell zu einfach ist, um die zugrunde liegenden Muster in den Daten zu erfassen. Dies führt zu einer schlechten Leistung und hohen Vorhersagefehlern sowohl beim Training als auch bei neuen Datensätzen. Um die Unteranpassung zu überwinden, müssen wir die Komplexität des Modells erhöhen, indem wir weitere Merkmale oder Parameter hinzufügen. In der klassischen Ökonometrie könnte das Hinzufügen weiterer unabhängiger Variablen zu Multikollinearitätsproblemen führen. Beim maschinellen Lernen können wir jedoch Interaktionen zwischen unabhängigen Variablen nutzen, um die Komplexität zu erhöhen.

Um ein Gleichgewicht zwischen Bias und Varianz zu finden, müssen wir den Kompromiss zwischen Modelleinfachheit und Vorhersagegenauigkeit berücksichtigen. Bias bezieht sich auf den Fehler, der durch die Approximation eines komplexen Modells durch ein einfacheres Modell entsteht. In der Dartboard-Analogie wäre die Voreingenommenheit hoch, wenn alle Pfeile immer an der gleichen Stelle landen würden. Die Varianz hingegen misst, wie empfindlich das Modell auf kleine Schwankungen reagiert. In der Dartboard-Analogie liegt eine hohe Varianz vor, wenn die Dartpfeile überall verstreut sind. Unser Ziel besteht darin, die Varianz zu minimieren und gleichzeitig die zugrunde liegenden Muster zu erfassen. Dazu gehört die Ermittlung des optimalen Komplexitätsgrads für das Modell.

In dieser Sitzung befassen wir uns mit den wichtigen Aspekten des maschinellen Lernens und der Datenverarbeitung. Im Kontext des maschinellen Lernens ist es entscheidend, die Beziehungen zwischen Eingabedaten und der gewünschten Ausgabe zu verstehen. Um dies zu erreichen, verwenden wir einen Trainingsdatensatz. Darüber hinaus verwenden wir einen Validierungssatz, um die Leistung unseres Modells zu bewerten, und einen Testdatensatz, um seine Wirksamkeit anhand von Daten außerhalb der Stichprobe zu untersuchen.

Eine große Herausforderung beim maschinellen Lernen ist jedoch die Knappheit an Testdaten aufgrund der großen Menge an erforderlichen Trainingsdaten. Daher ist es wichtig, die Daten sinnvoll zuzuordnen. Forscher können bestimmen, wie die Daten in drei Stichproben aufgeteilt werden: Training, Validierung und Tests. Eine gängige Faustregel besteht darin, zwei Drittel der Daten für das Training bereitzustellen und das verbleibende Drittel gleichmäßig auf Validierung und Tests aufzuteilen. Diese Zuordnung gleicht die Grenzkosten und den Nutzen jedes Satzes aus.

Bei Querschnittsdaten, bei denen Daten zu verschiedenen Entitäten zu einem bestimmten Zeitpunkt erhoben werden, reicht eine zufällige Aufteilung aus. Beim Umgang mit Zeitreihendaten, die Datenpunkte im Zeitverlauf erfassen, kommen jedoch zusätzliche Überlegungen ins Spiel. Zeitreihendaten erfordern eine chronologische Reihenfolge, beginnend mit dem Trainingssatz und fortschreitend durch nachfolgende Sätze.

Kreuzvalidierungstechniken kommen ins Spiel, wenn der Gesamtdatensatz nicht ausreicht, um separate Trainings-, Validierungs- und Testsätze zuzuweisen. In solchen Fällen können Forscher die Trainings- und Validierungssätze kombinieren. Ein beliebter Ansatz ist die k-fache Kreuzvalidierung, bei der der Datensatz in eine bestimmte Anzahl von Falten oder Teilmengen unterteilt wird. Übliche Optionen für die Anzahl der Falten sind 5 und 10, obwohl je nach spezifischen Anforderungen auch andere Werte untersucht werden können.

Beim verstärkenden Lernen, das wir zuvor kurz besprochen haben, handelt es sich um einen Agenten, der durch die Verarbeitung von Daten lernt. In diesem Szenario verarbeitet der Agent historische Daten, beispielsweise Kreditanträge von Kunden, um fundierte Entscheidungen zu treffen. Ziel des Maklers ist es, Kredite an Kunden zu leihen, die wahrscheinlich zur Rückzahlung bereit sind, und Anträge von Kunden abzulehnen, die möglicherweise zahlungsunfähig sind. Der Agent lernt aus früheren Entscheidungen, erhält Belohnungen für richtige Entscheidungen und wird für Fehler bestraft. Durch die Aktualisierung des Entscheidungsprozesses des Agenten durch eine Reihe von Aktionen und Belohnungen kann ein Algorithmus entwickelt werden, um Entscheidungen wie die Kreditgenehmigung und die Zinssatzbestimmung zu optimieren.

Der Verstärkungslernprozess kann weiter in zwei Methoden kategorisiert werden: Monte Carlo und zeitliche Differenz. Diese Methoden unterscheiden sich darin, wie sie den Entscheidungsprozess aktualisieren. Die Monte-Carlo-Methode bewertet den erwarteten Wert von Entscheidungen und aktualisiert die Entscheidungswerte basierend auf Belohnungen und einer Lernkonstante (Alpha). Andererseits berechnet die zeitliche Differenzmethode die Differenz zwischen aktuellen und zukünftigen erwarteten Werten und aktualisiert die Entscheidungswerte entsprechend.

Die in der Lektüre besprochenen Beispiele veranschaulichen die praktischen Anwendungen des maschinellen Lernens. Diese Anwendungen reichen von Handel und Betrugserkennung bis hin zu Kreditbewertung, Risikomanagement und Portfoliooptimierung. Durch den Einsatz von Reinforcement Learning und der Monte-Carlo- oder Zeitdifferenzmethode können Agenten fundierte Entscheidungen in Echtzeit treffen und so verschiedene Aspekte der finanziellen Entscheidungsfindung verbessern.

Zusammenfassend lässt sich sagen, dass das Verständnis der Feinheiten des maschinellen Lernens und der Datenverarbeitung für den effektiven Einsatz dieser Techniken in verschiedenen Bereichen von entscheidender Bedeutung ist. Die richtige Unterteilung der Daten, eine durchdachte Zuordnung und die Anwendung von Methoden des Reinforcement Learning können Entscheidungsprozesse erheblich verbessern und fundierte und optimierte Ergebnisse in komplexen Szenarien ermöglichen.

Zusammenfassend lässt sich sagen, dass wir bestrebt sind, bei der Erstellung von Modellen für maschinelles Lernen das richtige Gleichgewicht zwischen Voreingenommenheit und Varianz zu finden. Unser Ziel ist es, Modelle zu erstellen, die die Realität genau widerspiegeln, ohne zu komplex oder zu einfach zu sein. Indem wir die Herausforderungen der Über- und Unteranpassung verstehen und angehen, können wir die Leistung und Vorhersagegenauigkeit unserer Modelle verbessern.
Machine-learning Methods – Part B (FRM Part 1 2023 – Book 2 – Quantitative Analysis – Chapter 14)
Machine-learning Methods – Part B (FRM Part 1 2023 – Book 2 – Quantitative Analysis – Chapter 14)
  • 2023.02.04
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Maschinelles Lernen und Vorhersage – Teil A (FRM Teil 1 2023 – Buch 2 – Kapitel 15)


Maschinelles Lernen und Vorhersage – Teil A (FRM Teil 1 2023 – Buch 2 – Kapitel 15)

Hallo, hier ist Jim, und ich werde Sie durch Teil 1 des Buches mit dem Titel „Quantitative Analyse und die Rolle von maschinellem Lernen und Vorhersage“ führen. In diesem Abschnitt konzentrieren wir uns auf die ersten drei Lernziele von Teil A. Bevor wir in die Details eintauchen, möchte ich kurz die vorherige Lektüre zusammenfassen, die sowohl Teil A als auch Teil B enthielt. In dieser Lektüre haben wir die Grenzen von untersucht klassische Regressionsanalyse und diskutiert, wann alternative Modelle, wie zum Beispiel maschinelles Lernen, notwendig sind. Maschinelles Lernen ermöglicht es uns, große Datensätze ohne restriktive Annahmen klassischer ökonometrischer Modelle zu verarbeiten.

Wir haben auch viel Zeit damit verbracht, die Konzepte der Über- und Unteranpassung sowie die mit der Vereinfachung und Komplexität verbundenen Herausforderungen zu diskutieren. In dieser Lektüre werden wir auf diesen Diskussionen aufbauen und zusätzliche Techniken untersuchen, die zuvor nicht behandelt wurden. Die ersten drei Lernziele dieser Lektüre sind lineare Regression, logistische Regression sowie Ridge und Lasso.

Lineare Regression ist ein bekanntes Konzept, bei dem wir eine Beziehung zwischen Variablen herstellen. Allerdings ist die lineare Regression möglicherweise nicht geeignet, wenn wir Wahrscheinlichkeiten zwischen 0 und 100 vorhersagen müssen. In solchen Fällen kommt die logistische Regression ins Spiel. Die logistische Regression ermöglicht es uns, Variablen mit binären Ergebnissen zu modellieren, beispielsweise ob ein Kunde einen Kredit zurückzahlt oder in Zahlungsverzug gerät. Im Gegensatz zur linearen Regression liefert die logistische Regression Wahrscheinlichkeiten innerhalb eines gültigen Bereichs von 0 bis 1 und ermöglicht so eine binäre Klassifizierung.

Als nächstes werden wir Regularisierungstechniken diskutieren, insbesondere Ridge und Lasso. Die Regularisierung trägt dazu bei, die Komplexität unserer Modelle zu bewältigen, indem sie deren Komplexität verringert oder verringert. Wir werden untersuchen, wie diese Techniken verwendet werden können, um die Einschränkungen der linearen Regression zu mildern.

Um diese Konzepte besser zu verstehen, schauen wir uns die lineare Regression noch einmal an. Die gewöhnliche Regression der kleinsten Quadrate geht von einer linearen Beziehung zwischen unabhängigen und abhängigen Variablen aus und minimiert den Abstand zwischen Datenpunkten und einer hypothetischen Linie. Beim maschinellen Lernen bezeichnen wir diese Variablen aufgrund ihrer großen Anzahl jedoch als Merkmale und nicht als abhängige und unabhängige Variablen.

Die multiple lineare Regression erweitert dieses Konzept um mehrere unabhängige Variablen, was zu einem Modell mit einem Achsenabschnitt (Alpha), Steigungen (Beta) und entsprechenden unabhängigen Variablen (x1, x2 usw.) führt. Das Ziel besteht darin, die verbleibende Quadratsumme (RSS) zu minimieren, die die Differenz zwischen den tatsächlichen und den vorhergesagten Werten darstellt. Obwohl wir nach genauen Vorhersagen streben, ist es praktisch unmöglich, in realen Szenarien eine 100-prozentige Genauigkeit zu erreichen.

Hier kommt die logistische Regression ins Spiel. Anstatt eine lineare Beziehung zu erzwingen, wandelt die logistische Regression die Ausgabe in eine Sigmoidkurve um und stellt so sicher, dass die Wahrscheinlichkeiten im Bereich von 0 bis 1 liegen. Durch die Verwendung der Basis des natürlichen Logarithmus (e) können wir dies tun Berechnen Sie zukünftige Werte, z. B. Zinseszinssätze. Die logistische Regression verwendet die Maximum-Likelihood-Schätzung, um die Beziehung zwischen den Variablen zu modellieren. Indem wir den Logarithmus beider Seiten der Gleichung verwenden, vereinfachen wir den Schätzprozess, was zum logistischen Regressionsmodell führt.

Einer der Vorteile der logistischen Regression ist ihre einfache Interpretation. Es verarbeitet binäre Ergebnisse und stellt Wahrscheinlichkeiten bereit, wodurch es für verschiedene Anwendungen nützlich ist, beispielsweise für die Vorhersage von Kreditausfällen oder Börsentrends. Die logistische Regression weist jedoch auch Einschränkungen auf, einschließlich der Möglichkeit einer Überanpassung und Problemen mit der Multikollinearität. Darüber hinaus ist die Ausgabe auf Wahrscheinlichkeiten zwischen 0 und 1 beschränkt, wodurch die Möglichkeit unlogischer Werte wie 114 % ausgeschlossen wird.

Um die logistische Regression zu veranschaulichen, betrachten wir ein Beispiel, bei dem die Kreditwürdigkeit und das Verhältnis von Schulden zu Einkommen als Prädiktoren für einen Kreditausfall dienen. Durch die Analyse der Daten von 500 Kunden können wir mithilfe des logistischen Regressionsmodells Ausfallwahrscheinlichkeiten generieren.

Kategorischen Variablen, etwa ob eine Person im Ruhestand ist oder nicht, können numerische Bezeichnungen nicht direkt zugewiesen werden. Daher verwenden wir Kodierungstechniken wie Mapping, die Erstellung von Dummy-Variablen oder die ordinale Kategorisierung, um diese Variablen im Modell darzustellen.

Eine gängige Methode zum Kodieren kategorialer Variablen ist das sogenannte Mapping. Bei diesem Ansatz weisen wir verschiedenen Kategorien einer Variablen numerische Bezeichnungen zu. Wenn wir beispielsweise eine kategoriale Variable namens „employment_status“ mit den Kategorien „beschäftigt“, „selbstständig“ und „arbeitslos“ haben, können wir numerische Bezeichnungen wie 1, 2 bzw. 3 zuweisen, um diese Kategorien darzustellen im logistischen Regressionsmodell.

Ein anderer Ansatz besteht darin, Dummy-Variablen zu erstellen. Dummy-Variablen sind binäre Variablen, die verschiedene Kategorien einer kategorialen Variablen darstellen. Jeder Kategorie wird eine separate Dummy-Variable zugewiesen, die den Wert 1 annimmt, wenn die Beobachtung zu dieser Kategorie gehört, andernfalls den Wert 0. Wenn wir beispielsweise eine kategoriale Variable namens „education_level“ mit den Kategorien „High School“, „College“ und „Graduate School“ haben, würden wir zwei Dummy-Variablen erstellen: „College“ und „Graduate School“. Diese Dummy-Variablen würden den Wert 1 annehmen, wenn die Beobachtung der jeweiligen Kategorie entspricht, andernfalls den Wert 0.

Die ordinale Kategorisierung ist eine weitere Technik zur Kodierung kategorialer Variablen. Dabei werden Kategorien anhand ihrer Reihenfolge oder Rangfolge numerische Beschriftungen zugewiesen. Dieser Ansatz eignet sich, wenn die Kategorien eine inhärente Reihenfolge oder Hierarchie aufweisen. Wenn wir beispielsweise eine Variable namens „satisfaction_level“ mit den Kategorien „low“, „medium“ und „high“ haben, können wir numerische Bezeichnungen 1, 2 und 3 zuweisen, um den zunehmenden Grad der Zufriedenheit darzustellen.

Sobald wir die kategorialen Variablen kodiert haben, können wir sie zusammen mit den numerischen Variablen in das logistische Regressionsmodell einbeziehen. Der logistische Regressionsalgorithmus schätzt dann die Koeffizienten für jede Variable und gibt deren Einfluss auf die Wahrscheinlichkeit des binären Ergebnisses an.

Zusätzlich zur logistischen Regression werden wir auch Regularisierungstechniken namens Ridge und Lasso untersuchen. Die Regularisierung wird verwendet, um das Problem der Überanpassung im Modell anzugehen. Überanpassung tritt auf, wenn das Modell Rauschen oder zufällige Schwankungen in den Trainingsdaten erfasst, was zu einer schlechten Leistung bei unsichtbaren Daten führt.

Ridge und Lasso sind zwei beliebte Regularisierungstechniken, die dem Regressionsmodell einen Strafterm hinzufügen. Dieser Strafterm hilft, die Komplexität des Modells zu kontrollieren, indem er die Koeffizienten der Variablen verkleinert oder reduziert. Bei der Ridge-Regression wird ein Strafterm proportional zur Summe der quadrierten Koeffizienten hinzugefügt, während bei der Lasso-Regression ein Strafterm proportional zur Summe der Absolutwerte der Koeffizienten hinzugefügt wird.

Durch die Einführung dieser Strafterme ermutigt die Ridge- und Lasso-Regression das Modell, ein Gleichgewicht zwischen einer guten Anpassung der Trainingsdaten und der Kontrolle der Komplexität des Modells zu finden. Dadurch wird eine Überanpassung verhindert und die Generalisierungsleistung des Modells für nicht sichtbare Daten verbessert.

In Teil 1 des Buches werden wir lineare Regression, logistische Regression und Regularisierungstechniken wie Ridge und Lasso behandeln. Wir werden untersuchen, wie diese Methoden auf verschiedene Datentypen angewendet werden können und wie sie die Vorhersagegenauigkeit verbessern können. Die besprochenen Beispiele und Konzepte bieten eine solide Grundlage für das Verständnis der quantitativen Analyse und der Rolle des maschinellen Lernens bei der Vorhersage.

Machine Learning and Prediction – Part A (FRM Part 1 2023 – Book 2 – Chapter 15)
Machine Learning and Prediction – Part A (FRM Part 1 2023 – Book 2 – Chapter 15)
  • 2023.02.07
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Maschinelles Lernen und Vorhersage – Teil B (FRM Teil 1 2023 – Buch 2 – Kapitel 15)


Maschinelles Lernen und Vorhersage – Teil B (FRM Teil 1 2023 – Buch 2 – Kapitel 15)

Hallo, ich bin Jim und ich möchte den ersten Teil des Buches besprechen, der sich auf quantitative Analysen, insbesondere maschinelles Lernen und Vorhersagen, konzentriert. In Teil B befassen wir uns mit neuen Konzepten wie Entscheidungsbäumen, Ensemble-Lernen und neuronalen Netzen. Beginnen wir mit einem erneuten Blick auf Entscheidungsbäume.

Im vorherigen Abschnitt haben wir Entscheidungsbäume zur Berechnung von Anleihepreisen untersucht, insbesondere für Anleihen mit eingebetteten Optionen. Der Entscheidungsbaum für die Anleihepreisgestaltung hatte eine Baumstruktur mit Zweigen und Knoten, die unterschiedliche Entscheidungen und Ergebnisse darstellten. Bei Anleihen mit eingebetteten Optionen wurde an jedem Knoten entschieden, ob die Anleihe zu einem bestimmten Zinssatz gekündigt werden würde.

Beim maschinellen Lernen folgen Entscheidungsbäume einer ähnlichen Struktur, jedoch mit einer anderen Ausrichtung. Anstatt wie bei der Anleihepreisgestaltung horizontal zu verzweigen, verlaufen Entscheidungsbäume beim maschinellen Lernen vertikal von oben nach unten. An jedem Knoten wird eine Frage gestellt, die zu nachfolgenden Knoten führt und schließlich zu einer Entscheidung oder einem Ergebnis führt.

Nehmen wir als Beispiel einen Entscheidungsbaum für eine kündbare Anleihe, den wir Zinsbaum genannt haben. In diesem Fall waren die Entscheidungen unkompliziert, da wir nur feststellen mussten, ob die Anleihe zu einem bestimmten Zinssatz gekündigt werden würde oder nicht. In Entscheidungsbäumen für maschinelles Lernen werden die Entscheidungen jedoch durch Algorithmen bestimmt, die verschiedene Faktoren analysieren und komplexere Entscheidungen treffen.

Während Anleihepreismodelle normalerweise kein maschinelles Lernen beinhalten, müssten wir bei der Analyse der Wahrscheinlichkeit eines Anleiheausfalls zusätzliche Merkmale wie den operativen Cashflow des Unternehmens, das Verhältnis von Schulden zu Eigenkapital, die Qualität des Managements und die Produktlinien berücksichtigen . Diese Komplexität verdeutlicht den Unterschied zwischen Entscheidungsbäumen bei der traditionellen Anleihepreisgestaltung und jenen beim maschinellen Lernen.

Bei Entscheidungsbäumen für maschinelles Lernen besteht unser Ziel darin, die Klasse einer Eingabe zu klassifizieren oder vorherzusagen. Beispielsweise möchten wir möglicherweise anhand der Rentabilität und des freien Cashflows bestimmen, ob ein Unternehmen Dividenden zahlen wird. Diese Merkmale tragen zur Komplexität des Entscheidungsbaums bei, da mehr Zweige und Knoten erforderlich sind, um mehrere Faktoren zu berücksichtigen.

Die Komplexität von Entscheidungsbäumen nimmt zu, wenn zusätzliche Funktionen in das Modell einbezogen werden. Bei jeder Teilung des Baums kann das Modell des maschinellen Lernens Fehler machen, was uns zum Konzept des Informationsgewinns bringt. Der Informationsgewinn misst den Nutzen einer Funktion bei der Vorhersage der Zielvariablen. Es quantifiziert die Verringerung der Unsicherheit, die durch jedes Merkmal im Entscheidungsbaum bereitgestellt wird.

Der Informationsgewinn kann entweder mithilfe des Gini-Koeffizienten oder der Entropie berechnet werden. Beide Maßnahmen führen zu ähnlichen Ergebnissen, sodass die Verwendung der einen gegenüber der anderen keinen wesentlichen Vorteil bietet. Ich ermutige Sie, beide Ansätze zu erkunden, da der Lesestoff den Gini-Koeffizienten behandelt und die Entropie in diesem Zusammenhang diskutiert wird.

Betrachten wir ein einfaches Beispiel, um die Berechnung der Entropie zu veranschaulichen. Wir haben eine Tabelle mit den Daten der Kreditkarteninhaber, einschließlich Zahlungsausfällen, hohem Einkommen und verspäteten Zahlungen. Anhand dieser Merkmale wollen wir feststellen, ob ein Kredit ausfällt. Das Ziel ist die Klassifizierung und Vorhersage.

Durch Anwendung der Entropieformel berechnen wir die Entropie für die gegebenen Daten. Wir summieren die Wahrscheinlichkeiten jedes Ergebnisses und bilden den Logarithmus zur Basis 2 dieser Wahrscheinlichkeiten. In diesem Beispiel beträgt die Entropie 0,954, die wir Ihnen zur Verfügung gestellt haben.

Betrachten wir als Nächstes die Funktion „Hocheinkommen“ als erste Aufteilung. Wir beobachten, dass vier von acht Kreditkarteninhabern über ein hohes Einkommen verfügen, während die restlichen vier über ein niedriges Einkommen verfügen. Von denen mit hohem Einkommen waren zwei zahlungsunfähig und zwei nicht. In der Gruppe mit niedrigem Einkommen war einer zahlungsunfähig, drei nicht.

Bei der Berechnung der Entropie für jedes Merkmal stellen wir fest, dass die Entropie für das Merkmal mit hohem Einkommen 0,811 beträgt. Um den Informationsgewinn zu ermitteln, subtrahieren wir diesen Wert von der anfänglichen Entropie von 0,954. Der resultierende Informationsgewinn beträgt 0,143.

Dies zeigt, dass die Funktion „Hohes Einkommen“ eine Verringerung der Unsicherheit oder Entropie um 0,143 bewirkt.

Um den Entscheidungsbaum weiter aufzubauen, müssen wir andere Funktionen bewerten und auch deren Informationsgewinn berechnen. Wir wiederholen den Vorgang für jedes Feature, teilen die Daten nach verschiedenen Attributen auf und berechnen die Entropie und den Informationsgewinn.

Nehmen wir an, wir betrachten als nächstes die Funktion für verspätete Zahlungen. Von den vier Kreditkarteninhabern, die verspätete Zahlungen leisteten, waren drei zahlungsunfähig und einer nicht. Für diejenigen, die keine verspäteten Zahlungen leisteten, gab es keine Zahlungsausfälle. Bei der Berechnung der Entropie für die Funktion „Verspätete Zahlungen“ stellen wir fest, dass sie 0,811 beträgt.

Der Informationsgewinn für die Funktion „Zahlungsverzug“ wird durch Subtrahieren der Entropie von der anfänglichen Entropie von 0,954 ermittelt. Daher beträgt der Informationsgewinn für die Funktion „Verspätete Zahlungen“ 0,143, was dem Wert für die Funktion „Hohes Einkommen“ entspricht.

An dieser Stelle haben wir zwei Merkmale bewertet und ihren Informationsgewinn ermittelt. Jetzt müssen wir den Informationsgewinn dieser Funktionen vergleichen, um zu entscheiden, welches als erste Aufteilung in unserem Entscheidungsbaum verwendet werden soll. Da beide Merkmale den gleichen Informationsgewinn haben, können wir eines davon als Ausgangspunkt wählen.

Sobald das erste Merkmal ausgewählt ist, verzweigt sich der Entscheidungsbaum weiter und wir wiederholen den Vorgang für die verbleibenden Datenteilmengen, bis wir zu einer endgültigen Entscheidung oder einem endgültigen Ergebnis kommen. Das Ziel besteht darin, einen Entscheidungsbaum zu erstellen, der den Informationsgewinn bei jedem Schritt maximiert und die genauesten Vorhersagen oder Klassifizierungen liefert.

Es ist wichtig zu beachten, dass Entscheidungsbäume unter Überanpassung leiden können, wenn sie zu komplex werden oder wenn sie auf begrenzten Daten trainiert werden. Überanpassung tritt auf, wenn der Entscheidungsbaum das Rauschen oder die Besonderheiten der Trainingsdaten zu gut lernt und nicht gut auf neue, unsichtbare Daten verallgemeinern kann.

Um eine Überanpassung abzumildern, können Techniken wie Pruning, Regularisierung und Kreuzvalidierung eingesetzt werden. Diese Methoden tragen dazu bei, den Entscheidungsbaum zu vereinfachen und zu verhindern, dass er übermäßig komplex wird, und stellen so sicher, dass er genaue Vorhersagen auf der Grundlage neuer Daten treffen kann.

Entscheidungsbäume sind nur ein Aspekt des maschinellen Lernens, der in Teil 1 des Buches behandelt wird. Sie bilden eine Grundlage für das Verständnis fortgeschrittenerer Konzepte wie Ensemble-Lernen und neuronaler Netze, die wir in Teil 2 untersuchen werden.

Als ich an der Graduiertenschule war, betonte unser Professor immer, wie wichtig es ist, aus Fehlern zu lernen, was er als „Störungsbegriff“ bezeichnete. Er betonte, wie wichtig es sei, diese Fehler nicht zu ignorieren, nur weil ihr erwarteter Wert Null sei. Anfangs dachte ich, es wäre einfacher, sie zu ignorieren und Abkürzungen zu nehmen, aber mit der Zeit wurde mir klar, wie wichtig es ist, diese Fehler zu verstehen und daraus zu lernen.

Unser Professor zog oft Parallelen zwischen dem Lernen aus Fehlern im Sport und dem Lernen aus Fehlern beim Modellieren. Er erklärte, wie Sportler wie ich in meiner Jugend Fehler machten und daraus lernten, um ihre Leistung auf dem Feld zu verbessern. Durch diese Analogie wurde mir klar, dass wir dasselbe Konzept auf die Erstellung besserer Modelle anwenden können, indem wir aus den Störungstermen lernen und unsere Vorhersagen verbessern.

Boosting gibt es, wie unser Professor erklärte, in zwei Formen: adaptives Boosting und Gradient Boosting. Beim adaptiven Boosting identifizieren wir die Störungsterme, die die meisten Probleme verursachen, und konzentrieren uns darauf, daraus zu lernen. Dieser Ansatz hilft uns, ein schwaches Modell in ein leistungsfähiges umzuwandeln, wodurch Vorurteile reduziert und die Genauigkeit erhöht werden.

Andererseits legt die Gradientenverstärkung einen vorgegebenen Schwellenwert fest und zielt darauf ab, diesen durch Anpassung des Algorithmus zu überschreiten. Wenn wir beispielsweise über ein Modell zur Vorhersage von Dividendenzahlungen verfügen und eine Genauigkeit von 75 % erreichen möchten, trainieren wir den Algorithmus, um Entscheidungen zu treffen, die zu dieser Genauigkeit führen. Im Vergleich zur Verallgemeinerung des adaptiven Boosting verfolgt Gradient Boosting einen spezifischeren Ansatz.

Bei der K-Nearest-Neighbor-Methode (KNN) wird der Abstand zwischen beobachteten Variablen gemessen, um deren Ähnlichkeit zu bestimmen. Im Gegensatz zum Clustering, das sich auf das Finden von Gruppen konzentriert, sucht KNN nach Nachbarn und analysiert deren Merkmale. Durch die Messung der Entfernung zwischen einem neuen Datenpunkt und seinen Nachbarn sagt KNN die Klasse oder den Wert dieses Punkts basierend auf der Mehrheitsentscheidung oder dem gewichteten Durchschnitt seiner Nachbarn voraus.

KNN ist ein einfacher, aber leistungsstarker Algorithmus, der sowohl auf Klassifizierungs- als auch auf Regressionsaufgaben angewendet werden kann. Es sind keine Annahmen über die zugrunde liegende Datenverteilung erforderlich, sodass es sich um eine nichtparametrische Methode handelt. Es hat jedoch seine Grenzen. Die Wahl der Anzahl der Nachbarn (K) ist entscheidend, da die Auswahl eines kleinen K zu einer Überanpassung führen kann, während ein großes K zu einer übermäßigen Vereinfachung führen kann. Darüber hinaus kann KNN bei großen Datensätzen rechenintensiv sein, da die Entfernungen für jeden Datenpunkt berechnet werden müssen.

Das Konzept neuronaler Netze ist faszinierend und hat in den letzten Jahren große Aufmerksamkeit erlangt. Neuronale Netze sind von der Struktur und Funktion des menschlichen Gehirns inspiriert und bestehen aus miteinander verbundenen Knoten oder künstlichen Neuronen, sogenannten Perzeptronen. Diese Perzeptrone verarbeiten und übertragen Informationen und ermöglichen es dem neuronalen Netzwerk, komplexe Muster zu lernen und Vorhersagen zu treffen.

Das Buch diskutiert die Feedforward-Architektur eines neuronalen Netzwerks, die aus einer Eingabeschicht, einer oder mehreren verborgenen Schichten und einer Ausgabeschicht besteht. Jede Schicht besteht aus mehreren Perzeptronen, die mit den angrenzenden Schichten verbunden sind. Die Eingabeschicht empfängt die anfänglichen Daten, die dann durch das Netzwerk geleitet werden und in jeder verborgenen Schicht Transformationen und Berechnungen durchlaufen, bevor sie eine Ausgabe erzeugen.

Beim Training eines neuronalen Netzwerks müssen die Gewichte und Bias der Perzeptrone angepasst werden, um den Fehler oder die Verlustfunktion zu minimieren. Dieser Prozess erfolgt häufig mithilfe der Backpropagation, die die Fehlergradienten in Bezug auf die Netzwerkparameter berechnet und sie entsprechend aktualisiert.

Neuronale Netze haben in verschiedenen Anwendungen, wie Bild- und Spracherkennung, Verarbeitung natürlicher Sprache und Empfehlungssystemen, bemerkenswerte Erfolge gezeigt. Sie können jedoch rechenintensiv sein und große Datenmengen für das Training erfordern. Überanpassung kann auch bei neuronalen Netzen ein Problem darstellen, und zur Lösung dieses Problems werden Regularisierungstechniken wie Dropout und Weight Decay eingesetzt.

Damit ist der Überblick über die in Teil 1 des Buches behandelten Themen abgeschlossen. Wir haben Entscheidungsbäume, Informationsgewinn, Überanpassung, Boosting, KNN und neuronale Netze besprochen. Diese Konzepte bieten eine solide Grundlage für das Verständnis von maschinellem Lernen und Vorhersagen.

Lassen Sie uns in den nächsten Abschnitt des Buches, Teil 2, eintauchen, in dem wir fortgeschrittenere Konzepte wie Ensemble-Lernen und neuronale Netze untersuchen.

Ensemble-Lernen ist eine leistungsstarke Technik, die mehrere Einzelmodelle kombiniert, um Vorhersagen oder Klassifizierungen zu treffen. Die Idee hinter dem Ensemble-Lernen besteht darin, dass wir durch die Aggregation der Vorhersagen mehrerer Modelle eine bessere Leistung und höhere Genauigkeit erreichen können, als dies mit einem einzelnen Modell allein möglich wäre.

Eine beliebte Ensemble-Lernmethode heißt Random Forest. Es kombiniert die Vorhersagen mehrerer Entscheidungsbäume, um eine endgültige Vorhersage zu treffen. Jeder Entscheidungsbaum wird auf einer zufälligen Teilmenge der Daten trainiert, und während der Vorhersagephase wird die endgültige Vorhersage durch Mittelung oder Abstimmung der Vorhersagen aller einzelnen Bäume erhalten.

Zufällige Wälder bieten mehrere Vorteile. Sie sind robust gegenüber Überanpassung und verfügen tendenziell über gute Generalisierungsfähigkeiten. Sie können große Datensätze und hochdimensionale Merkmalsräume effektiv verarbeiten. Darüber hinaus können Zufallswälder Informationen über die Bedeutung von Features liefern und uns so Einblicke in die zugrunde liegenden Daten ermöglichen.

Eine weitere Ensemble-Lernmethode ist die Gradientenverstärkung, die wir bereits kurz erwähnt haben. Durch die Gradientenverstärkung wird ein starkes Modell erstellt, indem dem Ensemble iterativ schwache Modelle hinzugefügt werden, wobei jedes schwache Modell die Fehler der vorherigen Modelle korrigiert. Dieser iterative Prozess reduziert den Gesamtfehler und verbessert die Vorhersagekraft des Ensembles.

Gradientenverstärkungsalgorithmen wie XGBoost und LightGBM erfreuen sich aufgrund ihrer Wirksamkeit in verschiedenen maschinellen Lernwettbewerben und realen Anwendungen zunehmender Beliebtheit. Sie zeichnen sich durch den Umgang mit strukturierten Daten aus und verfügen über die Fähigkeit, komplexe Muster und Interaktionen zwischen Merkmalen zu erfassen.

Als wir zu neuronalen Netzen übergingen, haben wir bereits zuvor auf deren Architektur und Trainingsprozess eingegangen. Neuronale Netze haben eine außergewöhnliche Leistung bei Aufgaben gezeigt, bei denen es um Mustererkennung geht, beispielsweise bei der Bild- und Spracherkennung. Sie können auch auf die Zeitreihenanalyse, die Verarbeitung natürlicher Sprache und viele andere Bereiche angewendet werden.

Deep Learning, eine Untergruppe neuronaler Netze, konzentriert sich auf das Training neuronaler Netze mit mehreren verborgenen Schichten. Tiefe neuronale Netze sind in der Lage, hierarchische Darstellungen von Daten zu lernen, wobei jede Schicht zunehmend abstraktere Merkmale lernt. Diese Fähigkeit, komplexe Merkmale automatisch aus Rohdaten zu extrahieren, hat zum Erfolg von Deep Learning in verschiedenen Bereichen beigetragen.

Convolutional Neural Networks (CNNs) sind besonders effektiv bei Bilderkennungsaufgaben, da sie die räumlichen Beziehungen zwischen Pixeln in einem Bild nutzen. Rekurrente neuronale Netze (RNNs) werden häufig für sequentielle Datenanalysen wie die Verarbeitung natürlicher Sprache und die Spracherkennung verwendet, da sie zeitliche Abhängigkeiten erfassen können.

Es ist erwähnenswert, dass der Erfolg neuronaler Netze stark von der Verfügbarkeit großer markierter Datensätze für das Training abhängt. Darüber hinaus erfordern tiefe neuronale Netze häufig erhebliche Rechenressourcen und längere Trainingszeiten. Allerdings haben Fortschritte in der Hardware, wie z. B. Grafikprozessoren (GPUs) und spezielle Hardwarebeschleuniger, das Training tiefer neuronaler Netze leichter zugänglich gemacht.

Im weiteren Verlauf des zweiten Teils des Buches werden wir tiefer in diese fortgeschrittenen Themen eintauchen und die Feinheiten des Ensemble-Lernens, verschiedene neuronale Netzwerkarchitekturen, Optimierungstechniken und praktische Überlegungen zur Anwendung dieser Techniken auf reale Probleme untersuchen.
Machine Learning and Prediction – Part B (FRM Part 1 2023 – Book 2 – Chapter 15)
Machine Learning and Prediction – Part B (FRM Part 1 2023 – Book 2 – Chapter 15)
  • 2023.02.08
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Faktortheorie (FRM Teil 2 2023 – Buch 5 – Kapitel 1)



Faktortheorie (FRM Teil 2 2023 – Buch 5 – Kapitel 1)

Dieser Text stammt aus Teil Zwei, Buch Fünf von „Risikomanagement und Investmentmanagement“ und konzentriert sich speziell auf das Kapitel über Faktortheorie.

Der Text beginnt mit der Erläuterung, dass die Faktortheorie darauf abzielt, gemeinsame Faktoren zu identifizieren, die die Wertentwicklung von Portfolios und einzelnen Aktien beeinflussen. Zu diesen Faktoren können Zinssätze, Marktbewegungen, Inflation, BIP-Veränderungen und mehr gehören. Wenn Anleger verstehen, wie sich diese Faktoren auf verschiedene Aktien auswirken, können sie fundierte Entscheidungen über ihre Portfolios treffen.

Das Kapitel betont, dass sich die Faktortheorie auf die Faktoren selbst und nicht auf einzelne Vermögenswerte konzentriert. Faktoren wie Zinssätze, Inflation und Wirtschaftswachstum haben einen größeren Einfluss auf die Aktienkurse als bestimmte Unternehmen wie Apple oder die Bank of America. Anleger müssen über die einzelnen Vermögenswerte hinausblicken und die zugrunde liegenden Risikofaktoren identifizieren, die die Rendite bestimmen.

Faktoren gelten als die letztendlichen Determinanten der Rendite, und Vermögenswerte stellen Bündel von Faktoren dar. Das Kapitel unterstreicht die Bedeutung der Berücksichtigung von Korrelationen, Copulas und optimaler Risikoexposition, da verschiedene Anleger unterschiedliche Präferenzen und Risikoprofile haben können.

Anschließend geht der Text auf das Ein-Faktor-Modell ein und bezieht sich dabei auf das Capital Asset Pricing Model (CAPM). CAPM beschreibt die Gleichgewichtsbeziehung zwischen systematischem Risiko (Variabilität der Aktienrenditen aufgrund wirtschaftlicher Faktoren) und erwarteten Renditen. Das Modell geht davon aus, dass der einzige relevante Faktor das Marktportfolio ist und dass die Risikoprämien durch das Beta bestimmt werden, ein Maß für die Sensitivität der Aktie gegenüber Marktbewegungen.

In dem Kapitel wird erläutert, dass rationale Anleger ihre Portfolios diversifizieren, um das Risiko zu mindern. Diversifizierbare Risiken sollten jedoch nicht mit einer Prämie verbunden sein, da sie leicht wegdiversifiziert werden können. Der Fokus sollte auf dem systematischen Risiko liegen, in dem die Risikoprämie liegt.

Im Text werden zwei Versionen des CAPM vorgestellt. Die erste Version berücksichtigt den risikofreien Zinssatz und die erwartete Rendite des Marktportfolios, während die zweite Version Beta als Maß für das systematische Risiko einführt. Beta ist die Kovarianz zwischen der einzelnen Aktie und dem Marktportfolio geteilt durch die Varianz des Marktportfolios. Es stellt die Sensibilität der Aktie gegenüber Veränderungen wirtschaftlicher Faktoren dar.

Der Text betont, dass Beta das systematische Risiko erfasst und die erwartete Rendite einzelner Aktien bestimmt. Ein höheres Beta weist auf ein höheres systematisches Risiko und potenziell höhere Renditen hin, während ein niedrigeres Beta auf ein geringeres Risiko und potenziell niedrigere Renditen hinweist. Allerdings ist die Beziehung zwischen Beta und Rendite nicht linear.

Das Kapitel schließt mit der Hervorhebung einiger Lehren aus dem CAPM. Das Marktportfolio ist der einzige vorhandene Faktor, und jeder Anleger hält sein optimales Faktorrisiko-Exposure. Risikoscheue Anleger bevorzugen möglicherweise Staatspapiere, während risikotolerante Anleger mehr Vermögen in riskante Anlagen investieren. Die Kapital-Asset-Allokationslinie ermöglicht es Anlegern, sich entlang der Effizienzgrenze zu bewegen, die die Portfolios mit der minimalen Standardabweichung für ein bestimmtes erwartetes Renditeniveau darstellt.

Die Vorstellung, dass Steuern nur geringe Auswirkungen auf die Rendite haben, ist ein wichtiger zu berücksichtigender Faktor. Während allgemein angenommen wird, dass Märkte reibungslos funktionieren, ist diese Annahme nicht ganz richtig. Die Finanzdisziplin entstand 1958, hauptsächlich unter der Leitung von Ökonomen wie Madiganian Miller. In den 1950er und 1960er Jahren gab es jedoch keine Doktoranden. Programme, die sich speziell auf Finanzen konzentrieren. Daher verließen sich die Pioniere des modernen Finanzwesens auf die Annahme, dass die Märkte perfekt seien und die Anleger keine Kontrolle über die Preise hätten. Allerdings verstehen wir mittlerweile, dass institutionelle Anleger manchmal erhebliche Preisbewegungen verursachen können und Informationen nicht immer für jedermann frei zugänglich sind, wie der Ökonom Milton Friedman feststellte.

Obwohl ich sie lieber als Einschränkungen bezeichne, gibt es Fehler im Capital Asset Pricing Model (CAPM). Das Modell steht unter erheblichem Druck, alle Risikofaktoren zu erfassen, die sich auf das Marktportfolio und das Beta auswirken. Aus diesem Grund erfreuen sich Multifaktormodelle zunehmender Beliebtheit, da sie mehrere Risikofaktoren berücksichtigen, die die Rendite einzelner Aktien beeinflussen.

Bevor wir uns mit der Mechanik von Multifaktormodellen befassen, vergleichen wir kurz die beiden Ansätze. Aus beiden Modellen lernen wir wichtige Lektionen. Lektion eins: Diversifikation funktioniert, auch wenn sie in jedem Modell anders funktionieren kann. Lektion zwei: Jeder Investor findet seine bevorzugte Position auf der Effizienzgrenze oder Kapitalmarktlinie, wenn auch auf unterschiedliche Weise. Lektion drei: Der durchschnittliche Anleger hält das Marktportfolio, aber das CAPM ermöglicht eine lineare Abkehr davon mithilfe von Staatsanleihen oder Derivaten, während das Multi-Faktor-Modell sowohl eine lineare als auch eine nichtlineare Abkehr vom Faktor-Exposure zulässt. Lektion vier: Der Marktfaktor wird im Rahmen des CAPM im Gleichgewicht eingepreist, während Multi-Faktor-Modelle das Gleichgewicht durch Risikoprämien ohne Arbitragebedingungen bestimmen. Lektion fünf: Beide Modelle beinhalten Beta im CAPM und Faktor-Exposure im Multi-Faktor-Modell. Schliesslich werden schlechte Zeiten im CAPM explizit als niedrige Marktrenditen definiert, während Multi-Faktor-Modelle darauf abzielen, in solchen Phasen attraktive Vermögenswerte zu identifizieren.

Lassen Sie uns nun stochastische Diskontfaktoren und ihre Beziehung zum CAPM- und Multi-Faktor-Modell untersuchen. Um dieses Konzept zu veranschaulichen, verwenden wir eine Wetteranalogie. Stellen Sie sich vor, mein Cousin und ich wohnen 20 Minuten voneinander entfernt und wir diskutieren oft über das Wetter. Wenn es ein bewölkter Tag ist, könnte einer von uns sagen: „Es nieselt nur“, während der andere ausruft: „Es regnet in Strömen!“ In dieser Analogie stellt der bewölkte Tag das Marktportfolio im CAPM dar, während die Regenwolken die zusätzlichen Faktoren symbolisieren, die unsere Fähigkeit zur Verwaltung unserer Werften beeinflussen. In ähnlicher Weise stellen stochastische Abzinsungsfaktoren die Exposition gegenüber verschiedenen Risikofaktoren oder Wirtschaftszuständen dar, ähnlich wie bei bestimmten Regenwolken, die verschiedene Regionen betreffen.

Die Preisgestaltung eines Vermögenswerts hängt von den Erwartungen des stochastischen Abzinsungsfaktors (m) multipliziert mit der Auszahlung ab. Wenn ich Ihnen beispielsweise verspreche, Ihnen in einem Jahr 100 US-Dollar zu zahlen, hängt der Preis, den Sie heute zahlen würden, davon ab, was ich mit diesem Geld vorhabe. Wenn ich in eine risikofreie Staatsanleihe investiere, zahlen Sie mir heute möglicherweise 97 US-Dollar, sofern keine Transaktionskosten anfallen. Wenn ich jedoch in ein Aktienwertpapier mit hohem Risiko investiere, zahlen Sie mir unter Berücksichtigung des damit verbundenen Risikos möglicherweise einen niedrigeren Betrag, beispielsweise 60 oder 40 US-Dollar. Wenn ich alternativ in Las Vegas spielen würde, könnte der zu zahlende Betrag je nach Gewinn- oder Verlustwahrscheinlichkeit erheblich variieren. Daher hängt der stochastische Abzinsungsfaktor von verschiedenen Faktoren ab.

Darüber hinaus sind die Preiskerne, dargestellt durch die stochastischen Abzinsungsfaktoren, nicht konstant, sondern dynamisch. Sie ändern sich im Laufe der Zeit, insbesondere bei Eventualforderungen und Wertpapieren mit eingebetteten Optionen. Diese dynamische Natur ermöglicht die genaue Preisgestaltung von Wertpapieren mit Eventualverbindlichkeiten.

Abschließend besagt die Hypothese eines effizienten Marktes von Eugene Fama, dass der Preis eines Finanztitels wie Apple oder Johnson & Johnson alle auf dem Markt verfügbaren Informationen vollständig widerspiegelt. Dies bedeutet, dass es unmöglich ist, durch aktiven Handel oder die Auswahl einzelner Wertpapiere dauerhaft eine Outperformance gegenüber dem Markt zu erzielen.

Allerdings hat sich das Konzept effizienter Märkte im Laufe der Zeit weiterentwickelt und es ist mittlerweile allgemein anerkannt, dass Märkte nicht immer vollkommen effizient sind. Behavioral-Finance-Studien haben gezeigt, dass Anleger nicht immer rational sind und von psychologischen Vorurteilen beeinflusst werden können, was zu Marktineffizienzen führt und qualifizierten Anlegern die Möglichkeit gibt, Überrenditen zu erzielen.

Darüber hinaus hat die Entwicklung von Multifaktormodellen zu einem differenzierteren Verständnis der Vermögenspreisgestaltung geführt. Diese Modelle gehen über das Ein-Faktor-CAPM hinaus und berücksichtigen mehrere Risikofaktoren, die Schwankungen in der Vermögensrendite erklären können. Faktoren wie Unternehmensgröße, Wert, Dynamik und Rentabilität wurden als wesentliche Renditetreiber identifiziert.

Durch die Einbeziehung dieser Faktoren in die Preismodelle können Anleger einen umfassenderen Überblick über die Vermögensbewertung gewinnen und fundiertere Anlageentscheidungen treffen. Beispielsweise kann eine Aktie mit einem hohen Wertfaktor als unterbewertet gelten und eine attraktive Anlagemöglichkeit darstellen.

Es ist erwähnenswert, dass Multi-Faktor-Modelle zwar an Beliebtheit gewonnen haben, sie jedoch nicht ohne Herausforderungen sind. Um zu bestimmen, welche Faktoren einbezogen werden sollen und wie sie zu gewichten sind, ist eine sorgfältige Analyse und Überlegung erforderlich. Darüber hinaus kann die Leistung von Multi-Faktor-Modellen im Laufe der Zeit schwanken und Faktoren, die in der Vergangenheit erfolgreich waren, werden möglicherweise in Zukunft keine Überrenditen mehr liefern.

Insgesamt bietet dieses Kapitel zur Faktortheorie Einblicke in die Bedeutung der Identifizierung und des Verständnisses gemeinsamer Faktoren, die die Vermögenspreise und die Portfolioleistung beeinflussen. Es unterstreicht die Bedeutung des systematischen Risikos und des Beta bei der Bestimmung der erwarteten Renditen und bietet eine Grundlage für ein effektives Anlagemanagement auf der Grundlage einer Faktoranalyse.

Zusammenfassend lässt sich sagen, dass die Markteffizienzhypothese zwar den Grundstein für das Verständnis der Markteffizienz gelegt hat, die Realität jedoch so aussieht, dass Märkte nicht immer vollkommen effizient sind. Das Aufkommen von Multi-Faktor-Modellen und Erkenntnisse aus der Verhaltensfinanzierung haben zu einer differenzierteren Perspektive auf die Preisgestaltung von Vermögenswerten geführt. Anleger können diese Modelle und Faktoren nutzen, um ihr Verständnis der Marktdynamik zu verbessern und möglicherweise Chancen für höhere Renditen zu erkennen. Es ist jedoch wichtig, die mit diesen Modellen verbundenen Einschränkungen und Herausforderungen zu erkennen und bei ihrer Anwendung Vorsicht walten zu lassen.

Factor Theory (FRM Part 2 2023 – Book 5 – Chapter 1)
Factor Theory (FRM Part 2 2023 – Book 5 – Chapter 1)
  • 2020.12.02
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Faktoren (FRM Teil 2 2023 – Buch 5 – Kapitel 2)



Faktoren (FRM Teil 2 2023 – Buch 5 – Kapitel 2)

In Teil 2, Buch 5 des Risikomanagements und des Investmentmanagements gibt es ein Kapitel über Faktoren. In diesem Buch geht es um das Investmentmanagement und seinen Zusammenhang mit der Portfolioauswahl anhand von Faktoren. Um dieses Konzept zu veranschaulichen, betrachten wir ein Beispiel, in dem Sie Ihr alternatives Anlageportfolio aufbauen und sich dabei speziell auf die Investition in Wein für Ihren Weinkeller konzentrieren.

Um die besten Weinflaschen für Ihr Portfolio zu ermitteln, beauftragen Sie drei Weinverkoster, darunter auch Sie selbst. Als gelegentlicher Weinkonsument, der zum Abendessen ein Glas genießt, stellen Ihre Weinempfehlungen eine Perspektive dar. Ein anderer Verkoster, der als Ihr Studienfreund bezeichnet wird, ist dafür bekannt, schnell und ohne große Überlegung Wein zu trinken. Der dritte Verkoster schließlich ist ein Weinkenner, der das Aroma, den Geschmack und andere Faktoren sorgfältig analysiert.

Beim Aufbau Ihres Portfolios haben Sie die Möglichkeit, alle von den drei Personen verkosteten Weine einzubeziehen und so das Marktportfolio zu bilden. Vorteilhafter wäre es jedoch, wenn man die Empfehlungen des Weinkenners stark gewichten könnte, da dieser den Faktor der Weinverkostungskompetenz besitzt. Beispielsweise könnten Sie Ihren Empfehlungen eine Gewichtung von etwa 5 % und den Empfehlungen des Weinkenners eine Gewichtung von 94,9 % zuweisen. Im Gegensatz dazu haben die Empfehlungen Ihres Studienfreundes möglicherweise weniger Gewicht oder werden sogar ganz ignoriert.

Indem Sie die relevanten Faktoren identifizieren, beispielsweise die Expertise des Kenners, und die Beiträge entsprechend gewichten, können Sie ein Portfolio konstruieren, das das Marktportfolio übertrifft. Dieser Prozess steht im Einklang mit den Zielen des Investmentmanagements, bei denen es darum geht, Faktoren zu identifizieren, die zu einer überlegenen Portfolioperformance beitragen.

Verbinden wir nun dieses Beispiel mit den im Buch dargelegten Lernzielen. Zu den Lernzielen gehören das Verständnis des Prozesses des Value-Investings, der Auswirkungen makroökonomischer Risikofaktoren auf die Wertentwicklung von Vermögenswerten und Portfolios, die Reduzierung des Volatilitätsrisikos und die Erforschung von Modellen wie dem Fama-French-Modell, Value und Momentum.

Beim Value-Investing wird der innere Wert von Aktien durch eine Fundamentalanalyse ermittelt und mit ihrem Marktwert verglichen. Aktien, deren Preise deutlich unter ihrem inneren Wert liegen, gelten als unterbewertet, während Aktien mit höheren Preisen potenziell überbewertet sind. Der innere Wert stellt den wahren Wert einer Aktie dar, der von seinem Marktwert abweichen kann, der durch Launen und Torheiten des Marktes beeinflusst wird.

Um den inneren Wert zu bestimmen, können Sie verschiedene Faktoren analysieren, wie zum Beispiel Bilanzen, Kapitalflussrechnungen, Führungsqualitäten, zukünftige Dividenden, freie Cashflows oder operative Cashflows. Durch den Vergleich des inneren Werts mit dem Marktwert können Sie unterbewertete Aktien identifizieren und fundierte Anlageentscheidungen treffen. Es ist jedoch wichtig zu beachten, dass der Markt den Preis irgendwann anpassen kann, um ihn an den inneren Wert anzupassen, sofern rationale Anleger und effiziente Märkte vorausgesetzt werden. Tatsächlich können menschliche Emotionen und Marktineffizienzen die Aktienkurse beeinflussen.

Im Kontext makroökonomischer Risikofaktoren spielt das Wirtschaftswachstum eine entscheidende Rolle. In Zeiten niedrigen oder negativen Wirtschaftswachstums schneiden risikoreiche Vermögenswerte wie Aktien im Allgemeinen schlechter ab, während sicherere Vermögenswerte wie Staatsanleihen tendenziell eine Outperformance erzielen. Risikoscheue Anleger, die in Zeiten eines wirtschaftlichen Abschwungs keine nennenswerten Verluste verkraften können, bevorzugen möglicherweise eine Anlage in Anleihen. Jüngere Anleger mit einem längeren Anlagehorizont werden oft dazu ermutigt, in Aktien zu investieren, da sie kurzfristige Verluste verkraften und von langfristigen Gewinnen profitieren können.

Empirische Erkenntnisse deuten darauf hin, dass Value-Aktien im Laufe der Zeit dazu neigen, Wachstumsaktien zu übertreffen. Forscher argumentieren, dass es einen Wertaufschlag gibt, was auf eine Belohnung für Anleger hinweist, die nach unterbewerteten Aktien suchen. Wirtschaftsfaktoren wie Inflation, Zinssätze, Veränderungen des BIP und Volatilität sind mit Risikoprämien verbunden. Durch die Berücksichtigung dieser Faktoren können Anleger ihre Portfolios entsprechend anpassen.

Das Lehrbuch enthält außerdem Tabellen, die die Performance verschiedener Anlageklassen während wirtschaftlicher Rezessionen in den USA darstellen. Es wird hervorgehoben, dass bestimmte Klassen wie Gold und Rohstoffe in diesen Zeiträumen tendenziell positive Durchschnittsrenditen aufweisen.

Unternehmen und Einzelpersonen wurden von verschiedenen Faktoren beeinflusst, die sich auf ihre Produktivität, ihre finanzielle Leistung und ihre Investitionsentscheidungen ausgewirkt haben. Ein Großereignis mit erheblichen Auswirkungen war der Ausbruch von COVID-19 Anfang 2020. Da die Wirtschaft geschlossen wurde, um die Ausbreitung des Virus einzudämmen, standen Unternehmen vor Herausforderungen bei der Erzielung von Einnahmen und Einzelpersonen litten unter finanziellen Unsicherheiten.

Die Auswirkungen der Pandemie zeigten sich in den Aktienkursen, die in den Monaten Februar und März 2020 einen deutlichen Rückgang erlebten. Der starke Rückgang der Aktienkurse war eine direkte Folge des wirtschaftlichen Stillstands und der Unsicherheiten rund um das Virus. Dieser Rückgang der Aktienkurse verdeutlichte die Anfälligkeit von Unternehmen und Einzelpersonen gegenüber externen Schocks.

Allerdings gab es inmitten der herausfordernden Zeiten auch Phasen steigender Produktivität. Im Spätsommer und Frühherbst 2020 kam es in den Vereinigten Staaten und anderen Teilen der Welt zu erheblichen Produktivitätssteigerungen. Diese Verbesserungen waren das Ergebnis der Anpassung an die neuen Umstände, die die Pandemie mit sich brachte, und der Suche nach innovativen Betriebsweisen. Obwohl die anfänglichen Auswirkungen auf die Produktivität negativ waren, führten die Widerstandsfähigkeit und Anpassungsfähigkeit von Unternehmen und Einzelpersonen zu späteren Verbesserungen.

Eine weitere unerwartete Folge der Pandemie war der Rückgang der erwarteten Geburtenrate in den Vereinigten Staaten im Jahr 2020. Entgegen anfänglichen Annahmen, dass das Daheimbleiben zu einem Anstieg der Geburtenzahlen führen würde, sank die Geburtenrate tatsächlich. Dieser demografische Wandel birgt makroökonomische Risiken, da sich ein erheblicher Teil der Bevölkerung dem Rentenalter nähert. Der Ruhestand von Arbeitnehmern verringert nicht nur die Gesamtproduktivität, sondern erfordert auch andere Arten von Investitionen und Portfolios, was sich auf die Finanzlandschaft auswirkt.

Ein weiterer Faktor, der sich im Laufe der Zeit verändert hat, ist das politische Risiko. Seit 1990 kam es zu einer Zunahme von Regulierungen und staatlichen Eingriffen in verschiedene Bereiche von Wirtschaft und Gesellschaft. Dieser Anstieg des politischen Risikos hat zu höheren Risikoprämien geführt, da sich Unternehmen und Einzelpersonen im sich ändernden regulatorischen Umfeld zurechtfinden. Die Auswirkungen politischer Entscheidungen und Richtlinien auf Finanzmärkte und Investitionsentscheidungen können nicht ignoriert werden.

Der Umgang mit dem Volatilitätsrisiko ist ein zentrales Anliegen für Anleger und Unternehmen. Ein Ansatz besteht darin, Investitionen in riskante Wertpapiere wie Aktien, Derivate oder festverzinsliche Wertpapiere zu vermeiden, wenn die Volatilität nicht tolerierbar ist. Alternativ können Anleger ihren Anteil an Anlagen in Anleihen erhöhen, die tendenziell weniger volatil sind. Allerdings ist es bei Konjunkturrückgängen möglicherweise nicht die optimale Lösung, sich ausschließlich auf Anleihen zu verlassen.

Um das Volatilitätsrisiko zu mindern und gleichzeitig in riskante Vermögenswerte zu investieren, können Anleger den Kauf von Schutzoptionen wie Put-Optionen in Betracht ziehen, die als Versicherung gegen potenzielle Verluste dienen. Die Wirksamkeit und Kosteneffizienz solcher Strategien erfordert jedoch eine sorgfältige Analyse. Für die Optimierung von Risikomanagementansätzen ist es von entscheidender Bedeutung, das richtige Gleichgewicht zwischen Grenzkosten und Grenznutzen zu finden.

Im Rahmen des Portfoliomanagements spielen Faktoren wie Größe und Wert eine wichtige Rolle. Eugene Fama und Kenneth French entwickelten das Fama-French-Modell, das das Capital Asset Pricing Model (CAPM) durch die Einbeziehung zusätzlicher Faktoren erweiterte. Das Modell umfasst den Marktfaktor, den Größenfaktor (SMB) und den Wertfaktor (HML), um die Risiko- und Renditemerkmale von Aktien besser zu erfassen. Es wurde festgestellt, dass diese Faktoren einen erheblichen Teil der Aktienrenditen erklären, was die Bedeutung der Berücksichtigung mehrerer Faktoren bei der Portfoliokonstruktion unterstreicht.

Beim Value-Investing geht es darum, Long-Positionen in Aktien mit im Vergleich zum Buchwert niedrigen Kursen einzugehen und Aktien mit hohen Kursen leerzuverkaufen. Diese Strategie basiert auf der Überlegung, dass Value-Aktien, die Phasen schlechter Performance erlebt haben, als Ausgleich höhere Renditen bieten können. Zur Erklärung der Wertprämie gibt es rationale und verhaltensbezogene Theorien. Rationale Theorien konzentrieren sich auf Risikofaktoren, die sich auf Value-Aktien auswirken, während Verhaltenstheorien Anlegervoreingenommenheiten wie Überextrapolation und Verlustaversion als Treiber für die Value-Prämie betrachten.

Momentum-Investitionen hingegen beruhen auf der Überzeugung, dass sich Aktien, die in letzter Zeit einen Kursanstieg verzeichnet haben, weiterhin gut entwickeln werden. Anleger können zu viel Vertrauen in die Gewinner entwickeln und das Vertrauen in die Verlierer verlieren, was zu einem Momentum-Effekt führt. Die Momentum-Investing-Strategie beinhaltet den Kauf von Aktien, die eine positive Kursdynamik gezeigt haben, und den Verkauf von Aktien, die eine negative Kursdynamik gezeigt haben.

Es gibt unterschiedliche Ansätze zur Umsetzung von Momentum-Strategien. Eine gängige Methode besteht darin, die Renditen einzelner Aktien über einen bestimmten Zeitraum, beispielsweise die letzten sechs bis zwölf Monate, zu berechnen und sie anhand ihrer relativen Wertentwicklung einzustufen. Die am höchsten bewerteten Aktien mit der höchsten positiven Dynamik werden dann für Investitionen ausgewählt, während die am schlechtesten bewerteten Aktien mit negativer Dynamik gemieden oder leerverkauft werden.

Momentum-Investitionen können sowohl durch rationale als auch durch Verhaltensfaktoren erklärt werden. Auf der rationalen Seite kann der Momentum-Effekt auf Marktineffizienzen oder eine Unterreaktion auf neue Informationen zurückgeführt werden. Es kann einige Zeit dauern, bis die Anleger neue Informationen vollständig in die Aktienkurse einfließen lassen, was zu einer anhaltenden Kursdynamik führt, da immer mehr Anleger über die Nachrichten informiert sind.

Verhaltenserklärungen deuten darauf hin, dass Anlegervoreingenommenheiten wie Herdenverhalten und der Dispositionseffekt zum Momentumeffekt beitragen. Herdenverhalten liegt vor, wenn Anleger der Masse folgen und Aktien kaufen, die sich gut entwickelt haben, was zu weiteren Preissteigerungen führt. Der Dispositionseffekt bezieht sich auf die Tendenz von Anlegern, an Verlustaktien festzuhalten und Gewinnaktien zu schnell zu verkaufen, was zu einer Kursdynamik führen kann.

Es hat sich gezeigt, dass sowohl Value- als auch Momentum-Investmentstrategien langfristig Überrenditen liefern. Allerdings gibt es bei diesen Strategien auch Phasen mit schlechter Performance, und ihr Erfolg kann je nach Marktbedingungen und den spezifischen Faktoren, die die Aktienrenditen zu einem bestimmten Zeitpunkt beeinflussen, variieren.

Beim Aufbau eines Anlageportfolios ist es wichtig, einen diversifizierten Ansatz zu berücksichtigen, der mehrere Faktoren berücksichtigt, darunter Größe, Wert und Dynamik. Durch die Diversifizierung über verschiedene Faktoren können Anleger möglicherweise die Auswirkungen einzelner Faktorschwankungen reduzieren und das Risiko-Rendite-Profil ihrer Portfolios verbessern.

Darüber hinaus ist es von entscheidender Bedeutung, das Portfolio regelmäßig zu überprüfen und neu auszubalancieren, um sicherzustellen, dass es mit den Zielen, der Risikotoleranz und den sich ändernden Marktbedingungen des Anlegers übereinstimmt. Bei der Neuausrichtung wird die Asset-Allokation des Portfolios durch den Kauf oder Verkauf von Vermögenswerten angepasst, um es wieder auf die gewünschten Zielgewichte zu bringen. Dies trägt dazu bei, die beabsichtigte Risikoexposition aufrechtzuerhalten und verhindert eine übermäßige Konzentration des Portfolios auf bestimmte Aktien oder Sektoren.

Zusammenfassend lässt sich sagen, dass das Management des Volatilitätsrisikos und die Berücksichtigung von Faktoren wie Größe, Wert und Momentum wichtige Aspekte des Portfoliomanagements sind. Anleger sollten bei der Umsetzung dieser Strategien ihre Risikotoleranz, Anlageziele und ihren Zeithorizont bewerten. Darüber hinaus kann es hilfreich sein, über Markttrends, Wirtschaftsindikatoren und geopolitische Entwicklungen informiert zu bleiben, um fundierte Investitionsentscheidungen zu treffen und sich in der sich ständig verändernden Finanzlandschaft zurechtzufinden.

Factors (FRM Part 2 2023 – Book 5 – Chapter 2)
Factors (FRM Part 2 2023 – Book 5 – Chapter 2)
  • 2020.12.04
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Alpha (und die risikoarme Anatomie) (FRM Teil 2 2023 – Buch 5 – Kapitel 3)


Alpha (und die risikoarme Anatomie) (FRM Teil 2 2023 – Buch 5 – Kapitel 3)

In diesem Kapitel mit dem Titel „Alpha und die Low-Risk-Anomalie“ befassen wir uns mit einer umfassenden Analyse der Leistungsmessung und Anlagestrategien. Das Kapitel zielt darauf ab, unser Verständnis von Alpha, Benchmark-Auswahl, Tracking Error, Information Ratio und Sharpe Ratio zu vertiefen und gleichzeitig das Vorhandensein der Niedrigrisikoanomalie auf den Finanzmärkten zu untersuchen.

Einführung:

Das Kapitel beginnt mit der Betonung der Bedeutung seines Titels und der Absicht, die darin enthaltenen Feinheiten zu untersuchen. Der Autor betont, wie wichtig ein gut gestalteter Kapiteltitel ist, um den Lesern einen wesentlichen Mehrwert zu vermitteln.

Alpha verstehen:

Das Konzept von Alpha als Leistungsmaß wird diskutiert und seine Beziehung zu einem Benchmark hervorgehoben. Die Analogie eines Golfspielers, der sich auf die Bilanz von Jack Nicklaus konzentriert, anstatt die Ergebnisse mit einem durchschnittlichen Golfspieler zu vergleichen, wird verwendet, um Alpha als Maß für die Leistung im Vergleich zu einem Benchmark zu veranschaulichen. Alpha gilt als entscheidende Kennzahl für die Bewertung der Anlageperformance.

Anomalien erforschen:

Im weiteren Verlauf des Kapitels werden Anomalien im Kontext der Hypothese effizienter Märkte erörtert. Anomalien stellen Abweichungen von der Hypothese dar, die darauf hindeutet, dass die Marktpreise alle relevanten Informationen widerspiegeln. Der Fokus liegt hier auf der Low-Risk-Anomalie, bei der Anlagen mit geringerem Risikoniveau risikoreichere Wertpapiere hinsichtlich der Rendite übertreffen.

Lernziele:

Das Kapitel beschreibt mehrere Lernziele und zeigt die Breite und Tiefe des Themas. Zu diesen Zielen gehören die Bewertung der Anomalie mit geringem Risiko sowie die Definition und Berechnung von Leistungsmetriken wie Alpha, Tracking Error, Information Ratio und Sharpe Ratio. Die Bedeutung der Benchmark-Auswahl und ihre Auswirkungen auf Alpha werden untersucht. Das Kapitel behandelt außerdem das Grundgesetz des aktiven Managements, die Informationsverhältnisanalyse, die Regressionsanalyse und die Rolle von Faktoren für die Anlageperformance. Es werden Beispiele aus der Praxis vorgestellt, wie die Leistungsanalyse von Warren Buffett und die Diskussion von Nichtlinearität und anderen Anomalien.

Enthüllung der Low-Risk-Anomalie:

Das Kapitel führt uns zurück ins Jahr 1964, als William Sharpe das Capital Asset Pricing Model (CAPM) einführte und eine lineare Beziehung zwischen erwarteten Portfoliorenditen und Beta herstellte. Empirische Erkenntnisse stellen diesen Zusammenhang jedoch in Frage und deuten darauf hin, dass Aktien mit hohem Beta tendenziell schlechter abschneiden als Aktien mit niedrigem Beta, selbst auf risikobereinigter Basis. Dieses Phänomen ist als Low-Risk-Anomalie bekannt und stellt die Annahmen der Hypothese effizienter Märkte in Frage.

Faktoren, die die Anomalie mit geringem Risiko beeinflussen:

Das Kapitel untersucht verschiedene Faktoren, die zum Fortbestehen der Anomalie mit geringem Risiko beitragen. Darin wird aufgezeigt, dass Leverage eine gängige Praxis auf den Finanzmärkten ist und wie Beschränkungen beim Zugang zu Leverage dazu führen können, dass Anleger nach Aktien mit hohem Beta suchen, deren Preise in die Höhe treiben und die risikobereinigten Renditen verringern. Agenturprobleme und individuelle Präferenzen für Aktien mit hohem Beta werden ebenfalls als Faktoren hervorgehoben, die zur Anomalie des geringen Risikos beitragen.

Alpha verstehen:

Das Kapitel bietet eine prägnante Definition von Alpha als der durchschnittlichen Rendite, die über einem Marktindex oder einer Benchmark liegt. Es wird betont, wie wichtig es ist, einen geeigneten Benchmark zur Bestimmung des Alpha auszuwählen. Es wird anerkannt, dass Alpha sowohl Anlagekompetenz als auch die zur Erstellung der Benchmark verwendeten Faktoren widerspiegelt, was die Bedeutung der Benchmark-Auswahl für die Bewertung der Anlageperformance unterstreicht.

Abschluss:

Das Kapitel schließt mit einer Zusammenfassung der wichtigsten Erkenntnisse und Ziele. Es verdeutlicht das komplexe Zusammenspiel zwischen Alpha, Benchmark-Auswahl und der Anomalie des geringen Risikos. Außerdem werden wichtige Konzepte zur Leistungsmessung wie Tracking Error, Information Ratio und Sharpe Ratio vorgestellt, die Möglichkeiten zur Bewertung risikobereinigter Renditen bieten. Beispiele aus der Praxis und die Diskussion von Nichtlinearität und anderen Anomalien bereichern das Verständnis des Themas zusätzlich.

Durch die Untersuchung dieser Konzepte und ihres Zusammenspiels zielt das Kapitel darauf ab, unser Verständnis von Alpha, Benchmark-Auswahl, Tracking Error, Information Ratio und Sharpe Ratio zu vertiefen. Außerdem werden Beispiele aus der Praxis vorgestellt, etwa die Leistungsanalyse von Warren Buffett und die Diskussion von Nichtlinearität und anderen Anomalien.

Um die Informationsquote abzuschätzen, müssen die Renditen des Vermögenswerts und der Benchmark über einen erheblichen Zeitraum berechnet werden, unabhängig davon, ob es sich um tägliche oder monatliche Renditen handelt. Diese Daten können mit Tools wie Excel-Tabellen verarbeitet werden, was die Berechnung von Alpha und Tracking Error ermöglicht. Für die effektive Durchführung dieser Analyse ist der Zugriff auf die notwendigen Daten unerlässlich.

Das Kapitel stellt das Grundgesetz des aktiven Managements vor, das von Grinhold Grenald entwickelt wurde. Obwohl die vorgestellte Formel eine Näherung darstellt und möglicherweise nicht genau ist, bietet sie wertvolle Einblicke in die Beziehung zwischen Alpha, Informationskoeffizient und Breite. Die Formel legt nahe, dass Portfoliomanager Alpha generieren, indem sie Wetten abschließen, die von ihrer Benchmark abweichen, und dass erfolgreiche Wetten tendenziell zu einem höheren Alpha führen. Das maximale Informationsverhältnis entspricht ungefähr dem Produkt aus dem Informationskoeffizienten und der Quadratwurzel der Anzahl der angenommenen Wetten.

Der Informationskoeffizient misst die Genauigkeit der Prognosen eines Managers im Verhältnis zu den tatsächlichen Renditen, während sich die Breite auf die Anzahl der handelbaren Wertpapiere und deren Handelshäufigkeit bezieht. Die Quadratwurzel der Breite wirkt als Nachteil für die Stichprobenziehung und sorgt für einen Ausgleich zwischen Genauigkeit und Kostenerwägungen.

Das Kapitel betont, dass die Produktivität eines aktiven Managers von seinem Qualifikationsniveau und der Häufigkeit abhängt, mit der er seine Fähigkeiten nutzt. Die Quadratwurzel der Breite legt nahe, dass Anleger fundierte Entscheidungen treffen oder häufig Geschäfte tätigen sollten, um ihre Rendite zu maximieren.

Ein weiterer wichtiger Punkt ist, dass zwei Manager mit demselben Qualifikationsniveau, aber unterschiedlicher Breite, wahrscheinlich unterschiedliche Leistungsergebnisse erzielen. Eine größere Breite führt im Allgemeinen zu einer besseren Leistung.

Zur Veranschaulichung dieses Konzepts wird eine Analogie zum Roulette vorgestellt. Vergleicht man einen Spieler, der einen Dollar für hundert Drehungen setzt, mit einem anderen Spieler, der hundert Dollar für eine Drehung setzt, ist das Risiko-Ertrags-Verhältnis unterschiedlich. Diese Analogie unterstreicht, wie wichtig es ist, sowohl das Qualifikationsniveau als auch die Häufigkeit des Handels zu berücksichtigen.

Es werden Annahmen zum Informationskoeffizienten getroffen. Beispielsweise führt eine Erhöhung des verwalteten Vermögens tendenziell zu einer Verringerung des Informationskoeffizienten, was zu einer Verschlechterung der Leistung führt. Wenn ein Fonds größer wird, wird es schwieriger, unterbewertete Aktien zu identifizieren, und selbst wenn sie gefunden werden, nimmt ihr Einfluss auf das Gesamtportfolio ab.

Die Annahme unabhängiger Geschäfte ist nicht ganz zutreffend, da häufig eine Korrelation zwischen Investitionen besteht. Wenn ein Manager beispielsweise in eine Aktie eines Versorgungsunternehmens investiert, ist es wahrscheinlich, dass er anschließend in weitere Aktien eines Versorgungsunternehmens investiert. Dieses Korrelationsmuster gilt in verschiedenen Studien.

In Erinnerung an frühere Diskussionen bezieht sich das Kapitel auf das Capital Asset Pricing Model (CAPM), das 1964 von William Sharpe eingeführt wurde. Das CAPM ist ein Ein-Faktor-Modell, das auf dem Marktportfolio basiert, wobei die erwartete Rendite eines einzelnen Vermögenswerts aus dem risikofreien besteht Zinssatz zuzüglich einer Komponente, die auf dem Marktverhalten basiert.

Beta wird als Maß für die systematische Risikosensitivität wieder eingeführt. Aktien mit niedrigem Beta weisen eine geringere Sensitivität auf, während Aktien mit hohem Beta eine höhere Sensitivität aufweisen.

Das Kapitel präsentiert Daten von Januar 1990 bis Mai 2012, um den Zusammenhang zwischen aktivem Portfoliomanagement und dem Informationsverhältnis zu analysieren. Die Daten zeigen, dass die Informationsquote tendenziell abnimmt, wenn die Anzahl der Wertpapiere im Portfolio steigt. Die Verwaltung einer größeren Anzahl von Wertpapieren wird anspruchsvoller, was zu einer geringeren Prognosegenauigkeit und Alpha-Generierung führt.

Auch der Einfluss von Transaktionskosten auf die Informationsquote wird untersucht. Höhere Transaktionskosten verringern die Informationsquote, was darauf hindeutet, dass die mit häufigem Handel verbundenen Kosten das vom Manager generierte potenzielle Alpha schmälern können.

Abschließend betont das Kapitel, wie wichtig es ist, beim aktiven Portfoliomanagement sowohl das Qualifikationsniveau als auch die Breite zu berücksichtigen. Erfahrene Manager, die genaue Prognosen erstellen, können Alpha generieren, doch die Breite ihres Portfolios und die damit verbundenen Transaktionskosten spielen eine entscheidende Rolle bei der Bestimmung der Gesamteffektivität ihrer Strategie.

Insgesamt bietet dieses Kapitel Einblicke in die Messung und Interpretation von Alpha, der Low-Risk-Anomalie, und deren Auswirkungen auf das Risikomanagement und Anlagestrategien. Es ermutigt die Leser, die Benchmark-Auswahl sorgfältig zu prüfen, Tracking Error und Informationsverhältnisse zu verstehen und die risikobereinigte Leistung anhand von Kennzahlen wie der Sharpe Ratio zu bewerten. Durch das Verständnis dieser Konzepte und ihres Zusammenspiels können Anleger fundiertere Entscheidungen bei der Auswahl und Bewertung aktiver Portfoliomanager treffen.

Alpha (and the Low-Risk Anatomy) (FRM Part 2 2023 – Book 5 – Chapter 3)
Alpha (and the Low-Risk Anatomy) (FRM Part 2 2023 – Book 5 – Chapter 3)
  • 2020.12.16
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Risikoüberwachung und Leistungsmessung (FRM Teil 2 2023 – Buch 5 – Kapitel 7)



Risikoüberwachung und Leistungsmessung (FRM Teil 2 2023 – Buch 5 – Kapitel 7)

Wir gehen von den vorherigen, von einem Wissenschaftler verfassten Kapiteln zu diesem Kapitel über, das von Praktikern verfasst wurde. In diesem Kapitel konzentrieren wir uns auf die Risikoüberwachung und Performancemessung im Kontext des Investmentmanagements. Obwohl es einige Überschneidungen mit den in den vorherigen Kapiteln behandelten Themen gibt, werden wir uns eingehender mit bestimmten Bereichen wie Value at Risk, Risikoplanung, Risikobudgetierung, Risikobewusstsein, Liquiditätsdauerstatistik, Alpha- und Benchmark-Analyse sowie der Rolle des Chefs befassen Risikobeauftragter.

Lernziele:
Bevor wir uns mit dem Kapitel befassen, werfen wir einen Blick auf die Lernziele, die einen Überblick darüber geben, was wir behandeln werden. Zu diesen Zielen gehören:

  • Value at Risk: Wir haben dieses Konzept in der Vergangenheit ausführlich diskutiert. Es bezieht sich auf den maximalen potenziellen Verlust mit einem bestimmten Vertrauensniveau über einen bestimmten Zeitraum. Wir werden dieses Thema noch einmal aufgreifen.
  • Risikoplanung, Risikobudgetierung und Risikoüberwachung: Diese Bereiche ähneln früheren Diskussionen zum Risikomanagement. Wir werden untersuchen, wie sie mit dem gesamten Risikomanagementrahmen zusammenhängen.
  • Risikobewusstsein: Dieses Thema wurde in früheren Kapiteln kurz angesprochen, als es um die Risikokultur und die Rolle des Chief Risk Officer ging. Wir werden in diesem Kapitel tiefer darauf eingehen.
  • Statistik zur Liquiditätsdauer: Dies ist ein neues Thema, das wir vorstellen werden. Der Schwerpunkt liegt auf der Messung des Liquiditätsrisikos, das mit verschiedenen Anlagen verbunden ist.
  • Alpha und Benchmark: Wir werden diese Konzepte erneut betrachten und möglicherweise auf die Arbeit von William Sharpe verweisen. Dadurch werden weitere Erkenntnisse zur Leistungsmessung gewonnen.

Kapitelübersicht:
Dieses Kapitel ist im Vergleich zu den letzten relativ kürzer, daher wird es wahrscheinlich weniger Zeit in Anspruch nehmen, es abzudecken. Beginnen wir mit der Überprüfung des Value at Risk und des Tracking Error. Unter Value at Risk versteht man den größten potenziellen Verlust, den ein Unternehmen mit einem bestimmten Maß an Vertrauen über einen bestimmten Zeitraum erleiden könnte. Andererseits misst der Tracking Error die Abweichung zwischen den Renditen eines einzelnen Portfolios und seiner Benchmark. Beide Konzepte nutzen kritische Werte aus der Z-Tabelle und spielen eine entscheidende Rolle bei der Kapitalallokation und der Bestimmung des Spielraums des Managers im Hinblick auf die Benchmark.

Value at Risk hilft Managern bei der Kapitalaufteilung auf Vermögenswerte unter Berücksichtigung von Faktoren wie dem Grenzwert des Risikos und dem inkrementellen Wert des Risikos. In den vorherigen Kapiteln haben wir optimale Gewichtungen und Formeln besprochen, die bei der Bestimmung dieser Gewichtungen helfen. Vielmehr wird der Tracking Error verwendet, um die Flexibilität des Managers bei Abweichungen von der Benchmark zu bestimmen. Aktive Manager zielen darauf ab, die Benchmark durch Wertpapierauswahl und Vermögensallokation zu übertreffen, die durch Attributionsanalyse zusammengefasst werden können.

Der Risikomanagementprozess umfasst drei wesentliche Säulen: Risikoplanung, Risikobudgetierung und Risikoüberwachung. Zur Risikoplanung gehören die Festlegung erwarteter Rendite- und Volatilitätsniveaus, die Beratung mit dem Chief Risk Officer und dem Vorstand zur Festlegung akzeptabler Value-at-Risk- und Tracking-Error-Werte sowie die Einrichtung eines Prozesses für die Kapitalallokation. Darüber hinaus geht es bei der Risikoplanung darum, zwischen Ereignissen zu unterscheiden, die einen regulären Betriebsschaden auslösen, und solchen, die einen schwerwiegenden Schaden verursachen. Die Risikobudgetierung fungiert als sekundäre Bewertungsebene für jedes Silo oder jede Geschäftseinheit und berücksichtigt das Risiko ihrer Aktivitäten. Ziel ist es, die Rendite zu maximieren und gleichzeitig das Gesamtrisiko des Portfolios auf ein Minimum zu beschränken, was zu einer optimalen Vermögensallokation führt.

Die Risikoüberwachung ist von entscheidender Bedeutung für die Bewertung der Wirksamkeit von Risikomanagementpraktiken. Dabei werden geplante Maßnahmen mit tatsächlichen Ergebnissen verglichen, ähnlich wie bei der Ergebnisbewertung in einem Bildungsumfeld. Ungewöhnliche Abweichungen und Überschreitungen von Risikolimits müssen zeitnah erkannt werden, um rechtzeitige Korrekturmaßnahmen sicherzustellen. Für eine effektive Risikoüberwachung können verschiedene Analysetechniken wie Trendanalyse und Vergleichsanalyse eingesetzt werden.

Fazit: Dieses Kapitel zur Risikoüberwachung und Erfolgsmessung liefert praktische Einblicke in das Management von Anlagerisiken. Es behandelt wesentliche Themen wie Value at Risk, Risikoplanung, Risikobudgetierung, Risikobewusstsein, Liquiditätsdauerstatistik, Alpha- und Benchmark-Analyse sowie die Bedeutung der Risikoüberwachung.

Die Risikoüberwachung ist von entscheidender Bedeutung, um etwaige Abweichungen vom Risikobudget oder vorgegebenen Risikolimits zu erkennen. Dabei wird die Performance des Portfolios regelmäßig bewertet und mit den erwarteten Ergebnissen verglichen. Dadurch können Risikomanager ungewöhnliche Abweichungen oder unerwartete Ergebnisse erkennen, die möglicherweise Aufmerksamkeit oder Anpassungen erfordern.

Die Trendanalyse ist ein Ansatz zur Risikoüberwachung. Durch die Untersuchung historischer Daten und die Beobachtung von Mustern im Zeitverlauf können Risikomanager Trends in der Portfolio-Performance und Risikokennzahlen erkennen. Dies hilft dabei, das Verhalten des Portfolios zu verstehen und seine Übereinstimmung mit dem Risikobudget zu bewerten.

Die vergleichende Analyse ist ein weiteres wertvolles Instrument der Risikoüberwachung. Dabei wird die Performance des Portfolios mit relevanten Benchmarks oder Mitbewerbern verglichen. Durch die Beurteilung der relativen Performance des Portfolios können Risikomanager Einblicke in dessen Stärken und Schwächen gewinnen und beurteilen, ob es seine Ziele erreicht.

Zur Risikoüberwachung gehört auch die Verfolgung und Bewertung wichtiger Risikoindikatoren (KRIs) und Leistungskennzahlen. KRIs sind spezifische Maßnahmen, die frühzeitige Warnsignale für potenzielle Risiken oder Abweichungen vom Risikobudget liefern. Zu diesen Indikatoren können Volatilitätsniveaus, Value at Risk (VaR), Tracking Error, Liquiditätskennzahlen und andere relevante Kennzahlen gehören. Durch die regelmäßige Überwachung dieser Indikatoren können Risikomanager aufkommende Risiken oder Abweichungen proaktiv erkennen und angehen.

Darüber hinaus umfasst die Risikoüberwachung die Überprüfung und Analyse von Risikoberichten und Risiko-Dashboards. Diese Berichte bieten einen umfassenden Überblick über das Risikoprofil, die Performance und die Einhaltung der Risikolimits des Portfolios. Risiko-Dashboards, oft visuell dargestellt, bieten einen Überblick über die Risikokennzahlen des Portfolios und heben alle Problembereiche hervor. Die regelmäßige Überprüfung dieser Berichte und Dashboards trägt dazu bei, Transparenz, Verantwortlichkeit und fundierte Entscheidungsfindung im Hinblick auf das Risikomanagement aufrechtzuerhalten.

Zusammenfassend lässt sich sagen, dass die Risikoüberwachung eine entscheidende Rolle im Risikomanagementprozess spielt. Dazu gehört die kontinuierliche Bewertung der Portfolioleistung, der Vergleich mit vorgegebenen Zielen und Benchmarks, die Verfolgung wichtiger Risikoindikatoren sowie die Überprüfung von Risikoberichten und Dashboards. Durch sorgfältige Risikoüberwachung können Praktiker Abweichungen oder neu auftretende Risiken umgehend erkennen und beheben und so sicherstellen, dass das Portfolio weiterhin mit dem Risikobudget und den Risikozielen übereinstimmt.

Risk Monitoring and Performance Measurement (FRM Part 2 2023 – Book 5 – Chapter 7)
Risk Monitoring and Performance Measurement (FRM Part 2 2023 – Book 5 – Chapter 7)
  • 2020.12.26
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...
 

Hedgefonds (FRM Teil 2 2023 – Buch 5 – Kapitel 9)



Hedgefonds (FRM Teil 2 2023 – Buch 5 – Kapitel 9)

In Teil zwei, Buch fünf des Handbuchs zum Risikomanagement und Investmentmanagement ist ein Kapitel über Hedgefonds von drei renommierten Wissenschaftlern verfasst, die als Experten in der Finanzforschung gelten. Diese Wissenschaftler haben eine starke Veröffentlichungsbilanz in erstklassigen Fachzeitschriften vorzuweisen, fungierten als Zeitschriftenherausgeber und erhielten prestigeträchtige Auszeichnungen für ihre außergewöhnliche Arbeit. Ziel des Kapitels ist es, umfassende Informationen über Hedgefonds auf eine Weise bereitzustellen, die einem breiten Leserkreis zugänglich ist, ohne sich mit komplexen mathematischen Konzepten zu befassen.

Das Kapitel beginnt mit der Vorstellung von Hedgefonds als aktiv verwalteten alternativen Anlagen. Es wird hervorgehoben, dass sich Hedgefonds von traditionellen Anlageklassen wie Bargeld, festverzinslichen Wertpapieren und Aktien dadurch unterscheiden, dass sie in unkonventionelle Vermögenswerte investieren. Das Kapitel stellt potenzielle Anlageoptionen vor, darunter Startup-Unternehmen, Technologieaktien, Gold, Dachfonds und ausländische Staatsanleihen.

Ein bemerkenswerter Unterschied zwischen Hedge-Fonds und Investmentfonds besteht darin, dass Hedge-Fonds akkreditierte Anleger mit einem erheblichen Kapitalbetrag, typischerweise in der Größenordnung von Millionen Dollar, zur Teilnahme benötigen. Diese ausgewählte Gruppe von Anlegern hat häufig andere Risikoeinstellungen und Renditeerwartungen als die breite Öffentlichkeit. Hedgefonds-Manager haben Zugriff auf eine breite Palette von Strategien, die herkömmlichen Investmentfondsmanagern nicht zur Verfügung stehen, was ihnen eine größere Flexibilität bei ihren Anlageentscheidungen verschafft.

Transparenz wird als ein Merkmal von Hedgefonds hervorgehoben, das sowohl ein Nachteil als auch ein Vorteil sein kann. Im Gegensatz zu herkömmlichen Anlageinstrumenten bieten Hedgefonds eine begrenzte öffentliche Offenlegung ihrer Strategien an. Dieser Mangel an Transparenz kann zwar als Nachteil angesehen werden, ermöglicht es Hedgefonds-Managern jedoch, ihre Anlagestrategien vertraulich zu behandeln, wodurch andere Manager daran gehindert werden, ihren Ansatz zu wiederholen, was möglicherweise ihre Rentabilität verringert.

In dem Kapitel wird der Einsatz hoher Hebelwirkung bei Hedgefonds erörtert, vor allem durch den Einsatz derivativer Wertpapiere und die Aufnahme von Fremdkapital für Arbitragemöglichkeiten. Dieser risikoreiche Ansatz kann über längere Zeiträume zu erheblichen Verlusten führen, was die Bedeutung des Risikomanagements in der Hedgefondsbranche unterstreicht.

Die von Hedgefonds-Managern üblicherweise verwendete Gebührenstruktur, bekannt als „2 und 20“, wird in diesem Kapitel ebenfalls behandelt. Diese Struktur beinhaltet eine Verwaltungsgebühr von 2 %, die auf der Größe des Fonds basiert, und eine Performancegebühr von 20 %, die auf den erzielten Gewinnen berechnet wird. Die Gebührenvereinbarung hat das Potenzial, den Hedgefonds-Managern unabhängig von ihrer Leistung erhebliche Einnahmen zu verschaffen.

Im Vergleich zu Investmentfondsmanagern verfügen Hedgefondsmanager über einen deutlich größeren Anlagespielraum. Manager von Investmentfonds sind häufig mit Einschränkungen bei der Auswahl von Vermögenswerten, Leerverkäufen, Margenhandel und Hebelwirkung konfrontiert, einschließlich der Verwendung derivativer Wertpapiere. Im Gegensatz dazu haben Hedgefonds-Manager in diesen Aspekten mehr Freiheiten und können so ein breiteres Spektrum an Anlagemöglichkeiten erkunden.

Das Kapitel betont verschiedene Vorurteile im Zusammenhang mit Hedgefonds und ihren Datenbanken. Wenn nur erfolgreiche Hedgefonds in die Datenbank aufgenommen werden, entsteht ein Survivorship-Bias, der zu einer Überschätzung der Branchenleistung führt. Unter Instant History Bias versteht man die Inkonsistenz zwischen dem Zeitpunkt der Leistungsberichterstattung und der tatsächlich erzielten Leistung. Berichterstattungs- und Selbstauswahlverzerrungen treten auf, wenn Fonds ihre Leistung freiwillig an kommerzielle Datenbanken melden, was zu potenziellen Inkonsistenzen in den Daten führen kann. Der Glättungsfehler ergibt sich aus der Schwierigkeit, die Rendite illiquider Vermögenswerte genau abzuschätzen, was zu geglätteten Leistungszahlen führt.

Die Entwicklung von Hedgefonds-Datenbanken wird diskutiert, wobei auf die bedeutende Veränderung hingewiesen wird, die 1994 mit der Einrichtung kommerzieller Datenbanken stattfand. In dieser Zeit entstanden auch bekannte Hedgefonds wie Long-Term Capital Management, die risikoreiche Strategien verfolgten und ein erhebliches Wachstum verzeichneten, bevor sie schließlich zusammenbrachen. In den frühen 2000er Jahren übertrafen Hedgefonds den S&P 500-Index, was zu einem sprunghaften Anstieg der Mittelzuflüsse und einem anschließenden Anstieg der Zahl der Hedgefonds und des verwalteten Vermögens führte. Institutionelle Anleger begannen, ihre Portfolios in Hedgefonds zu investieren, weil sie von der Aussicht auf höhere Renditen angezogen wurden.

Die Konzepte von Alpha und Beta werden in diesem Kapitel vorgestellt. Beta stellt das systematische Risiko dar und misst die Sensitivität einer Anlage gegenüber Marktbewegungen. Ein Beta von 1,0 weist auf das gleiche Risikoniveau wie der Gesamtmarkt hin. Alpha stellt die von einem Portfolio oder einer Anlagestrategie erzielte Mehrrendite dar, die über das hinausgeht, was aufgrund seines Betas zu erwarten wäre. Alpha wird oft als Maß für die Fähigkeit des Managers angesehen, Renditen zu erwirtschaften.

Hedgefonds-Manager zielen darauf ab, durch den Einsatz verschiedener Anlagestrategien wie Long/Short Equity, Event-Driven, Global Macro und Relative Value ein positives Alpha zu generieren. Jede Strategie hat ihre einzigartigen Merkmale und erfordert einen anderen Ansatz für das Risikomanagement. Bei Long/Short-Aktienstrategien geht es beispielsweise darum, sowohl Long- als auch Short-Positionen in Aktien einzugehen, um sowohl von steigenden als auch von fallenden Kursen zu profitieren. Ereignisgesteuerte Strategien konzentrieren sich auf bestimmte Unternehmensereignisse, während globale Makrostrategien das Einnehmen von Positionen auf der Grundlage makroökonomischer Trends und geopolitischer Entwicklungen beinhalten. Relative-Value-Strategien zielen darauf ab, Preisunterschiede zwischen verwandten Wertpapieren auszunutzen.

Das Kapitel befasst sich auch mit den Herausforderungen und Einschränkungen, die mit der Leistungsbewertung von Hedgefonds verbunden sind. Der Mangel an Transparenz bei Hedgefonds macht es schwierig, ihre Leistung genau zu messen, und herkömmliche Leistungskennzahlen wie Sharpe Ratio und Information Ratio geben möglicherweise nicht das vollständige Bild wieder. Forscher haben alternative Messgrößen wie die Omega-Quote und Drawdown-basierte Kennzahlen entwickelt, um die Leistung und das Risiko von Hedgefonds besser bewerten zu können.

Darüber hinaus betont das Kapitel die Bedeutung der Sorgfaltspflicht bei der Auswahl von Hedgefonds. Anleger müssen die Anlagestrategie eines Fonds, die Risikomanagementpraktiken, die historische Performance sowie die Erfahrung und Erfolgsbilanz des Fondsmanagers gründlich bewerten. Eine ordnungsgemäße Due-Diligence-Prüfung hilft Anlegern, Fonds zu identifizieren, die ihrer Risikobereitschaft und ihren Anlagezielen entsprechen.

Das Kapitel schließt mit der Erörterung der Dynamik der Finanzwelt, an der verschiedene Einheiten wie Regierungen, Zentralbanken und Politiker beteiligt sind, die jeweils ihre eigenen Gedanken und Absichten in ihre Politik einbringen. Diese Dynamik erfordert, dass globale Makrostrategen nicht nur über Fachwissen in der Makroökonomie, sondern auch in der Politik verfügen, um die sich ändernden Paradigmen der Zentralbanker vorherzusagen. Managed-Futures-Strategien und notleidende festverzinsliche Wertpapiere werden als zwei spezifische Ansätze innerhalb der Hedge-Fonds-Branche dargestellt, die jeweils spezielles Wissen, Forschung und Analyse erfordern, um Chancen effektiv zu identifizieren und zu nutzen.

Insgesamt bietet das Kapitel einen umfassenden Überblick über Hedgefonds und deckt deren Merkmale, Anlagestrategien, Gebührenstruktur, Leistungsbewertung und Herausforderungen ab. Es betont die einzigartigen Merkmale und Risiken, die mit Hedgefonds verbunden sind, und unterstreicht die Bedeutung von Risikomanagement und Due Diligence für Anleger, die diese alternativen Anlageinstrumente in Betracht ziehen.

Hedge Funds (FRM Part 2 2023 – Book 5 – Chapter 9)
Hedge Funds (FRM Part 2 2023 – Book 5 – Chapter 9)
  • 2020.12.28
  • www.youtube.com
For FRM (Part I & Part II) video lessons, study notes, question banks, mock exams, and formula sheets covering all chapters of the FRM syllabus, click on the...