Quantitativer Handel - Seite 11

 

6. Regressionsanalyse



6. Regressionsanalyse

In diesem umfassenden Video befassen wir uns mit dem Thema Regressionsanalyse und untersuchen ihre Bedeutung für die statistische Modellierung. Die lineare Regression steht im Mittelpunkt, wenn wir ihre Ziele, den Aufbau des linearen Modells und den Prozess der Anpassung eines Regressionsmodells besprechen. Um eine solide Grundlage zu gewährleisten, erläutern wir zunächst die Annahmen, die der Verteilung der Residuen zugrunde liegen, einschließlich der bekannten Gauß-Markov-Annahmen. Darüber hinaus führen wir das verallgemeinerte Gauß-Markov-Theorem ein, das eine Methode zur Schätzung der Kovarianzmatrix in der Regressionsanalyse bereitstellt.

Wir betonen, wie wichtig es ist, subjektive Informationen in die statistische Modellierung einzubeziehen und unvollständige oder fehlende Daten zu berücksichtigen. Die statistische Modellierung sollte auf den spezifischen zu analysierenden Prozess zugeschnitten sein, und wir warnen davor, blind eine einfache lineare Regression auf alle Probleme anzuwenden. Die gewöhnliche Kleinste-Quadrate-Schätzung für Beta wird zusammen mit den Normalisierungsgleichungen, der Hutmatrix und dem Gauß-Markov-Theorem zur Schätzung von Regressionsparametern erläutert. Wir decken auch Regressionsmodelle mit Kovarianzen ungleich Null zwischen Komponenten ab, was einen flexibleren und realistischeren Ansatz ermöglicht.

Um unser Verständnis weiter zu erweitern, untersuchen wir das Konzept multivariater Normalverteilungen und ihre Rolle bei der Lösung der Verteilung des Kleinste-Quadrate-Schätzers unter der Annahme normalverteilter Residuen. Es werden Themen wie die momenterzeugende Funktion, die QR-Zerlegung und die Maximum-Likelihood-Schätzung behandelt. Wir erklären, wie die QR-Zerlegung die Schätzung der kleinsten Quadrate vereinfacht und präsentieren ein grundlegendes Ergebnis über normale lineare Regressionsmodelle. Wir definieren die Likelihood-Funktion und Maximum-Likelihood-Schätzungen und heben die Konsistenz zwischen den Prinzipien der kleinsten Quadrate und der Maximum-Likelihood in normalen linearen Regressionsmodellen hervor.

Im gesamten Video betonen wir die iterativen Schritte der Regressionsanalyse. Zu diesen Schritten gehören die Identifizierung der Antwortvariablen und erklärenden Variablen, die Festlegung von Annahmen, die Definition von Schätzkriterien, die Anwendung des gewählten Schätzers auf die Daten und die Validierung der Annahmen. Wir diskutieren auch, wie wichtig es ist, Annahmen zu überprüfen, Einflussdiagnosen durchzuführen und Ausreißer zu erkennen.

Zusammenfassend bietet dieses Video einen umfassenden Überblick über die Regressionsanalyse und behandelt Themen wie lineare Regression, Gauß-Markov-Annahmen, verallgemeinertes Gauß-Markov-Theorem, subjektive Informationen in der Modellierung, gewöhnliche Schätzung der kleinsten Quadrate, Hutmatrix, multivariate Normalverteilungen und Momentgenerierung Funktion, QR-Zerlegung und Maximum-Likelihood-Schätzung. Wenn Sie diese Konzepte und Techniken verstehen, sind Sie gut gerüstet, um die Regressionsanalyse in Angriff zu nehmen und sie effektiv in Ihren statistischen Modellierungsbemühungen einzusetzen.

  • 00:00:00 In diesem Abschnitt stellt der Professor das heute behandelte Thema der Regressionsanalyse und seine Bedeutung in der statistischen Modellierung vor. Die Methodik, insbesondere die lineare Regression, ist leistungsstark und wird häufig im Finanzwesen und anderen Disziplinen eingesetzt, die angewandte Statistik betreiben. Der Professor erörtert die verschiedenen Ziele der Regressionsanalyse, darunter das Extrahieren/Ausnutzen der Beziehung zwischen unabhängigen und abhängigen Variablen, Vorhersage, kausale Schlussfolgerung, Approximation und das Aufdecken funktionaler Beziehungen/Validierung funktionaler Beziehungen zwischen Variablen. Darüber hinaus wird das lineare Modell aus mathematischer Sicht aufgebaut und die Vorlesung behandelt gewöhnliche kleinste Quadrate, das Gauß-Markov-Theorem und formale Modelle mit normalen linearen Regressionsmodellen, gefolgt von Erweiterungen auf breitere Klassen.

  • 00:05:00 In diesem Abschnitt wird das Konzept der linearen Regressionsanalyse untersucht, bei der eine lineare Funktion die bedingte Verteilung einer Antwortvariablen bei gegebenen unabhängigen Variablen modelliert. Die Regressionsparameter werden verwendet, um die Beziehung zu definieren, und Residuen beschreiben die Unsicherheit oder den Fehler in den Daten. Darüber hinaus können Polynomnäherung und Fourier-Reihen zur vollständigen Beschreibung, insbesondere für zyklisches Verhalten, eingesetzt werden. Die wichtigsten Schritte zur Anpassung eines Regressionsmodells bestehen darin, ein Modell basierend auf der Skala der Antwortvariablen vorzuschlagen und wichtige unabhängige Variablen zu identifizieren. Es ist erwähnenswert, dass diese unabhängigen Variablen unterschiedliche Funktionsformen und Verzögerungswerte der Antwortvariablen umfassen können, was den Aufbau relativ allgemein macht.

  • 00:10:00 In diesem Abschnitt bespricht der Redner die Schritte der Regressionsanalyse. Zunächst muss man die Reaktion der erklärenden Variablen identifizieren und die Annahmen spezifizieren, die der Verteilung der Residuen zugrunde liegen. Zweitens muss ein Kriterium für die Beurteilung verschiedener Schätzer der Regressionsparameter definiert werden, wobei mehrere Optionen zur Verfügung stehen. Drittens muss der beste Schätzer charakterisiert und auf die gegebenen Daten angewendet werden. Viertens müssen deren Annahmen überprüft werden, was gegebenenfalls zu Modifikationen des Modells und der Annahmen führen kann. Abschließend betont der Redner, wie wichtig es ist, das Modell an den zu modellierenden Prozess anzupassen und nicht eine einfache lineare Regression auf alle Probleme anzuwenden. Der Abschnitt endet mit einer Diskussion der Annahmen, die für die Restverteilung in einem linearen Regressionsmodell getroffen werden können, wobei die Normalverteilung ein üblicher und bekannter Ausgangspunkt ist.

  • 00:15:00 In diesem Abschnitt erläutert der Referent die in der Regressionsanalyse verwendeten Gauß-Markov-Annahmen, die sich auf die Mittelwerte und Varianzen der Residuen konzentrieren. Zu den Annahmen gehören ein Mittelwert von Null, eine konstante Varianz und unkorrelierte Residuen. Der Referent erörtert auch verallgemeinerte Gauß-Markov-Annahmen, die Matrix- oder vektorwertige Zufallsvariablen beinhalten. Der Referent demonstriert, wie die Kovarianzmatrix die Varianz des n-Vektors charakterisiert, und liefert Beispiele unter Verwendung von mu- und y-Werten.

  • 00:20:00 In diesem Abschnitt wird das verallgemeinerte Gauß-Markov-Theorem als Möglichkeit zur Schätzung der Kovarianzmatrix in der Regressionsanalyse vorgestellt. Der Satz ermöglicht eine allgemeine Kovarianzmatrix mit Kovarianzen ungleich Null zwischen den unabhängigen Variablen, den abhängigen Variablen und den Residuen und geht davon aus, dass diese korreliert werden können. Es werden nichtlineare Beispiele dafür diskutiert, warum Residuen in Regressionsmodellen korrelieren könnten, sowie die Verwendung verschiedener Verteilungstypen über die Gaußsche Verteilung hinaus bei der Anpassung von Regressionsmodellen zur Erweiterung der Anwendbarkeit. Anschließend behandelt die Vorlesung das Schätzkriterium für Regressionsparameter und verschiedene Methoden zur Beurteilung dessen, was als gute Schätzung gilt, einschließlich der Methode der kleinsten Quadrate, der maximalen Wahrscheinlichkeit, robuster Methoden, der Bayes-Methode und der Anpassung unvollständiger oder fehlender Daten.

  • 00:25:00 In diesem Abschnitt erörtert der Redner die Bedeutung der Einbeziehung subjektiver Informationen in die statistische Modellierung und den Nutzen von Bayes-Methoden bei geeigneter Modellierung. Er betont auch die Notwendigkeit, unvollständige oder fehlende Daten mithilfe statistischer Modelle auszugleichen. Darüber hinaus erklärt der Referent, wie man Annahmen in Regressionsmodellen überprüft, indem man die Residuen analysiert, um festzustellen, ob die Gauß-Markov-Annahmen zutreffen. Er erwähnt auch die Bedeutung der Einflussdiagnostik und der Ausreißererkennung bei der Identifizierung von Fällen, die möglicherweise sehr einflussreich bzw. ungewöhnlich sind. Schließlich führt er das Konzept der gewöhnlichen kleinsten Quadrate und das Kriterium der kleinsten Quadrate ein, um die Summe der quadratischen Abweichungen vom tatsächlichen Wert der Antwortvariablen zu berechnen.

  • 00:30:00 In diesem Abschnitt lernen wir etwas über die Regressionsanalyse und wie man die gewöhnliche Kleinste-Quadrate-Schätzung für Beta auflöst. Wir verwenden Matrizen, die den y-Vektor, die n Werte der unabhängigen Variablen und X, die Wertematrix der abhängigen Variablen, verwenden, um den angepassten Wert y hat zu definieren, der der Matrix x mal Beta entspricht. Indem wir das Kreuzprodukt des n-Vektors minus dem Produkt aus der transponiere X, eine positiv definite oder semidefinite Matrix. Schließlich definieren wir die Ableitung von Q in Bezug auf die Regressionsparameter als minus das Doppelte der gestapelten j-ten Spalte mal y.

  • 00:35:00 In diesem Abschnitt wird das Konzept der Normalgleichungen in der Regressionsmodellierung vorgestellt. Der Gleichungssatz muss durch die gewöhnliche Kleinste-Quadrate-Schätzung Beta erfüllt werden. Mit Hilfe der Matrixalgebra kann die Gleichung gelöst werden, und die Lösung für Beta setzt voraus, dass die X-Transponierte X-Inverse existiert. Damit X X invers transponiert, muss X den vollen Rang haben, was darauf hinweist, dass unabhängige Variablen, die durch andere unabhängige Variablen erklärt werden, zu einem verringerten Rang führen würden. Es wurde festgestellt, dass unsere Beta-Schätzung nach der Methode der kleinsten Quadrate möglicherweise nicht eindeutig ist, wenn der Beta-Hat nicht den vollen Rang hat.

  • 00:40:00 In diesem Abschnitt zur Regressionsanalyse wird die Hutmatrix als Projektionsmatrix eingeführt, die den linearen Vektor der Antwortvariablen in angepasste Werte umwandelt. Konkret handelt es sich um eine orthogonale Projektionsmatrix, die auf den Spaltenraum von Es stellt sich heraus, dass I_n minus H auch eine Projektionsmatrix ist, die die Daten auf den Raum orthogonal zum Spaltenraum von x projiziert. Dies ist wichtig zu beachten, da es hilft, den n-dimensionalen Vektor y durch Projektion auf den Spaltenraum darzustellen und zu verstehen, dass die Residuen orthogonal zu jeder Spalte von X sind.

  • 00:45:00 In diesem Abschnitt wird das Gauß-Markov-Theorem als leistungsstarkes Ergebnis der Theorie linearer Modelle vorgestellt, das für die Schätzung einer Funktion von Regressionsparametern nützlich ist, indem ein allgemeines Ziel von Interesse berücksichtigt wird, bei dem es sich um eine lineare Kombination der Betas handelt . Der Satz besagt, dass die Schätzungen der kleinsten Quadrate erwartungstreue Schätzer des Parameters Theta sind, und bietet eine Möglichkeit zu zeigen, dass diese Schätzungen unter allen linearen erwartungstreuen Schätzern die geringste Varianz aufweisen, sofern bestimmte Bedingungen erfüllt sind. Das Konzept der unvoreingenommenen Schätzer wird ebenfalls kurz erläutert.

  • 00:50:00 In diesem Abschnitt diskutiert der Redner das Gauß-Markov-Theorem, das besagt, dass bei Anwendung der Gauß-Markov-Annahmen der Schätzer Theta die kleinste Varianz unter allen linearen erwartungstreuen Schätzern von Theta aufweist. Dies bedeutet, dass der Kleinste-Quadrate-Schätzer der optimale Schätzer für Theta ist, solange dies das Kriterium ist. Der Beweis für diesen Satz basiert auf der Betrachtung einer anderen linearen Schätzung, die ebenfalls eine erwartungstreue Schätzung ist, und der Auswertung der Differenz zwischen den beiden Schätzern, die einen Erwartungswert von 0 haben müssen. Das mathematische Argument für den Beweis umfasst eine Zerlegung der Varianz und die Verfolgung die Kovarianzterme. Aus diesem Ergebnis stammt der Begriff „BLAUE Schätzungen“ oder die „BLAUE Eigenschaft“ der Schätzungen der kleinsten Quadrate im Ökonometrieunterricht.

  • 00:55:00 In diesem Abschnitt bespricht das Video das Regressionsmodell mit Kovarianzen ungleich Null zwischen den Komponenten und wie die Daten Y, haben eine konstante Varianz und sind unkorreliert. Das Video erklärt, dass diese verallgemeinerten kleinsten Quadrate bei Antwortwerten mit sehr großen Varianzen diese durch die Sigma-Inverse diskontieren. Das Video befasst sich dann mit der Verteilungstheorie für normale Regressionsmodelle, wobei davon ausgegangen wird, dass die Residuen normal sind, mit einem Mittelwert von 0 und einer Varianz im Sigma-Quadrat, und dass die Antwortvariablen eine konstante Varianz aufweisen, jedoch nicht identisch verteilt sind, da sie unterschiedliche Mittelwerte für die abhängige Variable haben.

  • 01:00:00 In diesem Abschnitt wird das Konzept der multivariaten Normalverteilung in Bezug auf den Mittelwertvektor und die Kovarianzmatrix diskutiert. Das Ziel besteht darin, die Verteilung des Kleinste-Quadrate-Schätzers unter der Annahme normalverteilter Residuen zu ermitteln. Die momenterzeugende Funktion wird eingeführt, um die gemeinsame Verteilung von Y und Beta-Hat abzuleiten. Bei multivariaten Normalverteilungen ist die momenterzeugende Funktion für Y das Produkt der einzelnen momenterzeugenden Funktionen, wobei die Verteilung von Y eine Normalverteilung mit Mittelwert mu und Kovarianzmatrix Sigma ist. Die momenterzeugende Funktion für Beta Hat wird aufgelöst, um ihre Verteilung zu bestimmen, die eine multivariate Normalverteilung ist.

  • 01:05:00 In diesem Abschnitt diskutiert der Redner die momenterzeugende Funktion von Beta Hat und wie sie einer multivariaten Normalverteilung entspricht, die die wahre Beta- und Kovarianzmatrix eines bestimmten Objekts bedeutet. Die Randverteilung jedes Beta-Hats wird durch eine univariate Normalverteilung mit dem Mittelwert beta_j und der Varianz gleich der Diagonale gegeben, was anhand der Gaußschen Momentenerzeugungsfunktion nachgewiesen werden kann. Anschließend geht der Redner auf die QR-Zerlegung von X ein, die durch eine Gram-Schmidt-Orthonormalisierung der Matrix unabhängiger Variablen erreicht werden kann. Indem wir die obere Dreiecksmatrix R definieren und nach Q und R mithilfe des Gram-Schmidt-Prozesses auflösen, können wir jede n-mal-p-Matrix als Produkt einer orthonormalen Matrix Q und einer oberen Dreiecksmatrix R ausdrücken.

  • 01:10:00 In diesem Abschnitt wird die QR-Zerlegung und ihre Anwendung zur Vereinfachung der Schätzung der kleinsten Quadrate diskutiert. Durch die Verwendung des Gram-Schmidt-Prozesses zur Orthogonalisierung von Spalten von Die Kovarianzmatrix von Beta-Hat ist gleich Sigma-Quadrat X-Transponierung X-Invers, und die Hat-Matrix ist einfach Q mal Q-Transponierung. Die Verteilungstheorie wird weiter untersucht, um ein grundlegendes Ergebnis über normale lineare Regressionsmodelle zu liefern.

  • 01:15:00 In diesem Abschnitt diskutiert der Professor einen wichtigen Satz für jede Matrix A, m mal n, der einen Zufallsvektor y in einen Zufallsnormalenvektor umwandeln kann. Der Satz beweist, dass die Kleinste-Quadrate-Schätzung Beta-Hat und der Restvektor-Epsilon-Hat bei der Erstellung solcher Statistiken unabhängige Zufallsvariablen sind. Die Beta-Hat-Verteilung ist eine multivariate Normalverteilung, während die Summe der quadrierten Residuen ein Vielfaches einer Chi-Quadrat-Zufallsvariablen ist. Die Schätzungen der Regressionsparameter und die t-Statistik werden ebenfalls besprochen. Die Maximum-Likelihood-Schätzung wird auch im Zusammenhang mit normalen linearen Regressionsmodellen erläutert. Es stellt sich heraus, dass die gewöhnliche Kleinste-Quadrate-Schätzung eine Maximum-Likelihood-Schätzung ist.

  • 01:20:00 In diesem Abschnitt werden die Likelihood-Funktion und Maximum-Likelihood-Schätzungen definiert. Die Likelihood-Funktion ist die Dichtefunktion für die Daten mit den unbekannten Parametern einer multivariaten normalen Zufallsvariablen, und die Maximum-Likelihood-Schätzungen bestimmen die Werte dieser Parameter, die die beobachteten Daten am wahrscheinlichsten machen. Es wird darauf hingewiesen, dass die Verwendung der Methode der kleinsten Quadrate zur Modellanpassung mit der Anwendung des Maximum-Likelihood-Prinzips auf ein normales lineares Regressionsmodell übereinstimmt. Darüber hinaus werden verallgemeinerte M-Schätzer kurz als eine Klasse von Schätzern erwähnt, die zum Finden robuster Quantilschätzungen von Regressionsparametern verwendet werden.
6. Regression Analysis
6. Regression Analysis
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

7. Value At Risk (VAR) Models



7. Value At Risk (VAR) Models

The video provides an in-depth discussion on the concept of value at risk (VAR) models, which are widely used in the financial industry. These models employ probability-based calculations to measure potential losses that a company or individual may face. By using a simple example, the video effectively illustrates the fundamental concepts behind VAR models.

VAR models serve as valuable tools for individuals to assess the probability of losing money through investment decisions on any given day. To understand the risk associated with investments, investors can analyze the standard deviation of a time series. This metric reveals how much the average return has deviated from the mean over time. By valuing a security at the mean plus or minus one standard deviation, investors can gain insights into the security's risk-adjusted potential return.

The video highlights that VAR models can be constructed using different approaches. While the video primarily focuses on the parametric approach, it acknowledges the alternative method of employing Monte Carlo simulation. The latter approach offers increased flexibility and customization options, allowing for more accurate risk assessments.

Furthermore, the video explores the creation of synthetic data sets that mirror the properties of historical data sets. By employing this technique, analysts can generate realistic scenarios to evaluate potential risks accurately. The video also demonstrates the application of trigonometry in describing seasonal patterns observed in temperature data, showcasing the diverse methods employed in risk analysis.

In addition to discussing VAR models, the video delves into risk management approaches employed by banks and investment firms. It emphasizes the significance of understanding the risk profile of a company and safeguarding against excessive concentrations of risk.

Overall, the video offers valuable insights into the utilization of VAR models as risk assessment tools in the finance industry. By quantifying risks associated with investments and employing statistical analysis, these models assist in making informed decisions and mitigating potential financial losses.

  • 00:00:00 In this video, Ken Abbott discusses risk management approaches used by banks and investment firms. He first discusses risk, and goes on to discuss how risk management involves understanding the risk profile of the company, and protecting against concentrations of risk that are too large.

  • 00:05:00 Value at risk models are a way to estimate risk associated with specific investments, and can be used to help make informed decisions about which ones to own. These models are based on a statistical understanding of how stocks, bonds, and derivatives behave, and can be used to quantify how sensitive an investor is to changes in interest rates, equity prices, and commodity prices.

  • 00:10:00 The video explains that VAR models are used to measure risk and to determine how much money an investor needs to hold to support a position in a given market. The video also provides an overview of time series analysis, which is used to understand the behavior of markets over time.

  • 00:15:00 The video discusses the concept of value at risk (VAR), which is a financial model that uses probability to measure the potential losses a company may experience. The video uses a simple example to illustrate the concepts.

  • 00:20:00 Value at risk (VAR) models help individuals assess the probability of losing money on any given day through investment decisions. The standard deviation of a time series tells investors how much the average return has deviated from the mean over time. Valuing a security at the mean plus or minus one standard deviation gives an idea of the security's risk-adjusted potential return.

  • 00:25:00 Value at Risk (VAR) models allow for the identification of scenarios in which an investment could lose more than 4.2% of its value over a five year period. This information can be helpful in determining whether an investment is likely to be profitable or not.

  • 00:30:00 This video explains how value at risk (VAR) models work and how they help to mitigate risk. The concepts introduced include percentage changes and log changes, and the use of PV1 and durations to measure risk. The video also covers the use of VAR models in the finance industry.

  • 00:35:00 This video discusses the concept of value at risk (VAR), which is a risk management tool that calculates the potential financial loss that a company or individual may experience due to volatility in its assets. Yields are also discussed, and it is explained that they are composed of risk-free rates and credit spreads. The presenter provides an example of how VAR can be used to estimate the potential financial loss that a company may experience due to changes in its asset prices.

  • 00:40:00 This video discusses value at risk models, which measure risk in financial markets. covariance and correlation are two measures of risk, and covariance matrices are symmetric, with the variance on the diagonal and covariance on the off diagonal. Correlations are also symmetric, and can be calculated using covariance divided by the product of the standard deviations.

  • 00:45:00 The video discusses the concept of value at risk (VAR), which is used to measure the risk of financial losses associated with a portfolio of assets. The video explains that VAR can be calculated using a covariance matrix and a correlation matrix. The covariance matrix measures the degree of correlation between assets, while the correlation matrix measures the degree of correlation between assets and liabilities. The video then presents an example of how VAR can be calculated using a covariance matrix and a correlation matrix.

  • 00:50:00 Value at risk (VAR) models are a way to measure the risk associated with a financial investment. The model uses data from returns and covariance to calculate the position vector and order statistic. This is then used to determine the risk level of the investment.

  • 00:55:00 This video provides the key points of a 7-slide presentation on value-at-risk models. These models are used to calculate the probability of a financial loss, given that certain conditions are met. Missing data can be a problem, and various methods are available to fill in the gaps. The presentation also discusses how the impact of an assumption can have a material impact on the results of a model.

  • 01:00:00 The video discusses the value at risk (VAR) models. The model uses a parametric approach, but there is another method using Monte Carlo simulation. This method is more flexible and allows for more customization.

  • 01:05:00 Value at Risk (VAR) models are used to estimate the potential for a financial loss due to fluctuations in asset prices. These models can be used to quantify the risk associated with a particular investment or portfolio.

  • 01:10:00 In this video, the author discusses the importance of value at risk (VAR) models, explaining that these models help ensure that a company does not experience a negative eigenvalue. He goes on to say that, if you have a thousand observations, you need to fill in the missing data using a process called "missing data imputation." Finally, John demonstrates how to create a transformation matrix that will correlate random normals.

  • 01:15:00 In this video, the presenter explains how to create models that simulate the outcomes of investments, using Monte Carlo simulation. He also discusses how to use a Gaussian copula to generate more accurate models.

  • 01:20:00 The video explains how synthetic data sets can be created to have the same properties as historical data sets. It also demonstrates how trigonometry can be used to describe seasonal patterns in temperature data.
 

8. Zeitreihenanalyse I


8. Zeitreihenanalyse I

In diesem Video geht der Professor zunächst noch einmal auf die Maximum-Likelihood-Schätzmethode als primären Ansatz in der statistischen Modellierung ein. Sie erläutern das Konzept der Likelihood-Funktion und ihre Verbindung zu normalen linearen Regressionsmodellen. Maximum-Likelihood-Schätzungen werden als Werte definiert, die die Likelihood-Funktion maximieren und angeben, wie wahrscheinlich es ist, dass die beobachteten Daten diese Parameterwerte erhalten.

Der Professor befasst sich mit der Lösung von Schätzproblemen für normale lineare Regressionsmodelle. Sie betonen, dass die Maximum-Likelihood-Schätzung der Fehlervarianz Q von Beta über n ist, weisen jedoch darauf hin, dass diese Schätzung verzerrt ist und korrigiert werden muss, indem sie durch n minus dem Rang der X-Matrix dividiert wird. Je mehr Parameter zum Modell hinzugefügt werden, desto präziser werden die angepassten Werte, es besteht jedoch auch die Gefahr einer Überanpassung. Der Satz besagt, dass die Schätzungen der kleinsten Quadrate (jetzt Maximum-Likelihood-Schätzungen) von Regressionsmodellen einer Normalverteilung folgen und die Summe der Quadrate der Residuen einer Chi-Quadrat-Verteilung mit Freiheitsgraden gleich n minus p folgt. Die T-Statistik wird als entscheidendes Instrument zur Beurteilung der Bedeutung erklärender Variablen im Modell hervorgehoben.

Die verallgemeinerte M-Schätzung wird als Methode zur Schätzung unbekannter Parameter durch Minimierung der Funktion Q von Beta eingeführt. Verschiedene Schätzer können definiert werden, indem unterschiedliche Formen für die Funktion h gewählt werden, was die Auswertung einer anderen Funktion beinhaltet. Das Video behandelt auch robuste M-Schätzer, die die Funktion chi nutzen, um gute Eigenschaften in Bezug auf Schätzungen sicherzustellen, sowie Quantilschätzer. Robuste Schätzer tragen dazu bei, den Einfluss von Ausreißern oder großen Residuen bei der Schätzung der kleinsten Quadrate abzuschwächen.

Das Thema verlagert sich dann auf M-Schätzer und ihre breite Anwendbarkeit bei der Anpassung von Modellen. Es wird eine Fallstudie zu linearen Regressionsmodellen vorgestellt, die auf die Preisgestaltung von Vermögenswerten angewendet werden, wobei der Schwerpunkt auf dem Preismodell für Kapitalanlagen liegt. Der Professor erklärt, wie die Aktienrenditen durch die Gesamtmarktrendite, skaliert durch das Risiko der Aktie, beeinflusst werden. Die Fallstudie liefert Daten und Details zu deren Erhebung mit der Statistiksoftware R. Regressionsdiagnostik wird erwähnt und ihre Rolle bei der Beurteilung des Einflusses einzelner Beobachtungen auf Regressionsparameter hervorgehoben. Leverage wird als Maß zur Identifizierung einflussreicher Datenpunkte eingeführt und seine Definition und Erklärung bereitgestellt.

Das Konzept der Einbeziehung zusätzlicher Faktoren, wie z. B. Rohölrenditen, in Aktienrenditemodelle wird eingeführt. Die Analyse zeigt, dass der Markt allein die Renditen bestimmter Aktien nicht effizient erklärt, während Rohöl als unabhängiger Faktor fungiert, der zur Aufklärung der Renditen beiträgt. Ein Beispiel hierfür ist Exxon Mobil, ein Ölkonzern, der zeigt, wie seine Renditen mit den Ölpreisen korrelieren. Der Abschnitt endet mit einem Streudiagramm, das einflussreiche Beobachtungen basierend auf dem Mahalanobis-Abstand der Fälle vom Schwerpunkt unabhängiger Variablen anzeigt.

Der Dozent geht dann auf die univariate Zeitreihenanalyse ein, bei der es um die Beobachtung einer Zufallsvariablen über die Zeit als diskreten Prozess geht. Sie erläutern die Definitionen der strikten Stationarität und der Kovarianzstationarität, wobei die Kovarianzstationarität erfordert, dass der Mittelwert und die Kovarianz des Prozesses über die Zeit konstant bleiben. Es werden Modelle des autoregressiven gleitenden Durchschnitts (ARMA) sowie deren Erweiterung auf Nichtstationarität durch integrierte Modelle des autoregressiven gleitenden Durchschnitts (ARIMA) vorgestellt. Die Schätzung stationärer Modelle und Tests zur Stationarität werden ebenfalls behandelt.

Der Wold-Darstellungssatz für kovarianzstationäre Zeitreihen wird diskutiert und besagt, dass eine solche Zeitreihe in einen linear deterministischen Prozess und einen gewichteten Durchschnitt von weißem Rauschen mit durch psi_i gegebenen Koeffizienten zerlegt werden kann. Die Komponente des weißen Rauschens, eta_t, hat eine konstante Varianz und ist nicht mit sich selbst und dem deterministischen Prozess korreliert. Der Wold-Zerlegungssatz bietet einen nützlichen Rahmen für die Modellierung solcher Prozesse.

Der Dozent erklärt die Wold-Zerlegungsmethode der Zeitreihenanalyse, bei der der Parameter p (der die Anzahl vergangener Beobachtungen darstellt) initialisiert und die lineare Projektion von X_t basierend auf den letzten p-Verzögerungswerten geschätzt wird. Durch die Untersuchung der Residuen mithilfe von Zeitreihenmethoden, wie z. B. der Beurteilung der Orthogonalität zu längeren Verzögerungen und der Konsistenz mit weißem Rauschen, kann man ein geeignetes Modell für den gleitenden Durchschnitt ermitteln. Die Wold-Zerlegungsmethode kann implementiert werden, indem man den Grenzwert der Projektionen nimmt, wenn p sich der Unendlichkeit nähert, zur Projektion der Daten auf ihren Verlauf konvergiert und den Koeffizienten der Projektionsdefinition entspricht. Es ist jedoch entscheidend, dass das Verhältnis von p zur Stichprobengröße n gegen Null geht, um eine ausreichende Anzahl von Freiheitsgraden für die Modellschätzung sicherzustellen.

Es wird betont, wie wichtig es ist, in Zeitreihenmodellen eine endliche Anzahl von Parametern zu haben, um eine Überanpassung zu vermeiden. Der als L bezeichnete Verzögerungsoperator wird als grundlegendes Werkzeug in Zeitreihenmodellen eingeführt und ermöglicht die Verschiebung einer Zeitreihe um ein Zeitinkrement. Der Verzögerungsoperator wird verwendet, um jeden stochastischen Prozess mithilfe des Polynoms psi(L) darzustellen, einem Polynom unendlicher Ordnung mit Verzögerungen. Die Impulsantwortfunktion wird als Maß für die Auswirkung einer Innovation zu einem bestimmten Zeitpunkt auf den Prozess und auf diesen an diesem Punkt und darüber hinaus diskutiert. Der Referent veranschaulicht anhand der Zinsänderung des Vorsitzenden der Federal Reserve anhand eines Beispiels die zeitliche Wirkung von Innovationen.

Das Konzept der langfristigen kumulativen Reaktion wird in Bezug auf die Zeitreihenanalyse erläutert. Diese Reaktion stellt die akkumulierte Wirkung einer Innovation im Prozess im Laufe der Zeit dar und gibt den Wert an, dem sich der Prozess annähert. Sie wird als Summe der einzelnen Antworten berechnet, die durch das Polynom psi(L) erfasst werden. Die Wold-Darstellung, bei der es sich um einen gleitenden Durchschnitt unendlicher Ordnung handelt, kann mithilfe der Umkehrung des Polynoms psi(L) in eine autoregressive Darstellung umgewandelt werden. Die Klasse der autoregressiven gleitenden Durchschnittsprozesse (ARMA) wird mit ihrer mathematischen Definition eingeführt.

Der Fokus liegt dann auf autoregressiven Modellen im Kontext von ARMA-Modellen. Die Vorlesung beginnt mit einfacheren Fällen, insbesondere autoregressiven Modellen, bevor sie sich mit gleitenden Durchschnittsprozessen befasst. Stationaritätsbedingungen werden untersucht und die mit dem autoregressiven Modell verbundene charakteristische Gleichung wird eingeführt, indem die Polynomfunktion phi durch die komplexe Variable z ersetzt wird. Der Prozess

Im folgenden Abschnitt des Videos wird das Konzept der Stationarität und der Einheitswurzeln in einem autoregressiven Prozess erster Ordnung (AR(1)) diskutiert. Die charakteristische Gleichung des Modells wird vorgestellt und erklärt, dass Kovarianzstationarität erfordert, dass die Größe von Phi kleiner als 1 ist. Die Varianz von X im autoregressiven Prozess ist nachweislich größer als die Varianz der Innovationen, wenn Phi positiv ist und kleiner, wenn Phi negativ ist. Darüber hinaus wird gezeigt, dass ein autoregressiver Prozess mit Phi zwischen 0 und 1 einem exponentiellen Mean-Reverting-Prozess entspricht, der in Zinsmodellen im Finanzwesen eingesetzt wird.

Das Video konzentriert sich im weiteren Verlauf speziell auf autoregressive Prozesse, insbesondere auf AR(1)-Modelle. Bei diesen Modellen handelt es sich um Variablen, die dazu neigen, über kurze Zeiträume zu einem bestimmten Mittelwert zurückzukehren, wobei sich der mittlere Umkehrpunkt möglicherweise über lange Zeiträume ändert. Die Vorlesung stellt die Yule-Walker-Gleichungen vor, die zur Schätzung der Parameter von ARMA-Modellen verwendet werden. Diese Gleichungen basieren auf der Kovarianz zwischen Beobachtungen mit unterschiedlichen Verzögerungen, und das resultierende Gleichungssystem kann gelöst werden, um die autoregressiven Parameter zu erhalten. Die Yule-Walker-Gleichungen werden häufig verwendet, um ARMA-Modelle in Statistikpaketen zu spezifizieren.

Das Prinzip der Momentenmethode für statistische Schätzungen wird erläutert, insbesondere im Zusammenhang mit komplexen Modellen, bei denen die Spezifikation und Berechnung von Wahrscheinlichkeitsfunktionen eine Herausforderung darstellt. In der Vorlesung werden dann gleitende Durchschnittsmodelle besprochen und Formeln für die Erwartungen von X_t, einschließlich mu und gamma 0, vorgestellt. Instationäres Verhalten in Zeitreihen wird durch verschiedene Ansätze angegangen. Der Dozent betont, wie wichtig es ist, instationäres Verhalten zu berücksichtigen, um eine genaue Modellierung zu erreichen. Ein Ansatz besteht darin, die Daten zu transformieren, um sie stationär zu machen, beispielsweise durch Differenzierung oder die Anwendung des Box-Jenkins-Ansatzes, die erste Differenz zu verwenden. Darüber hinaus werden Beispiele für lineare Trendumkehrmodelle zur Handhabung instationärer Zeitreihen bereitgestellt.

Der Redner untersucht außerdem instationäre Prozesse und deren Einbindung in ARMA-Modelle. Wenn die erste oder zweite Differenzierung Kovarianzstationarität ergibt, kann sie in die Modellspezifikation integriert werden, um ARIMA-Modelle (Autoregressive Integrated Moving Average Processes) zu erstellen. Die Parameter dieser Modelle können mithilfe der Maximum-Likelihood-Schätzung geschätzt werden. Um verschiedene Modellsätze zu bewerten und die Ordnungen autoregressiver und gleitender Durchschnittsparameter zu bestimmen, werden Informationskriterien wie das Akaike- oder Bayes-Informationskriterium vorgeschlagen.

Die Frage der Hinzufügung zusätzlicher Variablen zum Modell wird ebenso erörtert wie die Berücksichtigung von Strafen. Der Dozent betont die Notwendigkeit, Beweise für die Einbeziehung zusätzlicher Parameter zu erbringen, beispielsweise für die Auswertung von T-Statistiken, die einen bestimmten Schwellenwert überschreiten, oder für die Verwendung anderer Kriterien. Das Bayes-Informationskriterium geht von einer endlichen Anzahl von Variablen im Modell aus, sofern diese bekannt sind, während das Hannan-Quinn-Kriterium von einer unendlichen Anzahl von Variablen ausgeht, deren Identifizierbarkeit jedoch gewährleistet. Die Modellauswahl ist eine anspruchsvolle Aufgabe, aber diese Kriterien bieten nützliche Entscheidungshilfen.

Abschließend behandelt das Video verschiedene Aspekte der statistischen Modellierung und Zeitreihenanalyse. Es beginnt mit der Erläuterung der Maximum-Likelihood-Schätzung und ihrer Beziehung zu normalen linearen Regressionsmodellen. Die Konzepte der verallgemeinerten M-Schätzung und der robusten M-Schätzung werden vorgestellt. Es wird eine Fallstudie zur Anwendung linearer Regressionsmodelle auf die Vermögenspreisgestaltung vorgestellt, gefolgt von einer Erläuterung der univariaten Zeitreihenanalyse. Der Wold-Darstellungssatz und die Wold-Zerlegungsmethode werden im Kontext kovarianzstationärer Zeitreihen diskutiert. Die Bedeutung einer endlichen Anzahl von Parametern in Zeitreihenmodellen wird neben autoregressiven Modellen und Stationaritätsbedingungen hervorgehoben. Abschließend befasst sich das Video mit autoregressiven Prozessen, den Yule-Walker-Gleichungen, dem Prinzip der Momentenmethode, instationärem Verhalten und der Modellauswahl anhand von Informationskriterien.

  • 00:00:00 In diesem Abschnitt geht der Professor auf die Maximum-Likelihood-Schätzmethode als primäre Schätzmethode in der statistischen Modellierung ein und erörtert dabei die Likelihood-Funktion und ihre Beziehung zu normalen linearen Regressionsmodellen. Der Professor erklärt, dass Maximum-Likelihood-Schätzungen Werte sind, die die Funktion maximieren, wodurch die beobachteten Daten am wahrscheinlichsten sind, und dass diese Werte die unbekannten Parameter dahingehend skalieren, wie wahrscheinlich sie die Datenwerte hätten erzeugen können.

  • 00:05:00 In diesem Abschnitt diskutiert der Professor, wie die Schätzprobleme für normale lineare Regressionsmodelle gelöst werden können. Die Maximum-Likelihood-Schätzung der Fehlervarianz ist Q von Beta über n, aber diese Schätzung ist verzerrt und muss durch Division durch n minus dem Rang der X-Matrix korrigiert werden. Je mehr Parameter dem Modell hinzugefügt werden, desto genauer sind die angepassten Werte, aber es erhöht auch die Gefahr einer Kurvenanpassung. Der Satz besagt, dass die kleinsten Quadrate (heute Maximum-Likelihood-Schätzungen) von Regressionsmodellen normalverteilt sind und die Quadratsumme der Residuen eine Chi-Quadrat-Verteilung mit Freiheitsgraden aufweist, die durch n minus p gegeben sind. Die T-Statistik ist eine wichtige Methode zur Bewertung der Relevanz verschiedener erklärender Variablen im Modell.

  • 00:10:00 In diesem Abschnitt erklärt das Video das Konzept der verallgemeinerten M-Schätzung, bei der unbekannte Parameter durch Minimierung der Funktion Q von Beta geschätzt werden. Durch die Auswahl unterschiedlicher Funktionsformen für h, bei dem es sich um die Summe der Bewertungen einer anderen Funktion handelt, können verschiedene Arten von Schätzern definiert werden, z. B. die Schätzung der kleinsten Quadrate und der maximalen Wahrscheinlichkeit. Das Video bespricht auch robuste M-Schätzer, bei denen es darum geht, die Funktion chi so zu definieren, dass sie mit Schätzungen gute Eigenschaften aufweist, und Quantilschätzer. Robuste Schätzer helfen dabei, den übermäßigen Einfluss sehr großer Werte oder Residuen bei der Schätzung der kleinsten Quadrate zu kontrollieren.

  • 00:15:00 In diesem Abschnitt diskutiert der Professor M-Schätzer und wie sie die meisten Schätzer umfassen, die in Anpassungsmodellen vorkommen. Der Klasse wird eine Fallstudie vorgestellt, die lineare Regressionsmodelle auf die Preisgestaltung von Vermögenswerten anwendet. Es wird erklärt, dass das Preismodell für Kapitalanlagen darauf hindeutet, dass die Aktienrenditen von der Rendite des Gesamtmarktes abhängen, skaliert davon, wie riskant die Aktie ist. Die Fallstudie liefert die notwendigen Daten und Details, um sie mit R zu sammeln. Der Professor erwähnt die Regressionsdiagnostik und wie sie den Einfluss einzelner Beobachtungen auf Regressionsparameter ermittelt. Abschließend werden einflussreiche Datenpunkte mithilfe von Leverage identifiziert und die Definition und Erklärung gegeben.

  • 00:20:00 In diesem Abschnitt stellt der Professor das Konzept vor, bei der Modellierung von Aktienrenditen einen weiteren Faktor, beispielsweise die Rohölrendite, hinzuzufügen, um die Renditen zu erklären. Die Analyse zeigt, dass der Markt in dieser Fallstudie die Rendite von GE nicht effizient erklären konnte; Rohöl ist ein weiterer unabhängiger Faktor, der zur Erklärung der Rendite beiträgt. Andererseits verfügt Exxon Mobil, ein Ölunternehmen, über einen Regressionsparameter, der zeigt, wie sich Rohöl definitiv auf seine Rendite auswirkt, da es mit den Ölpreisen steigt und fällt. Der Abschnitt endet mit einem Streudiagramm, das einflussreiche Beobachtungen anzeigt, die mit dem Mahalanobis-Abstand der Fälle vom Schwerpunkt der unabhängigen Variablen verbunden sind.

  • 00:25:00 In diesem Abschnitt führt der Dozent in das Thema der univariaten Zeitreihenanalyse ein, bei der es um die Beobachtung einer Zufallsvariablen über die Zeit geht und es sich um einen diskreten Zeitprozess handelt. Die Definition der strengen Stationarität und der Kovarianzstationarität wird erläutert, wobei die Kovarianzstationarität schwächer ist und erfordert, dass nur der Mittelwert und die Kovarianz des Prozesses über die Zeit konstant bleiben. Klassische Modelle autoregressiver gleitender Durchschnittsmodelle und ihre Erweiterungen auf Nichtstationarität mit integrierten autoregressiven gleitenden Durchschnittsmodellen werden ebenfalls besprochen, zusammen mit der Frage, wie man stationäre Modelle schätzt und auf Stationarität testet.

  • 00:30:00 In diesem Abschnitt des Videos diskutiert der Redner den Wold-Darstellungssatz für kovarianzstationäre Zeitreihen. Der Satz besagt, dass eine stationäre Zeitreihe mit einer Kovarianz von Null in zwei Komponenten zerlegt werden kann: einen linear deterministischen Prozess und einen gewichteten Durchschnitt des weißen Rauschens mit durch psi_i gegebenen Koeffizienten. Der Sprecher erklärt auch, dass eta_t, das weiße Rauschelement, eine konstante Varianz aufweist und nicht mit sich selbst und dem deterministischen Prozess korreliert. Der Wold-Zerlegungssatz bietet eine überzeugende Struktur zur Modellierung solcher Prozesse.

  • 00:35:00 In diesem Abschnitt wird die Wold-Zerlegungsmethode der Zeitreihenanalyse besprochen. Diese Methode beinhaltet die Initialisierung des Parameters p, der die Anzahl vergangener Beobachtungen im linear deterministischen Term darstellt, und die Schätzung der linearen Projektion von X_t auf die letzten p-Verzögerungswerte. Durch die Durchführung von Zeitreihenmethoden zur Analyse der Residuen, beispielsweise durch die Bewertung, ob die Residuen orthogonal zu längeren Verzögerungen sind und mit weißem Rauschen konsistent sind, kann man ein Modell mit gleitendem Durchschnitt spezifizieren und seine Eignung bewerten. Die Wold-Zerlegungsmethode kann als Grenze der Projektionen implementiert werden, wenn p groß wird, konvergiert zur Projektion der Daten auf ihren Verlauf und entspricht den Koeffizienten der Projektionsdefinition. Allerdings muss das p/n-Verhältnis gegen 0 gehen, um zu vermeiden, dass bei der Schätzung von Modellen die Freiheitsgrade ausgehen.

  • 00:40:00 In diesem Abschnitt betont der Redner, wie wichtig es ist, bei der Schätzung von Zeitreihenmodellen eine endliche Anzahl von Parametern zu haben, da dies dazu beiträgt, eine Überanpassung zu vermeiden. Der Verzögerungsoperator ist ein entscheidendes Werkzeug in Zeitreihenmodellen, bei denen eine Zeitreihe mit dem Operator L um ein Zeitinkrement zurückverschoben wird. Jeder stochastische Prozess kann mit dem Verzögerungsoperator mit psi von L dargestellt werden, einem Polynom unendlicher Ordnung von die Verzögerungen. Die Impulsantwortfunktion bezieht sich auf die Auswirkung der Innovation zu einem bestimmten Zeitpunkt, die sich auf den Prozess zu diesem Zeitpunkt und darüber hinaus auswirkt. Der Redner nutzt ein Beispiel der Zinsänderung des Vorsitzenden der US-Notenbank, um die Auswirkungen von Innovationen im Laufe der Zeit zu erläutern.

  • 00:45:00 In diesem Abschnitt wird das Konzept der langfristigen kumulativen Reaktion in Bezug auf die Zeitreihenanalyse diskutiert. Die langfristige kumulative Reaktion ist die Auswirkung einer Innovation in einem Prozess im Laufe der Zeit und der Wert, zu dem sich der Prozess entwickelt. Diese Antwort ergibt sich aus der Summe der einzelnen Antworten, dargestellt durch das Polynom von psi mit einem Verzögerungsoperator. Die Wold-Darstellung ist ein gleitender Durchschnitt unendlicher Ordnung, der eine autoregressive Darstellung unter Verwendung einer Umkehrung des psi des L-Polynoms haben kann. Dem Betrachter wird auch die Klasse der autoregressiven gleitenden Durchschnittsprozesse mit mathematischer Definition vorgestellt.

  • 00:50:00 In diesem Abschnitt liegt der Schwerpunkt auf autoregressiven Modellen in ARMA-Modellen. Um diese Modelle besser zu verstehen, werden einfachere Fälle betrachtet, angefangen bei autoregressiven Modellen bis hin zu gleitenden Durchschnittsprozessen. Es werden auch Stationaritätsbedingungen untersucht, bei denen die Polynomfunktion Phi, wenn sie durch eine komplexe Variable z ersetzt wird, die charakteristische Gleichung ist, die dem autoregressiven Modell zugeordnet ist. Der Prozess von als 1.

  • 00:55:00 In diesem Abschnitt des Videos wird das Konzept der Stationarität und Einheitswurzeln in einem autoregressiven Prozess der Ordnung eins diskutiert. Die charakteristische Gleichung des Modells wird dargestellt und es wird festgestellt, dass Kovarianzstationarität erfordert, dass die Größe von Phi kleiner als 1 ist. Es zeigt sich, dass die Varianz von exponentieller Mean-Reverting-Prozess, der theoretisch für Zinsmodelle im Finanzwesen verwendet wurde.

  • 01:00:00 In diesem Abschnitt liegt der Schwerpunkt auf autoregressiven Prozessen, insbesondere AR(1)-Modellen. Bei diesen Modellen handelt es sich um Variablen, die in der Regel über kurze Zeiträume zu einem bestimmten Mittelwert zurückkehren, der mittlere Umkehrpunkt kann sich jedoch über längere Zeiträume ändern. Die Vorlesung erläutert die Yule-Walker-Gleichungen, die zur Schätzung der Parameter der ARMA-Modelle verwendet werden. Diese Gleichungen beinhalten die Kovarianz zwischen Beobachtungen mit unterschiedlichen Verzögerungen, und das resultierende Gleichungssystem kann nach den autoregressiven Parametern gelöst werden. Abschließend sei darauf hingewiesen, dass die Yule-Walker-Gleichungen häufig zur Spezifikation von ARMA-Modellen in Statistikpaketen verwendet werden.

  • 01:05:00 In diesem Abschnitt wird das Prinzip der Momentenmethode für statistische Schätzungen erläutert, insbesondere in komplexen Modellen, in denen Wahrscheinlichkeitsfunktionen schwer zu spezifizieren und zu berechnen sind und unvoreingenommene Schätzungen von Parametern verwendet werden. Anschließend wird das Modell des gleitenden Durchschnitts besprochen und Formeln für die Erwartungen von X_t, einschließlich mu und gamma 0, berechnet. Es werden auch Anpassungen für instationäres Verhalten in Zeitreihen diskutiert, insbesondere durch die Transformation von Daten in stationäre Daten, den Ansatz von Box und Jenkins, die erste Differenz zu verwenden, und Beispiele für lineare Trendumkehrmodelle.

  • 01:10:00 In diesem Abschnitt diskutiert der Referent instationäre Prozesse und wie man sie in ARMA-Modelle integrieren kann. Er erklärt, dass, wenn die erste oder zweite Differenzierung zu Kovarianzstationarität führt, diese in die Modellspezifikation integriert werden kann, um ARIMA-Modelle oder autoregressive integrierte gleitende Durchschnittsprozesse zu erstellen. Die Parameter für diese Modelle können mithilfe der Maximum-Likelihood-Methode spezifiziert werden, und verschiedene Sätze von Modellen und Ordnungen autoregressiver und gleitender Durchschnittsparameter können mithilfe von Informationskriterien wie dem Akaike- oder Bayes-Informationskriterium bewertet werden.

  • 01:15:00 In diesem Abschnitt erörtert der Redner die Frage des Hinzufügens zusätzlicher Variablen zum Modell und welche Strafe gegeben werden sollte. Er schlägt vor, zu überlegen, welche Nachweise erforderlich sein sollten, um zusätzliche Parameter wie t-Statistiken, die einen bestimmten Schwellenwert oder andere Kriterien überschreiten, einzubeziehen. Das Bayes-Informationskriterium geht davon aus, dass es eine endliche Anzahl von Variablen im Modell gibt und dass wir diese kennen, während das Hannan-Quinn-Kriterium von einer unendlichen Anzahl von Variablen im Modell ausgeht, aber sicherstellt, dass sie identifizierbar sind. Das Problem der Modellauswahl ist anspruchsvoll, kann aber anhand dieser Kriterien gelöst werden.
8. Time Series Analysis I
8. Time Series Analysis I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

9. Volatilitätsmodellierung



9. Volatilitätsmodellierung

Dieses Video bietet einen umfassenden Überblick über die Volatilitätsmodellierung und untersucht verschiedene Konzepte und Techniken auf diesem Gebiet. Der Dozent stellt zunächst die Modelle des autoregressiven gleitenden Durchschnitts (ARMA) und ihre Relevanz für die Volatilitätsmodellierung vor. Die ARMA-Modelle werden verwendet, um das zufällige Eintreffen von Stößen in einem Brownschen Bewegungsprozess zu erfassen. Der Sprecher erklärt, dass diese Modelle die Existenz eines Prozesses pi von t voraussetzen, der einen Poisson-Prozess darstellt, der die Anzahl der auftretenden Sprünge zählt. Die Sprünge werden durch Zufallsvariablen, Gamma Sigma Z_1 und Z_2, dargestellt, die einer Poisson-Verteilung folgen. Die Schätzung dieser Parameter erfolgt mithilfe der Maximum-Likelihood-Schätzung durch den EM-Algorithmus.

Das Video befasst sich dann mit dem Thema Modellauswahl und -kriterien. Es werden verschiedene Modellauswahlkriterien besprochen, um das am besten geeignete Modell für einen bestimmten Datensatz zu ermitteln. Das Akaike-Informationskriterium (AIC) wird als Maß dafür dargestellt, wie gut ein Modell zu den Daten passt, wobei Modelle basierend auf der Anzahl der Parameter bestraft werden. Das Bayes-Informationskriterium (BIC) ist ähnlich, führt jedoch einen logarithmischen Abzug für hinzugefügte Parameter ein. Das Hannan-Quinn-Kriterium bietet einen Zwischenabzug zwischen dem logarithmischen und dem linearen Term. Diese Kriterien helfen bei der Auswahl des optimalen Modells für die Volatilitätsmodellierung.

Als nächstes befasst sich das Video mit dem Dickey-Fuller-Test, der ein wertvolles Werkzeug zur Beurteilung ist, ob eine Zeitreihe mit einer einfachen Zufallswanderung konsistent ist oder eine Einheitswurzel aufweist. Der Dozent erläutert die Bedeutung dieses Tests für die Erkennung instationärer Prozesse, die bei der Verwendung von ARMA-Modellen zu Herausforderungen führen können. Die Probleme im Zusammenhang mit der Modellierung instationärer Prozesse mithilfe von ARMA-Modellen werden hervorgehoben und Strategien zur Bewältigung dieser Probleme diskutiert.

Das Video schließt mit der Präsentation einer Anwendung von ARMA-Modellen an einem realen Beispiel. Der Dozent zeigt, wie Volatilitätsmodellierung in der Praxis angewendet werden kann und wie ARMA-Modelle zeitabhängige Volatilität erfassen können. Das Beispiel dient der Veranschaulichung der praktischen Relevanz und Wirksamkeit von Techniken zur Volatilitätsmodellierung.

Zusammenfassend bietet dieses Video einen umfassenden Überblick über die Volatilitätsmodellierung und deckt die Konzepte von ARMA-Modellen, den Dickey-Fuller-Test, Modellauswahlkriterien und praktische Anwendungen ab. Durch die Untersuchung dieser Themen bietet das Video Einblicke in die Komplexität und Strategien bei der Modellierung und Vorhersage der Volatilität in verschiedenen Bereichen, beispielsweise den Finanzmärkten.

  • 00:00:00 Der Autor diskutiert das Volatilitätsmodell und wie es bei der Schätzung eines statistischen Modells helfen kann. Der Autor weist darauf hin, dass es verschiedene Modellauswahlkriterien gibt, anhand derer ermittelt werden kann, welches Modell für einen bestimmten Datensatz am besten geeignet ist.

  • 00:05:00 Das Akaike-Informationskriterium ist ein Maß dafür, wie gut ein Modell an Daten angepasst ist, und es bestraft Modelle um einen Faktor, der von der Größe der Modellparameter abhängt. Das Bayes-Informationskriterium ist ähnlich, weist jedoch eine Log-n-Strafe für hinzugefügte Parameter auf. Das Hannan-Quinn-Kriterium hat einen Abzug in der Mitte zwischen log n und zwei. Der Dickey-Fuller-Test ist ein Test, um festzustellen, ob eine Zeitreihe mit einer einfachen Zufallswanderung konsistent ist.

  • 00:10:00 Dieses Video bietet einen Überblick über die Volatilitätsmodellierung, einschließlich der Konzepte der autoregressiven gleitenden Durchschnittsmodelle (ARMA) und des Dickey-Fuller-Tests. Anschließend wird im Video auf die Probleme eingegangen, die auftreten können, wenn ein instationärer Prozess mithilfe von ARMA-Modellen modelliert wird, und auf den Umgang mit diesen Problemen. Abschließend bietet das Video eine Anwendung von ARMA-Modellen auf ein reales Beispiel.

  • 00:15:00 Dieses Video bietet eine kurze Einführung in die Volatilitätsmodellierung, einschließlich einer Diskussion der ACF- und PACF-Funktionen, des Dickey-Fuller-Tests für Einheitswurzeln und der Regressionsdiagnose.

  • 00:20:00 Volatilität ist ein Maß für die Variabilität von Preisen oder Renditen auf Finanzmärkten. Die historische Volatilität wird berechnet, indem die Differenz der Preisprotokolle über einen bestimmten Zeitraum hinweg ermittelt wird. Volatilitätsmodelle sollen zeitabhängige Volatilität erfassen.

  • 00:25:00 Volatilität ist ein Maß dafür, wie stark sich der Preis eines Wertpapiers im Laufe der Zeit ändert. Die Volatilität kann anhand der Quadratwurzel der Stichprobenvarianz gemessen und in annualisierte Werte umgerechnet werden. Die historische Volatilität kann mithilfe von Risikometrikansätzen geschätzt werden.

  • 00:30:00 Volatilitätsmodelle können verwendet werden, um zukünftige Aktienkurse vorherzusagen, und die geometrische Brownsche Bewegung ist ein häufig verwendetes Modell. Choongbum wird in späteren Vorlesungen detaillierter auf stochastische Differentialgleichungen und stochastische Analysis eingehen.

  • 00:35:00 Das Volatilitätsmodell ist ein mathematisches Modell, das den Preis eines Wertpapiers im Zeitverlauf vorhersagt. Das Modell verwendet eine Gauß-Verteilung, um den Preis über einen bestimmten Zeitraum zu berechnen. Wenn die Zeitskala geändert wird, muss das Modell angepasst werden.

  • 00:40:00 Die Volatilitätsmodellierung kann je nach Zeitmessung zu unterschiedlichen Ergebnissen führen. Beispielsweise werden bei einem geometrischen Brownschen Bewegungsmodell die täglichen Renditen aus einer Gaußschen Verteilung entnommen, während bei einem Normalmodell die Perzentile der angepassten Gaußschen Verteilung aufgezeichnet werden. In jedem Fall sollte die kumulative Verteilungsfunktion des angepassten Modells um das tatsächliche Perzentil herum zentriert sein.

  • 00:45:00 Der Garman-Klass-Schätzer ist ein Modell zur Schätzung der Volatilität, das mehr Informationen als nur Schlusskurse berücksichtigt. Dabei wird davon ausgegangen, dass die Inkremente eins für täglich sind, also täglich, und dass die Tageszeit, zu der der Markt öffnet (dargestellt durch das kleine f), berücksichtigt wird.

  • 00:50:00 Dieses Volatilitätsmodell berechnet die Varianz der Open-to-Close-Renditen und die Effizienz dieser Schätzung im Verhältnis zur Close-to-Close-Schätzung.

  • 00:55:00 Das Volatilitätsmodell ist eine stochastische Differentialgleichung, die die Volatilität eines finanziellen Vermögenswerts modelliert. In der Arbeit von Garman und Klass wurde festgestellt, dass der beste skaleninvariante Schätzer eine Schätzung ist, die sich nur um einen Skalierungsfaktor ändert, und dass dieser Schätzer eine Effizienz von 8,4 aufweist.

  • 01:00:00 Dieses Video behandelt die Volatilitätsmodellierung, eine Möglichkeit, mit dem zufälligen Eintreffen von Stößen in einem Brownschen Bewegungsprozess umzugehen. Das Modell geht davon aus, dass es einen Prozess pi von t gibt, bei dem es sich um einen Poisson-Prozess handelt, der die Anzahl der aufgetretenen Sprünge zählt. Diese Sprünge werden durch Gamma-Sigma Z_1 und Z_2 dargestellt, bei denen es sich um Zufallsvariablen mit einer Poisson-Verteilung handelt. Die Maximum-Likelihood-Schätzung dieser Parameter erfolgt mithilfe des EM-Algorithmus.

  • 01:05:00 Das Video „9. Volatility Modeling“ behandelt den EM-Algorithmus und ARCH-Modelle, die zur Modellierung zeitabhängiger Volatilität verwendet werden. ARCH-Modelle berücksichtigen die Zeitabhängigkeit der Volatilität und behalten gleichzeitig die Parameterbeschränkungen bei. Dieses Modell wird zur Schätzung der Euro/Dollar-Wechselkurse verwendet.

  • 01:10:00 Volatilitätsmodellierung ist der Prozess der Schätzung des zugrunde liegenden Prozesses, der die Aktienkurse antreibt. Dazu gehört die Anpassung eines autoregressiven Modells an die quadrierten Residuen und das Testen der ARCH-Struktur. Wenn keine ARCH-Struktur vorhanden ist, ist das Regressionsmodell nicht vorhersagbar.

  • 01:15:00 Das GARCH-Modell ist eine vereinfachte Darstellung der Volatilität der quadrierten Renditen eines bestimmten Vermögenswerts. Das Modell ist in der Lage, Daten recht gut anzupassen und verfügt über Eigenschaften, die auf eine Zeitabhängigkeit der Volatilität schließen lassen.

  • 01:20:00 In diesem Video werden die Vorteile der Verwendung von Volatilitätsmodellen im Vergleich zu anderen Prognosemodellen erläutert. GARCH-Modelle erweisen sich als besonders effektiv bei der Erfassung zeitlich variierender Volatilität. Der letzte Tag, an dem Sie sich für eine Exkursion anmelden können, ist der nächste Dienstag.
9. Volatility Modeling
9. Volatility Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

10. Regularisierte Preis- und Risikomodelle



10. Regularisierte Preis- und Risikomodelle

In diesem umfassenden Video wird das Thema regulierte Preis- und Risikomodelle für Zinsprodukte, insbesondere Anleihen und Swaps, ausführlich behandelt. Der Redner geht zunächst auf die Herausforderung der Fehlstellung dieser Modelle ein, bei der selbst geringfügige Änderungen der Eingaben zu erheblichen Ergebnissen führen können. Um diese Herausforderung zu meistern, schlagen sie die Verwendung glatter Basisfunktionen und Straffunktionen vor, um die Glätte der Volatilitätsoberfläche zu steuern. Die Tikhonov-Regularisierung wird als eine Technik eingeführt, die der Amplitude einen Abzug hinzufügt, wodurch die Auswirkung von Rauschen verringert und die Aussagekraft der Modelle verbessert wird.

Der Referent geht auf verschiedene Techniken ein, die Händler in diesem Bereich anwenden. Sie besprechen Spline-Techniken und die Hauptkomponentenanalyse (PCA), die verwendet werden, um Marktdiskrepanzen zu erkennen und fundierte Handelsentscheidungen zu treffen. Das Konzept der Anleihen wird erläutert und umfasst Aspekte wie regelmäßige Zahlungen, Laufzeit, Nennwert, Nullkuponanleihen und unbefristete Anleihen. Es wird betont, wie wichtig es ist, eine Zinsstrukturkurve zu erstellen, um ein Portfolio aus Swaps mit unterschiedlichen Laufzeiten zu bewerten.

Zinssätze und Preismodelle für Anleihen und Swaps werden ausführlich besprochen. Der Redner erkennt die Grenzen von Einzahlmodellen zur Vorhersage von Preisänderungen an und stellt das Konzept von Swaps vor und erläutert, wie Händler Geld- und Briefkurse für den Swap-Satz angeben. Der Aufbau einer Zinsstrukturkurve für Preisswaps wird ebenso erläutert wie die Auswahl der Eingabeinstrumente für die Kalibrierung und Spline-Typen. Anhand praktischer Beispiele wird der Prozess der Kalibrierung von Swaps mithilfe eines kubischen Splines und der Sicherstellung, dass sie zum Nennwert neu bewertet werden, demonstriert.

Das Video untersucht weiter die Kurve der Dreimonats-Terminzinsen und die Notwendigkeit eines fairen Preises, der den Marktbeobachtungen entspricht. Der Schwerpunkt verlagert sich dann auf den Handel mit Spreads und die Ermittlung der liquidesten Instrumente. Die Herausforderungen bei der Erstellung einer Kurve, die unempfindlich gegenüber Marktveränderungen ist, werden diskutiert und die erheblichen Kosten hervorgehoben, die mit solchen Strategien verbunden sind. Der Bedarf an verbesserten Absicherungsmodellen wird angesprochen und eine neue allgemeine Formulierung für das Portfoliorisiko vorgestellt. Die Hauptkomponentenanalyse wird verwendet, um Marktmodi und -szenarien zu analysieren und es Händlern zu ermöglichen, sich mithilfe liquider und kostengünstiger Swaps abzusichern.

Regularisierte Preis- und Risikomodelle werden eingehend untersucht, wobei die Nachteile des PCA-Modells wie Instabilität und Empfindlichkeit gegenüber Ausreißern hervorgehoben werden. Die Vorteile der Umsetzung von Risiken in überschaubarere und liquidere Zahlen werden hervorgehoben. Das Video erklärt, wie zusätzliche Einschränkungen und Überlegungen zum Verhalten von Risikomatrizen diese Modelle verbessern können. Die Verwendung von B-Splines, Straffunktionen, L1- und L2-Matrizen und Tikhonov-Regularisierung wird als Mittel zur Verbesserung der Stabilität und zur Reduzierung von Preisfehlern diskutiert.

Der Referent befasst sich mit den Herausforderungen der Kalibrierung einer Volatilitätsoberfläche und bietet Einblicke in unterbestimmte Probleme und instabile Lösungen. Die Darstellung der Fläche als Vektor und die Verwendung von Linearkombinationen von Basisfunktionen werden erläutert. Das Konzept der Fehlstellung wird erneut aufgegriffen und die Bedeutung der Einschränkung von Ausgaben mithilfe glatter Basisfunktionen wird hervorgehoben.

Es werden verschiedene Techniken und Ansätze behandelt, darunter die verkürzte Singularwertzerlegung (SVD) und die Anpassung von Funktionen mithilfe von Spline-Techniken. Die Interpretation von Interpolationsgraphen und ihre Anwendung bei der Kalibrierung und Arbitrage von Marktdiskrepanzen werden erläutert. Swaptions und ihre Rolle bei der Volatilitätsmodellierung werden ebenso besprochen wie die Möglichkeiten, die sie für Händler bieten.

Das Video schließt mit der Hervorhebung der Relevanz regulierter Preis- und Risikomodelle für die Identifizierung von Marktanomalien und die Erleichterung fundierter Handelsentscheidungen. Es betont die Liquidität von Anleihen und den Einsatz von Swaps zum Aufbau von Kurven, erkennt aber auch die Abhängigkeit von PCA-Modellen bei Fehlen einer stabilen Kurve an. Insgesamt bietet das Video ein umfassendes Verständnis der regulierten Preis- und Risikomodelle für Zinsprodukte und vermittelt den Zuschauern wertvolles Wissen in diesem Bereich.

  • 00:00:00 In diesem Abschnitt diskutiert Dr. Ivan Masyukov, ein Gastredner von Morgan Stanley, regulierte Preis- und Risikomodelle für Zinsprodukte, bei denen dem Modell zusätzliche Einschränkungen, auch Regularisierer genannt, hinzugefügt werden. Die Vorlesung beginnt mit einer Erläuterung von Anleihen, einem der einfachsten Zinsprodukte auf dem Markt, und behandelt deren periodische Zahlungen, Laufzeit und Nennwert. Auch Nullkuponanleihen, die bis zur Fälligkeit keine Auszahlung leisten, und unbefristete Anleihen, die eine unbegrenzte Auszahlung bieten, werden diskutiert. Die Vorlesung endet mit der Erläuterung des für die Analyse verwendeten Cashflow-Diagramms, wobei grüne Pfeile auf etwas hinweisen, das erhalten wurde, und rote Pfeile auf etwas, das bezahlt wurde.

  • 00:05:00 In diesem Abschnitt wird das Konzept des Zeitwerts des Geldes eingeführt, wobei der Abzinsungsfaktor umso kleiner ist, je höher der zukünftige Cashflow ist, was zu einer Abschreibung führt. Ein fairer Wert der berechneten Cashflows kann ermittelt werden, wenn Abzinsungsfaktoren vorliegen, die mithilfe eines Abzinsungsmodells dargestellt werden können. Es wird ein einfaches Modell diskutiert, das einen Parameter verwendet, die Rendite bis zur Fälligkeit. Der Preis einer Anleihe kann als lineare Kombination zukünftiger Cashflows dargestellt werden, und die Anleiherendite kann durch Auflösen ermittelt werden, wenn der Anleihepreis bekannt ist, oder umgekehrt.

  • 00:10:00 In diesem Abschnitt wird das Konzept der Anleihepreissetzung gegenüber der Rendite diskutiert. Der wirtschaftliche Wert von Anleihen liegt im Anleihepreis und den Cashflows. Die Rendite korreliert zukünftige Cashflows mit dem Anleihepreis und geht von einer konstanten Abzinsung für alle Zeitpunkte aus, sie ist jedoch möglicherweise nicht immer optimal. Die Sensitivität des Anleihepreises gegenüber der Rendite und wie sie sich mit dem Markt verändert, ist für die Bestimmung der Duration einer Anleihe von entscheidender Bedeutung. Die Duration einer Anleihe ist eine gewichtete Summenformel der Zeit und proportional zu den Barwerten zukünftiger Cashflows. Das Verhältnis zwischen Rendite und Anleihepreis hat ein negatives Vorzeichen und die Laufzeit einer Nullkuponanleihe entspricht der Laufzeit, während die Laufzeit einer regulären Kuponanleihe kürzer als die Laufzeit ist. Das Modell für die Anleihelaufzeit geht davon aus, dass sich alle Zinssätze parallel bewegen.

  • 00:15:00 In diesem Abschnitt geht der Referent auf Zinssätze und Preismodelle für Anleihen und Swaps ein. Sie erkennen an, dass ein Ein-Zahlen-Modell zur Vorhersage von Preisänderungen möglicherweise nicht ausreicht, und schlagen die Verwendung zweiter Ableitungen vor, um unerklärte Verluste zu berücksichtigen. In Bezug auf Swaps erklärt der Referent, wie Händler Geld- und Briefkurse für die wichtigste Menge eines Swaps, den Swap-Satz, angeben und dabei den Barwert der festen und variablen Cashflows verwenden. Sie weisen außerdem darauf hin, dass der Abschluss eines Swaps keinen Geldwechsel erfordert und dass der feste Zinssatz so festgelegt ist, dass der Barwert der festen abzüglich der variablen Cashflows netto Null beträgt.

  • 00:20:00 In diesem Abschnitt wird das Konzept der Swap-Sätze als gewichtete Summe von Terminsätzen erläutert, wobei die Gewichte durch Abzinsungsfaktoren bestimmt werden. Das Video erklärt die Notwendigkeit, eine Zinskurve zu erstellen, um ein ganzes Portfolio von Swaps mit unterschiedlichen Laufzeiten zu bewerten, sowie den Prozess der Auswahl von Eingabeinstrumenten für die Kalibrierung und den Spline-Typ. Der letzte Schritt besteht darin, die Kontrollpunkte anzupassen, um sicherzustellen, dass die Ergebnisse bei der Neubewertung der Instrumente mithilfe des mathematischen Objekts mit den Marktpreisen übereinstimmen.

  • 00:25:00 In diesem Abschnitt erklärt Ivan Masyukov, wie ein kubischer Spline verwendet wird, um eine glatte Kurve zu erstellen, bei der die funktionale Form der Kurvenform ein kubisches Polynom ist und gleichzeitig die maximale Anzahl von Ableitungen für jeden Knoten beibehalten wird Punkt. B-Splines werden als neuer Spline-Typ eingeführt, der als lineare Kombination von Basisfunktionen dargestellt werden kann, wodurch jede Kurve mit diesen Knotenpunkten dargestellt werden kann. Anschließend erklärt Masyukov, wie man Swaps mit einem Solver kalibriert, um sicherzustellen, dass sie zum Nennwert neu bewertet werden. Dies wird am Beispiel von Zinskurveninstrumenten und IRS-Swaps mit Laufzeiten von einem bis 30 Jahren und Quoten von 0,33 % bis 2,67 % veranschaulicht.

  • 00:30:00 In diesem Abschnitt erklärt Ivan Masyukov, wie die Kurve des dreimonatigen Terminzinssatzes aussieht, die hauptsächlich vom LIBOR-Satz für die dreimonatige Zahlungshäufigkeit auf der variablen Seite des Standardzins-USD-Swaps bestimmt wird In den ersten fünf Jahren ist es nicht flach und steil und erreicht später ein Plateau mit einigen Besonderheiten im 20-Jahres-Bereich. Da die Kurve nicht unter der Annahme ermittelt werden kann, dass es für alles nur einen Parameterertrag gibt, benötigen sie einen zusätzlichen Term, um einen fairen Preis zu erhalten und mit den Marktbeobachtbaren übereinzustimmen. Bei der zusätzlichen Laufzeit handelt es sich eher um eine kleine Korrektur der Zinsstrukturkurve als um die grobe Annahme, dass die Kurve flach ist. Dieser Ansatz eignet sich besser, um ein konsistentes Modell für Anleihen und Swaps in unserem Portfolio zu haben und die Liquidität und Kreditspannen von Anleihen zu verstehen.

  • 00:35:00 In diesem Abschnitt verlagert sich der Fokus darauf, wie Spreads gehandelt werden und welche Instrumente als die liquidesten gelten. Es zeigt sich, dass die Anleihe die liquideste Option ist, während der Spread zwischen dem zehnjährigen Swap und der Anleihe die zweitliquideste Option ist. Diese Verschiebung erfordert Zuverlässigkeit bei der Erstellung einer Kurve, da eine kleine Änderung der Eingaben zu großen Schwankungen der Ausgaben führen kann, was für Händler Anlass zur Sorge gibt. Eine typische Situation ist eine, in der ein Händler möchte, dass der Wert seines Modells unempfindlich gegenüber Marktveränderungen ist. Dazu müsste er so viele Einjahres-Swaps wie plus 200 und so viele zweijährige Swaps wie minus kaufen 1.3 und so weiter. Es könnte jedoch teuer sein, etwa 3,6 Millionen Dollar kosten und proportional zum Geld-Angebot bestimmter Instrumente sein.

  • 00:40:00 In diesem Abschnitt wird die Notwendigkeit eines besseren Absicherungsmodells diskutiert, da die derzeitige Absicherungsmethode für Händler nicht effektiv ist. Es wird eine neue allgemeine Formulierung für das Portfoliorisiko vorgestellt, die durch die Vektoren des Portfoliorisikos, das Absicherungsportfolio und die Gewichte dieses Portfolios gekennzeichnet ist. Die Hauptkomponentenanalyse wird verwendet, um das Problem anzugehen und die typischen Modi und Szenarien des Marktes zu analysieren, wobei Händler liquide und günstige Swaps zur Absicherung auswählen. Es wird ein Diagramm der typischen Hauptkomponenten dargestellt, wobei das Hauptverhalten des Marktes darin besteht, dass sich die Zinssätze derzeit nicht ändern, sich aber aufgrund der Anreize der Federal Reserve in Zukunft ändern werden.

  • 00:45:00 In diesem Abschnitt diskutiert der Redner regulierte Preis- und Risikomodelle, insbesondere die Nachteile des PCA-Modells. Das PCA-Modell wird unter Verwendung von Absicherungsinstrumenten formuliert, um die Notwendigkeit einer Minimierung zu eliminieren. Die Koeffizienten sind jedoch nicht sehr stabil, insbesondere bei den neueren Modi auf dem Markt. Darüber hinaus reagiert das Modell empfindlich auf Ausreißer und kann zu einer Überanpassung an historische Daten führen, sodass die Annahme, dass sie auch in Zukunft funktionieren werden, riskant ist. Zu den Vorteilen des Modells gehört, dass es Risiken in weniger, liquidere Zahlen umwandeln kann, die um Größenordnungen kleiner sind als zuvor, was es Händlern ermöglicht, fundierte Entscheidungen zu treffen.

  • 00:50:00 In diesem Abschnitt geht es im Video um regulierte Preis- und Risikomodelle und darum, wie die Einführung zusätzlicher Einschränkungen oder Überlegungen zum Verhalten von Risikomatrizen die Situation verbessern kann. Der Redner erklärt die PCA-Interpretation der Risikomatrix und wie es sich um eine lineare Kombination von Hauptkomponenten handelt, die jeweils eine Verschiebung bei einem Sicherungsinstrument bewirkt. Sie diskutieren auch einen Ansatz, der über historische Daten hinausgeht und Zinskurven anhand von Terminzinssätzen erstellt, um die Unglätte zu minimieren, indem Gleichungen bestraft werden, bei denen die Jacobi-Matrix eine Matrix ist, die Verschiebungen von Zinskurveneingaben übersetzt. Das Video zeigt auch, wie die Preismaschine und der Kalibrierungsprozess mithilfe des HJM-Modells zur Preisvolatilität funktionieren.

  • 00:55:00 In diesem Abschnitt erklärt der Redner die Entwicklungsgleichungen der Terminraten, die für die Monte-Carlo-Simulation erforderlich sind, wobei die Terminraten die Größe sind, die assimiliert wird. Der Redner erörtert die Drift der Terminzinsen, die in gewissem Maße von den Terminzinsen hoch Beta abhängt. Es wird die Volatilitätsoberfläche eingeführt, die die für den Kalender und die Vorlaufzeit zu verwendende Volatilitätszahl angibt, und die Korrelation und Faktorstruktur werden kurz erwähnt. Der Sprecher erklärt, dass die Dreiecksfläche für die Volatilität des Übergangs für jeden Pfeil verwendet wird und zeigt ein Beispiel der Volatilitätsfläche. Das Problem liegt in der Berechnung der Dreiecksmatrix, die eine Dimension von 240 mal 240 hat und bis zu 60 Jahre Daten benötigt, was sie zu einer anspruchsvollen Aufgabe macht.

  • 01:00:00 In diesem Abschnitt des Videos erklärt der Referent, wie man an die Problematik der Kalibrierung einer Volatilitätsoberfläche herangeht. Da die Anzahl der zu kalibrierenden Elemente groß ist, ist eine formale Lösung, die eine Matrix von 28K x 28K speichert, nicht praktikabel. Da es außerdem weniger Kalibrierungsinstrumente als zu kalibrierende Elemente gibt, handelt es sich um ein unterbestimmtes Problem, das zu instabilen Lösungen führt. Um dieses Problem zu lösen, stellen sie die Oberfläche als Vektor dar und verwenden eine lineare Kombination von Basisfunktionen, die sinnvollen Funktionen mit der gleichen Anzahl von Basisfunktionen wie Eingabeinstrumenten entspricht. Obwohl es perfekt kalibriert ist, sieht die resultierende Oberfläche weniger wie eine Volatilitätsoberfläche aus, sondern eher wie die Skyline von Manhattan mit dem Hudson River und Gebäudeformen. Dieser Ansatz wird häufig verwendet, führt jedoch zu instabilen Ergebnissen.

  • 01:05:00 In diesem Abschnitt des Videos erörtert der Redner das Problem der Fehlstellung von Preis- und Risikomodellen, was bedeutet, dass kleine Änderungen bei den Inputs zu drastischen Änderungen bei den Outputs führen können. Um dieses Problem anzugehen, schlagen sie vor, Einschränkungen für die Ausgaben festzulegen, indem Basisfunktionen verwendet werden, die von vornherein glatt sind, wie z. B. B-Splines, und Straffunktionen verwendet werden, um die Änderung und Glätte der Volatilitätsoberfläche zu steuern. Auf diese Weise können sie aussagekräftige Ergebnisse erzielen, ohne dass sie jedes Eingabegerät genau kalibrieren müssen. Der Referent demonstriert, wie Basisfunktionen zweidimensional konstruiert und durch Linearkombinationen kombiniert werden können.

  • 01:10:00 In diesem Abschnitt diskutiert der Redner das Konzept regulierter Preis- und Risikomodelle. Der Sprecher erklärt, dass L1- und L2-Matrizen, die aus den Werten 1 und -1 bestehen, verwendet werden können, um den Gradienten eines Vektors zu bestrafen, wenn ein Glätteansatz gewünscht wird. Um ein schlecht gestelltes Problem zu lösen, bei dem geringes Rauschen und unbedeutende Moden erhebliche Änderungen in der Ausgabe verursachen können, kann die Tikhonov-Regularisierungstechnik eingesetzt werden. Bei dieser Technik wird der Amplitude ein Abzug hinzugefügt, um die Auswirkungen des Rauschens zu reduzieren. Der Redner betont, dass eine Regularisierung erforderlich ist, um Preisfehler zu minimieren, da die zu kalibrierenden Zahlen immer mit Unsicherheiten behaftet sind und das Modell nicht immer perfekt ist.

  • 01:15:00 In diesem Abschnitt wird das Konzept regulierter Preis- und Risikomodelle diskutiert. Die Tikhonov-Regularisierung wird als Methode zur Verbesserung der Stabilität bei schlecht konditionierten Problemen eingeführt. Durch die Bestrafung der Amplitude oder einer linearen Kombination der Lösung kann die Regularisierung ein aussagekräftigeres und realistischeres Ergebnis liefern, wenn auch möglicherweise mit einer voreingenommenen Lösung. Truncated SVD ist ein weiterer Ansatz, mit dem nur die signifikanten Singulärwerte ausgewählt werden können, was zu einem robusteren Modell führt. Der Schlüssel besteht darin, die spezifische Menge, die einer Regularisierung bedarf, zu identifizieren und zu bestrafen, anstatt blind einen Lehrbuchansatz anzuwenden.

  • 01:20:00 In diesem Abschnitt beantwortet Ivan Masyukov Fragen des Publikums zu den Techniken, die zum Anpassen von Funktionen verwendet werden, insbesondere Spline-Techniken. Er erklärt, dass ein Spline oder eine Interpolation verwendet wird, wenn die Anzahl der Eingaben begrenzt ist und man dazwischen zeichnen möchte. Er erörtert auch die Interpretation des Interpolationsdiagramms und wie Händler es verwenden, um etwaige Abweichungen zu kalibrieren und zu arbitrieren. Darüber hinaus erklärt er, wie Swaptions bei der Modellierung der Volatilität verwendet werden und wie Händler aus den festgestellten Abweichungen Geschäfte machen.

  • 01:25:00 In diesem Abschnitt erörtert der Redner die regulierten Preis- und Risikomodelle, die von Markthändlern verwendet werden, um Anomalien auf dem Markt zu finden und diese durch Geschäfte auszunutzen. Diese Modelle können Eingaben wie Glattheitsannahmen über die Terminkurse oder Kombinationen von Hauptkomponentenanalysen (PCA) einbeziehen. Obwohl Anleihen das liquideste Instrument auf dem Markt sind, werden sie nicht kontinuierlich gehandelt, sodass Swaps besser zum Aufbau einer Kurve geeignet sind. Sobald die Swap-Kurve erstellt ist, nutzen Anleihenhändler sie zur Absicherung, da Anleihen liquider sind als Swaps. Allerdings greifen Händler, die nur Anleihen handeln, mangels einer stabilen Kurve häufig auf PCA-Modelle oder andere Methoden zurück.
10. Regularized Pricing and Risk Models
10. Regularized Pricing and Risk Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Ivan MasyukovThis...
 

11. Zeitreihenanalyse II


11. Zeitreihenanalyse II

Dieses Video befasst sich mit verschiedenen Aspekten der Zeitreihenanalyse und baut auf der Diskussion der vorherigen Vorlesung zur Volatilitätsmodellierung auf. Der Professor stellt zunächst GARCH-Modelle vor, die einen flexiblen Ansatz zur Messung der Volatilität in Finanzzeitreihen bieten. Die Nutzung der Maximum-Likelihood-Schätzung in Verbindung mit GARCH-Modellen wird untersucht, zusammen mit der Verwendung von t-Verteilungen als Alternative zur Modellierung von Zeitreihendaten. Die Approximation von t-Verteilungen mit Normalverteilungen wird ebenfalls diskutiert. Weiter geht es mit multivariaten Zeitreihen. In der Vorlesung werden Kreuzkovarianz- und Wold-Zerlegungstheoreme behandelt. Der Referent erläutert, wie vektorautoregressive Prozesse Zeitreihenmodelle höherer Ordnung in Modelle erster Ordnung vereinfachen. Darüber hinaus wird die Berechnung des Mittelwerts für stationäre VAR-Prozesse und deren Darstellung als System von Regressionsgleichungen diskutiert.

Anschließend geht die Vorlesung tiefer auf das multivariate Regressionsmodell für die Zeitreihenanalyse ein und betont dessen Spezifikation durch separate univariate Regressionsmodelle für jede Komponentenreihe. Das Konzept des Vektorisierungsoperators wird vorgestellt und seine Nützlichkeit bei der Umwandlung des multivariaten Regressionsmodells in eine lineare Regressionsform demonstriert. Der Schätzprozess, einschließlich der Maximum-Likelihood-Schätzung und der Modellauswahlkriterien, wird ebenfalls erläutert. Die Vorlesung schließt mit der Darstellung der Anwendung von Vektor-Autoregressionsmodellen bei der Analyse von Zeitreihendaten im Zusammenhang mit Wachstum, Inflation, Arbeitslosigkeit und den Auswirkungen der Zinspolitik. Impulsantwortfunktionen werden verwendet, um die Auswirkungen von Innovationen in einer Komponente der Zeitreihe auf andere Variablen zu verstehen.

Darüber hinaus wird auf die Fortführung der Volatilitätsmodellierung aus der vorherigen Vorlesung eingegangen. Es werden ARCH-Modelle definiert, die zeitlich variierende Volatilität in Finanzzeitreihen berücksichtigen. Das GARCH-Modell, eine Erweiterung des ARCH-Modells mit zusätzlichen Parametern, zeichnet sich durch seine Vorteile gegenüber dem ARCH-Modell aus, da es eine größere Flexibilität bei der Modellierung der Volatilität bietet. Der Dozent betont, dass GARCH-Modelle Gauß-Verteilungen für die Innovationen in der Rückkehrreihe annehmen.

Darüber hinaus wird die Implementierung von GARCH-Modellen unter Verwendung der Maximum-Likelihood-Schätzung untersucht. Das ARMA-Modell für quadrierte Residuen kann als polynomiale Verzögerung von Innovationen zur Messung der bedingten Varianz ausgedrückt werden. Die Quadratwurzel der langfristigen Varianz wird bestimmt, indem sichergestellt wird, dass die Wurzeln des Operators außerhalb des Einheitskreises liegen. Bei der Maximum-Likelihood-Schätzung wird die Wahrscheinlichkeitsfunktion auf der Grundlage der Daten und unbekannter Parameter erstellt, wobei die gemeinsame Dichtefunktion als Produkt aufeinanderfolgender bedingter Erwartungen der Zeitreihe dargestellt wird. Diese bedingten Dichten folgen Normalverteilungen.

Die mit der Schätzung von GARCH-Modellen verbundenen Herausforderungen, die hauptsächlich auf Einschränkungen der zugrunde liegenden Parameter zurückzuführen sind, werden diskutiert. Um eine konvexe Funktion zu optimieren und ihr Minimum zu finden, ist es notwendig, die Parameter in einen Bereich ohne Einschränkungen umzuwandeln. Nach der Anpassung des Modells werden die Residuen mithilfe verschiedener Tests bewertet, um die Normalität zu beurteilen und Unregelmäßigkeiten zu analysieren. Zur Anpassung des GARCH-Modells für den Euro-Dollar-Wechselkurs wird ein R-Paket namens Rugarch verwendet, wobei nach der Anpassung des Mittelwertprozesses für Wechselkursrenditen ein normaler GARCH-Term verwendet wird. Die Reihenfolge des autoregressiven Prozesses wird mithilfe des Akaike-Informationskriteriums bestimmt und zur Bewertung des Modells wird ein normales Quantil-Quantil-Diagramm der autoregressiven Residuen erstellt.

Der Dozent hebt auch die Verwendung von t-Verteilungen zur Modellierung von Zeitreihendaten hervor, die im Vergleich zu Gauß-Verteilungen eine stärker ausgeprägte Verteilung bieten. GARCH-Modelle mit t-Verteilungen können die Volatilität effektiv schätzen und Value-at-Risk-Grenzwerte berechnen. Die t-Verteilung dient als gute Annäherung an eine Normalverteilung, und der Dozent empfiehlt, verschiedene Verteilungen zu untersuchen, um die Zeitreihenmodellierung zu verbessern. Darüber hinaus wird die Approximation von t-Verteilungen mit Normalverteilungen diskutiert. Die t-Verteilung kann als vernünftige Annäherung an eine Normalverteilung angesehen werden, wenn sie 25–40 Freiheitsgrade aufweist. Der Dozent präsentiert ein Diagramm, in dem die Wahrscheinlichkeitsdichtefunktionen einer Standardnormalverteilung und einer Standard-t-Verteilung mit 30 Freiheitsgraden verglichen werden, und zeigt, dass die beiden Verteilungen ähnlich sind, sich jedoch in den Enden unterscheiden.

In der Vorlesung erläutert der Professor weiterhin die Analyse von Zeitreihendaten mithilfe von Vektorautoregressionsmodellen (VAR). Der Schwerpunkt liegt auf dem Verständnis der Beziehung zwischen Variablen und der Auswirkungen von Innovationen auf die interessierenden Variablen. Um die Beziehungen zwischen Variablen in einem VAR-Modell zu analysieren, werden die multivariate Autokorrelationsfunktion (ACF) und die partielle Autokorrelationsfunktion (PACF) verwendet. Diese Funktionen erfassen die Querverzögerungen zwischen den Variablen und liefern Einblicke in die dynamischen Wechselwirkungen zwischen ihnen. Durch die Untersuchung von ACF und PACF kann man die signifikanten Verzögerungen und ihre Auswirkungen auf die Variablen identifizieren. Darüber hinaus werden die Impulsantwortfunktionen (IRFs) eingesetzt, um die Auswirkungen von Innovationen auf die Variablen im Zeitverlauf zu verstehen. Eine Innovation bezieht sich auf einen Schock oder eine unerwartete Änderung einer der Variablen. Die IRFs veranschaulichen, wie die Variablen auf eine Innovation in einer Komponente der multivariaten Zeitreihe reagieren. Diese Analyse hilft dabei, die Ausbreitung und das Ausmaß von Erschütterungen im gesamten System zu verstehen.

Tritt beispielsweise eine Innovation bei der Arbeitslosenquote ein, können die IRFs zeigen, wie sich dieser Schock auf andere Variablen wie den Federal Funds Rate und den Verbraucherpreisindex (VPI) auswirkt. Das Ausmaß und die Dauer der Reaktion können beobachtet werden und geben Einblicke in die gegenseitigen Abhängigkeiten und Spillover-Effekte innerhalb des Systems. Zusätzlich zu den IRFs können andere statistische Maße wie die Prognosefehlervarianzzerlegung (FEVD) verwendet werden. FEVD zerlegt die Prognosefehlervarianz jeder Variablen in die Beiträge ihrer eigenen Schocks und der Schocks anderer Variablen. Diese Analyse ermöglicht die Quantifizierung der relativen Bedeutung verschiedener Schocks für die Variabilität jeder Variablen. Durch den Einsatz von VAR-Modellen und die Analyse von ACF, PACF, IRFs und FEVD können Forscher ein umfassendes Verständnis der Beziehungen und Dynamiken innerhalb einer multivariaten Zeitreihe gewinnen. Diese Erkenntnisse sind wertvoll für Prognosen, politische Analysen und das Verständnis der komplexen Wechselwirkungen zwischen Wirtschaftsvariablen.

Zusammenfassend liegt in der Vorlesung der Schwerpunkt auf der Anwendung von VAR-Modellen zur Analyse von Zeitreihendaten. Es wird die Verwendung von ACF und PACF zur Erfassung von Cross-Lags, IRFs zur Untersuchung der Auswirkungen von Innovationen und FEVD zur Quantifizierung der Beiträge verschiedener Schocks hervorgehoben. Diese Techniken ermöglichen ein tieferes Verständnis der Beziehungen und Dynamiken innerhalb multivariater Zeitreihen und erleichtern genaue Prognosen und politische Entscheidungen.

  • 00:00:00 In diesem Abschnitt diskutiert der Professor die Fortführung der Volatilitätsmodellierung in der vorherigen Vorlesung, indem er sich mit der Definition von ARCH-Modellen befasst, die zeitlich veränderliche Volatilität in Finanzzeitreihen zulassen. Das GARCH-Modell, eine Erweiterung des ARCH-Modells um zusätzliche Parameter, hat gegenüber dem ARCH-Modell viele weitere Vorteile und verfügt über weniger Parameter. Durch das Hinzufügen des zusätzlichen Parameters, der die aktuelle Volatilität mit dem vergangenen oder verzögerten Wert in Beziehung setzt, kann das GARCH-Modell bei der Modellierung der Volatilität flexibel sein. Die Untergrenze der Volatilität ist im ARCH-Modell vorhanden, was dazu führt, dass dieses Modell eine harte Untergrenze hat, während GARCH-Modelle einen viel flexibleren Vorteil bei der Vorhersage von Volatilitätsniveaus haben. Es ist zu beachten, dass wir bei diesen Anpassungen Gaußsche Verteilungen für die Innovationen in der Rückkehrreihe annehmen.

  • 00:05:00 In diesem Abschnitt geht es um GARCH-Modelle und ihre Implementierung mithilfe der Maximum-Likelihood-Schätzung. Mit GARCH-Modellen können wir die Volatilität messen und das ARMA-Modell für die quadrierten Residuen als polynomielle Verzögerung von Innovationen ausdrücken. Für die bedingte Varianz können wir die Quadratwurzel der langfristigen Varianz bestimmen, indem wir verlangen, dass die Wurzeln des Operators Wurzeln außerhalb des Einheitskreises haben. Die Maximum-Likelihood-Schätzung erfordert die Bestimmung der Likelihood-Funktion der Daten bei gegebenen unbekannten Parametern, und die gemeinsame Dichtefunktion kann als Produkt aufeinanderfolgender bedingter Erwartungen der Zeitreihe ausgedrückt werden. Diese bedingten Dichten sind normale Zufallsvariablen.

  • 00:10:00 In diesem Abschnitt erörtert der Redner die Herausforderung der Schätzung von GARCH-Modellen aufgrund von Einschränkungen bei den zugrunde liegenden Parametern, die durchgesetzt werden müssen. Um eine konvexe Funktion zu optimieren und das Minimum einer konvexen Funktion zu finden, funktionieren die Optimierungsmethoden gut und es ist notwendig, die Parameter in eine Skala umzuwandeln, in der ihr Bereich unbegrenzt ist. Nach der Anpassung des Modells müssen die Residuen mit verschiedenen Tests auf Normalität und der Analyse des Ausmaßes der Unregelmäßigkeiten bewertet werden. Mit dem R-Paket namens Rugarch wird das GARCH-Modell für den Euro-Dollar-Wechselkurs mit einem normalen GARCH-Term ausgewählt und angepasst, nachdem der Mittelwertprozess für Wechselkursrenditen angepasst wurde. Um das Modell zu bewerten, wird der autoregressive Prozess mithilfe des Akaike-Informationskriteriums angepasst, um die Reihenfolge des autoregressiven Prozesses auszuwählen und ein normales qq-Diagramm der autoregressiven Residuen zu erstellen.

  • 00:15:00 In diesem Abschnitt diskutiert der Referent die Verwendung einer stärker ausgeprägten Verteilung, insbesondere der t-Verteilung, zur Modellierung von Zeitreihendaten. Im Vergleich zu einer Gaußschen Verteilung berücksichtigt die t-Verteilung die hohen und niedrigen Werte der Residuen besser. Der Vortragende zeigt, wie GARCH-Modelle mit t-Verteilungen die Volatilität ähnlich wie GARCH-Modelle mit Gauß-Verteilungen schätzen und zur Berechnung von Value-at-Risk-Grenzwerten verwendet werden können. Insgesamt kann die t-Verteilung eine gute Annäherung an eine Normalverteilung sein, und der Vortragende empfiehlt, verschiedene Verteilungen zu untersuchen, um Zeitreihendaten besser zu modellieren.

  • 00:20:00 In diesem Abschnitt diskutiert der Professor die Approximation der t-Verteilung mit einer Normalverteilung. Typischerweise kann eine T-Verteilung als gute Annäherung an eine Normalverteilung mit 25–40 Freiheitsgraden betrachtet werden. Der Professor zeigt ein Diagramm, in dem die Wahrscheinlichkeitsdichtefunktionen für eine Standardnormalverteilung und eine Standard-T-Verteilung mit 30 Freiheitsgraden verglichen werden. Die Grafik zeigt, dass die beiden Verteilungen sehr nahe beieinander liegen, sich jedoch in den Enden der Verteilung unterscheiden. Die t-Verteilung hat schwerere Endverteilungen als eine Normalverteilung. Der Professor diskutiert auch das Volatilitäts-Clustering und die Fähigkeit des GARCH-Modells, damit umzugehen. Darüber hinaus weist der Professor darauf hin, dass Renditen schwerere Ausläufer haben als Gaußsche Verteilungen, und in der Hausaufgabe geht es darum, wie das GARCH-Modell damit umgehen kann.

  • 00:25:00 In diesem Abschnitt werden das GARCH-Modell und seine Nützlichkeit für die Modellierung finanzieller Zeitreihen diskutiert. Das GARCH-Modell eignet sich zur Modellierung stationärer Zeitreihen mit Kovarianz, wobei das Volatilitätsmaß ein Maß für die quadrierte Überrendite ist und im Wesentlichen ein stationärer Kovarianzprozess mit einem langfristigen Mittelwert ist. GARCH-Modelle eignen sich hervorragend für die Beschreibung der Volatilität im Verhältnis zum langfristigen Durchschnitt, und im Hinblick auf ihre Nützlichkeit für die Vorhersage sagen sie voraus, dass die Volatilität irgendwann wieder zum Mittelwert zurückkehren wird. Die Geschwindigkeit, mit der die Volatilität zurückkehrt, wird durch den Persistenzparameter angegeben, der durch Alpha_1 plus Beta_1 gemessen werden kann. Je größer Alpha_1 plus Beta_1 ist, desto anhaltender ist die Volatilität. Es gibt viele Erweiterungen der GARCH-Modelle, und im nächsten Thema, multivariate Zeitreihen, wird der multivariate Wold-Darstellungssatz besprochen.

  • 00:30:00 In diesem Abschnitt lernen wir multivariate Zeitreihen kennen, was die Erweiterung univariater Zeitreihen zur Modellierung mehrerer Variablen beinhaltet, die sich im Laufe der Zeit ändern. Wir erweitern die Definition der Kovarianzstationarität auf endliche und begrenzte Momente erster und zweiter Ordnung, wobei eine Zufallsvariable mit M-dimensionalem Wert als M verschiedene Zeitreihen behandelt wird. Für die Varianz-Kovarianz-Matrix der t-ten Beobachtung des multivariaten Prozesses definieren wir gamma_0, den erwarteten Wert von X_t minus mu mal X_t minus mu Primzahl. Die Korrelationsmatrix r_0 wird dann durch Vor- und Nachmultiplikation der Kovarianzmatrix gamma_0 mit einer Diagonalmatrix mit den Quadratwurzeln der Diagonale dieser Matrix erhalten.

  • 00:35:00 In diesem Abschnitt wurde das Konzept der Kreuzkovarianzmatrizen vorgestellt, das untersucht, wie die aktuellen Werte einer multivariaten Zeitreihe mit der k-ten Verzögerung dieser Werte kovariieren. Gamma_k, die Vektorwerte der aktuellen Periode, wird mit der k-ten Verzögerung dieser Werte kovariiert. Die Eigenschaften dieser Matrizen wurden erläutert, wobei die Diagonale von gamma_0 die Kovarianzmatrix diagonaler Varianzeinträge ist. Es wurde auch die Existenz des Wold-Zerlegungssatzes erwähnt, eines fortgeschrittenen Satzes, der den univariaten Wold-Zerlegungssatz erweitert. Dieser Satz ist nützlich, um Beurteilungen der Kausalität zwischen Variablen in wirtschaftlichen Zeitreihen zu ermitteln.

  • 00:40:00 In diesem Abschnitt wird das Konzept der Wold-Zerlegungsdarstellung für einen kovarianzstationären Prozess vorgestellt. Der Prozess wird als Summe eines deterministischen Prozesses und eines gleitenden Durchschnittsprozesses eines weißen Rauschens dargestellt. In einem multivariaten Fall könnte der deterministische Prozess ein linearer oder exponentieller Trend sein, und der Prozess mit weißem Rauschen ist ein m-dimensionaler Vektor mit einem Mittelwert von 0 und einer positiven semidefiniten Varianz/Kovarianz-Matrix. Die Innovation besteht in der Störung des modellierten Prozesses, die nicht durch vorherige Informationen vorhergesagt werden kann. Die Summe der Terme in der Kovarianzmatrix muss konvergieren, damit der Prozess kovarianzstationär ist.

  • 00:45:00 In diesem Abschnitt wird die Wold-Zerlegung als eine Möglichkeit zur Darstellung der Informationsbits besprochen, die den Prozess beeinflussen und zuvor nicht verfügbar waren. Anschließend geht es im Abschnitt um vektorautoregressive Prozesse, die modellieren, wie eine bestimmte Komponente der multivariaten Reihe von anderen Variablen oder Komponenten der multivariaten Reihe abhängt. Anschließend wird das Konzept erläutert, einen Prozess p-ter Ordnung als Prozess erster Ordnung mit Vektorautoregressionen neu auszudrücken. Hierbei handelt es sich um eine leistungsstarke Technik, die in Zeitreihenmethoden verwendet wird, um die Analyse komplizierter Modelle zu vereinfachen.

  • 00:50:00 In diesem Abschnitt diskutiert der Referent die Darstellung eines multivariaten stochastischen Prozesses unter Verwendung der Vektoren Z_t und Z_(t-1) und wie er in ein Zeitreihenmodell erster Ordnung mit einer größeren multivariaten Reihe transformiert werden kann. Der Prozess ist stationär, wenn alle Eigenwerte der Begleitmatrix A einen Modul kleiner als 1 haben, was sicherstellt, dass der Prozess kein explosives Verhalten zeigt, wenn er im Laufe der Zeit zunimmt. Diese Anforderung ist dieselbe, da alle Wurzeln der Polynomgleichung außerhalb des Einheitskreises liegen. Die Ordnung des Polynoms wird in diesem Auszug nicht erwähnt.

  • 00:55:00 In diesem Abschnitt liegt der Schwerpunkt auf der Berechnung des Mittelwerts des stationären VAR-Prozesses durch Berücksichtigung der Erwartungen auf beiden Seiten der Gleichung. Der bedingungslose Mittelwert des Prozesses wird durch Auflösen nach mu in der zweiten bis dritten Zeile ermittelt. Das Vektor-Autoregressionsmodell wird als System von Regressionsgleichungen ausgedrückt, das aus m Regressionsmodellen besteht, die jeder Komponente der multivariaten Reihe entsprechen. Das m-te Regressionsmodell modelliert die j-te Spalte der Matrix als Z beta j und epsilon j, wobei Z ein Vektor verzögerter Werte des multivariaten Prozesses ist. Bei der Berechnung wird davon ausgegangen, dass p Beobachtungen vor der Stichprobe verfügbar sind.

  • 01:00:00 In diesem Abschnitt erklärt der Referent das multivariate Regressionsmodell für die Zeitreihenanalyse. Das Modell besteht aus einem linearen Regressionsmodell für die Verzögerungen der gesamten multivariaten Reihe bis zu p-Verzögerungen mit ihrem durch βj gegebenen Regressionsparameter, der den verschiedenen Elementen der Phi-Matrizen entspricht. Der Referent definiert das multivariate Regressionsmodell und erklärt, wie man es spezifiziert, indem man das univariate Regressionsmodell für jede Komponentenreihe separat betrachtet. Dies hängt mit scheinbar unabhängigen Regressionen in der Ökonometrie zusammen.

  • 01:05:00 In diesem Abschnitt der Vorlesung diskutiert der Professor die Schätzmethoden für die Parameter einer linearen Regression und wie man Varianzen und Kovarianzen von Innovationstermen schätzt. Der Prozess beinhaltet die Anwendung einfacher Schätzmethoden für den Parameter einer linearen Regression und die anschließende Schätzung der Varianzen/Kovarianzen des Innovationsterms. Ein wesentliches Ergebnis ist, dass diese komponentenweisen Regressionen auch die optimale Schätzung für die multivariate Regression darstellen. In dieser Theorie werden die Kronecker-Produktoperatoren verwendet, die für vec-Operatoren gelten, die eine Matrix nehmen und die Spalten zusammenstapeln.

  • 01:10:00 In diesem Abschnitt wird das Konzept des Vektorisierungsoperators vorgestellt und seine Verwendung zur Umwandlung von Begriffen in eine praktischere Form erläutert. Das multivariate Regressionsmodell wird mithilfe einer Matrixstruktur erstellt und in Form einer linearen Regression ausgedrückt. Durch Vektorisieren der Betamatrix, des Epsilons und des Y kann man mit diesen Modellen die Likelihood-Funktion bei der Maximum-Likelihood-Schätzung definieren. Die unbekannten Parameter Beta Star und Sigma, die gleich der Verbindungsdichte dieses normalen linearen Regressionsmodells sind, entsprechen dem, was zuvor in der Regressionsanalyse mit einer komplizierteren Definition der unabhängigen Variablenmatrix X Star und der Varianz/Kovarianz-Matrix Sigma verwendet wurde Stern.

  • 01:15:00 In diesem Abschnitt wird das Konzept der konzentrierten Log-Likelihood diskutiert und es wird gezeigt, dass die Schätzung des Regressionsparameters Beta unabhängig von der Kovarianzmatrix Sigma ist. Dies ermöglicht die Konzentration der Wahrscheinlichkeitsfunktion, die beim Schätzen der Kovarianzmatrix maximiert werden muss. Die Maximierung erfolgt durch den Logarithmus einer Determinante einer Matrix minus n über 2 der Spur dieser Matrix mal einer Schätzung davon. Darüber hinaus können Modellauswahlkriterien wie das Akaike-Informationskriterium, das Bayes-Informationskriterium und das Hannan-Quinn-Kriterium angewendet werden. Abschließend wird ein Beispiel für die Anpassung von Vektorautoregressionen an makroökonomische Variablen gezeigt, das zeigt, wie wichtig es ist, zu verstehen, welche Faktoren die Wirtschaft im Hinblick auf Wachstum, Inflation, Arbeitslosigkeit und die Auswirkungen der Zinspolitik beeinflussen.

  • 01:20:00 In diesem Abschnitt diskutiert der Redner die Verwendung von Vektor-Autoregressionsmodellen zur Analyse von Zeitreihendaten. Die untersuchten spezifischen Variablen sind die Arbeitslosenquote, Bundesmittel und der VPI (ein Maß für die Inflation). Die multivariaten Versionen der Autokorrelationsfunktion und der partiellen Autokorrelationsfunktion werden verwendet, um die Kreuzverzögerungen zwischen Variablen in diesen Modellen zu erfassen. Die Impulsantwortfunktionen werden dann verwendet, um die Auswirkungen einer Innovation in einer der Komponenten der multivariaten Zeitreihe auf die anderen Variablen zu verstehen. Dies ist wichtig, um den Zusammenhang zwischen der Darstellung des gleitenden Durchschnitts und diesen Zeitreihenmodellen zu verstehen.
11. Time Series Analysis II
11. Time Series Analysis II
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

12. Zeitreihenanalyse III



12. Zeitreihenanalyse III

In diesem YouTube-Video zur Zeitreihenanalyse behandelt der Professor eine Reihe von Modellen und deren Anwendungen in verschiedenen Szenarien. Das Video befasst sich mit Themen wie Vektorautoregressionsmodellen (VAR), Kointegration und linearen Zustandsraummodellen. Diese Modelle sind von entscheidender Bedeutung für die Prognose von Variablen wie Arbeitslosigkeit, Inflation und Wirtschaftswachstum, indem sie Autokorrelation und partielle Autokorrelationskoeffizienten untersuchen.

Das Video beginnt mit einer Einführung in die lineare Zustandsraummodellierung und den Kalman-Filter, die zur Schätzung und Prognose von Zeitreihenmodellen verwendet werden. Bei der linearen Zustandsraummodellierung werden Beobachtungs- und Zustandsgleichungen aufgestellt, um den Modellschätzungsprozess zu erleichtern. Der Kalman-Filter, ein leistungsstarkes Tool, berechnet die Likelihood-Funktion und liefert wesentliche Begriffe für Schätzungen und Prognosen.

Anschließend erklärt der Dozent, wie man Zustandsraumdarstellungen für autoregressive Moving Average (ARMA)-Prozesse ableitet. Dieser Ansatz ermöglicht eine flexible Darstellung der Beziehungen zwischen Variablen in einer Zeitreihe. Das Video unterstreicht die Bedeutung von Harveys Arbeit aus dem Jahr 1993, die eine bestimmte Zustandsraumdarstellung für ARMA-Prozesse definierte.

Anschließend untersucht das Video die Anwendung von VAR-Modellen auf makroökonomische Variablen zur Prognose von Wachstum, Inflation und Arbeitslosigkeit. Durch die Analyse von Autokorrelations- und partiellen Autokorrelationskoeffizienten können Forscher die Beziehungen zwischen Variablen bestimmen und Muster und Korrelationen identifizieren. Das Video bietet ein Beispiel für ein Regressionsmodell und veranschaulicht, wie der Fed Funds Rate als Funktion der verzögerten Arbeitslosenquote, des Fed Funds Rate und des VPI modelliert werden kann. Dieses Beispiel zeigt, dass ein Anstieg der Arbeitslosenquote tendenziell zu einem Rückgang des Fed Funds Rate im Folgemonat führt.

Anschließend wird das Konzept der Kointegration eingeführt, das sich mit instationären Zeitreihen und ihren linearen Kombinationen befasst. Bei der Kointegration geht es darum, einen Vektor Beta zu finden, der in Kombination mit den interessierenden Variablen einen stationären Prozess erzeugt. Das Video diskutiert Beispiele wie die Laufzeitstruktur von Zinssätzen, die Kaufkraftparität sowie Kassa- und Terminbeziehungen. Eine Darstellung anhand von Energie-Futures, insbesondere Rohöl-, Benzin- und Heizölkontrakten, verdeutlicht das Konzept der Kointegration.

Das Video untersucht weiter die Schätzung von VAR-Modellen und die Analyse kointegrierter Vektor-Autoregression-Prozesse. Es wird auf die Arbeit von Sims, Stock und Watson verwiesen, die zeigt, wie der Kleinste-Quadrate-Schätzer auf diese Modelle angewendet werden kann. Erwähnt werden auch Maximum-Likelihood-Schätzungen und Rangtests für kointegrierende Beziehungen. Es wird eine Fallstudie zu Rissausbreitungsdaten vorgestellt, einschließlich der Prüfung auf Nichtstationarität mithilfe eines erweiterten Dickey-Fuller-Tests. Als nächstes konzentriert sich das Video auf Rohöl-Futures-Daten und die Bestimmung von Instationaritäts- und Integrationsordnungen. Zur Prüfung des Rangs des kointegrierten Prozesses wird das Johansen-Verfahren eingesetzt. Die der stationären Beziehung entsprechenden Eigenvektoren geben Einblicke in die Beziehungen zwischen Rohöl-Futures, Benzin (RBOB) und Heizöl.

Anschließend stellt die Vorlesung lineare Zustandsraummodelle vor, um verschiedene Zeitreihenmodelle auszudrücken, die in den Wirtschafts- und Finanzwissenschaften verwendet werden. Die Zustandsgleichung und die Beobachtungsgleichung werden erläutert und demonstrieren die Flexibilität dieses Modellierungsrahmens. Das Video veranschaulicht die Darstellung eines Kapitalvermögenspreismodells mit zeitlich variierenden Betas als lineares Zustandsraummodell. Durch die Einbeziehung der Zeitabhängigkeit in die Regressionsparameter erfasst das Modell dynamische Änderungen. Darüber hinaus diskutiert der Dozent das Konzept der zeitlichen Veränderung von Regressionsparametern unter der Annahme, dass diese unabhängigen Zufallswanderungen folgen. Die gemeinsame Zustandsraumgleichung und ihre Implementierung zur rekursiven Aktualisierung von Regressionen beim Hinzufügen neuer Daten werden erläutert. Autoregressive Modelle der Ordnung P und gleitende Durchschnittsmodelle der Ordnung Q werden als lineare Zustandsraummodelle ausgedrückt.

Anschließend befasst sich die Vorlesung mit der Zustandsgleichung und der Beobachtungsgleichung und betont deren Rolle beim Übergang zwischen zugrunde liegenden Zuständen. Die Ableitung der Zustandsraumdarstellung für ARMA-Prozesse wird untersucht, wobei die Flexibilität bei der Definition von Zuständen und der zugrunde liegenden Transformationsmatrix hervorgehoben wird.
Die Vorlesung gibt einen Überblick über die Anwendung linearer Zustandsraummodelle auf die Zeitreihenanalyse. Der Referent erklärt, dass diese Modelle zur Schätzung und Prognose von interessierenden Variablen verwendet werden können, indem sowohl beobachtete Daten als auch zugrunde liegende Zustände einbezogen werden. Mithilfe des Kalman-Filters, einem rekursiven Algorithmus, können die Modelle die bedingte Verteilung der Zustände anhand der beobachteten Daten berechnen und zukünftige Zustände und Beobachtungen vorhersagen.

Die Vorlesung betont die Bedeutung des Verständnisses der Schlüsselkomponenten linearer Zustandsraummodelle. Die Zustandsgleichung stellt die Übergangsdynamik der zugrunde liegenden Zustände über die Zeit dar, während die Beobachtungsgleichung die beobachteten Daten mit den zugrunde liegenden Zuständen in Beziehung setzt. Diese Gleichungen definieren zusammen mit der Anfangszustandsverteilung die Modellstruktur.
Anschließend diskutiert der Dozent den Schätzprozess für lineare Zustandsraummodelle. Die Maximum-Likelihood-Schätzung wird üblicherweise verwendet, um die unbekannten Parameter des Modells auf der Grundlage der beobachteten Daten abzuschätzen. Der Kalman-Filter spielt in diesem Prozess eine entscheidende Rolle, indem er die Wahrscheinlichkeitsfunktion berechnet, die die Güte der Übereinstimmung zwischen dem Modell und den Daten misst.

Darüber hinaus wird in der Vorlesung hervorgehoben, dass lineare Zustandsraummodelle einen flexiblen Rahmen für die Modellierung verschiedener wirtschaftlicher und finanzieller Phänomene bieten. Sie können verwendet werden, um autoregressive Modelle, Modelle mit gleitendem Durchschnitt und noch komplexere Modelle wie das Preismodell für Kapitalanlagen mit zeitlich variierenden Betas auszudrücken. Diese Vielseitigkeit macht lineare Zustandsraummodelle zu einem wertvollen Werkzeug für Forscher und Praktiker in den Wirtschafts- und Finanzwissenschaften. Um die praktischen Anwendungen linearer Zustandsraummodelle weiter zu veranschaulichen, stellt die Vorlesung eine Fallstudie zu Rohöl-Futures-Kontrakten vor. Durch die Analyse der Beziehung zwischen den Preisen verschiedener Terminkontrakte wie Rohöl, Benzin und Heizöl demonstriert der Referent, wie lineare Zustandsraummodelle genutzt werden können, um Muster zu erkennen, Preise vorherzusagen und Risiken im Energiemarkt einzuschätzen.

Zusammenfassend bietet das Video einen umfassenden Überblick über lineare Zustandsraummodelle und ihre Anwendungen in der Zeitreihenanalyse. Durch die Nutzung des Kalman-Filters ermöglichen diese Modelle Forschern, interessierende Variablen abzuschätzen und vorherzusagen, die Dynamik zugrunde liegender Zustände zu verstehen und die komplexen Beziehungen zwischen Variablen zu erfassen. Die Vorlesung betont die Flexibilität und Nützlichkeit linearer Zustandsraummodelle in verschiedenen Wirtschafts- und Finanzkontexten und macht sie zu einem wertvollen Werkzeug für die empirische Analyse und Entscheidungsfindung.

  • 00:00:00 In diesem Abschnitt stellt der Professor makroökonomische Variablen vor, die zur Prognose von Wachstum, Inflation und Arbeitslosigkeit in der Wirtschaft verwendet werden können, und konzentriert sich auf eine Zusammenfassung des Vektor-Autoregressions-Anpassungsmodells. Es stellte sich heraus, dass die Wurzeln des charakteristischen Polynoms im Modell instationär waren, was darauf hindeutet, dass zur Modellierung eine andere Reihe verwendet werden sollte. Um diese Nichtstationarität zu beseitigen, schlägt der Professor die Modellierung erster Differenzen vor, was dadurch erreicht werden kann, dass Differenzen aller Reihen herangezogen und fehlende Werte eliminiert werden. Das Diagramm zeigt die Zeitreiheneigenschaften der Differenzreihen an, einschließlich diagonaler Autokorrelationsfunktionen und Kreuzkorrelationen, die sich als statistisch signifikant erweisen. Die partielle Autokorrelationsfunktion wird ebenfalls besprochen, die Korrelationen zwischen Variablen und der Verzögerung einer anderen beinhaltet, nachdem alle Verzögerungen niedrigeren Grades erklärt wurden.

  • 00:05:00 In diesem Abschnitt wird im Video die Verwendung vektorautoregressiver Modelle erörtert, die es Forschern ermöglichen, die strukturellen Beziehungen zwischen mehreren makroökonomischen Variablen zu modellieren. Das Beispiel konzentriert sich auf drei Variablen: die Arbeitslosenquote, den Fed Funds Rate und den CPI. Durch die Untersuchung der Autokorrelationskoeffizienten und der partiellen Autokorrelationskoeffizienten können Forscher die Beziehungen zwischen diesen Variablen bestimmen und Muster und Korrelationen identifizieren. Das Video bietet außerdem ein Regressionsmodell für den Fed Funds Rate als Funktion der verzögerten Arbeitslosenquote, des Fed Funds Rate und des VPI. Dieses Modell zeigt, dass der Fed-Zinssatz im nächsten Monat wahrscheinlich sinken wird, wenn die Arbeitslosenquote steigt. Das Video betont, wie wichtig es ist, das Signal-Rausch-Verhältnis zu verstehen, wenn die autoregressiven Parameter geschätzt und die Koeffizienten interpretiert werden.

  • 00:10:00 In diesem Abschnitt des Videos stellt der Redner das Konzept der Kointegration vor, ein wichtiges Thema in der Zeitreihenanalyse, die sich mit instationären Zeitreihen befasst. Die Diskussion beginnt mit dem Kontext, in dem Kointegration relevant ist, und konzentriert sich auf stochastische Prozesse, die in einer bestimmten Ordnung d integriert sind, was bedeutet, dass die d-te Differenz stationär ist. Während die ersten Differenzen zu Stationarität führen, gehen bei dem Prozess einige Informationen verloren, und die Kointegration bietet einen Rahmen, um alle verfügbaren Informationen für die statistische Modellierung systematisch zu charakterisieren. Ein instationärer Prozess kann immer noch eine vektorautoregressive Darstellung haben, die als Polynomverzögerung der x gleich dem Epsilon des weißen Rauschens ausgedrückt werden kann. Um ihn auf Stationarität zu reduzieren, muss die Differenz d-ter Ordnung genommen werden.

  • 00:15:00 In diesem Abschnitt des Videos wird das Konzept der Kointegration als eine Möglichkeit vorgestellt, mit Situationen umzugehen, in denen lineare Kombinationen multivariater Zeitreihen stationär sein können, was bedeutet, dass sie die stationären Merkmale des Prozesses darstellen. Bei der Kointegration geht es darum, einen Vektor Beta zu finden, sodass die linearen Gewichte der x-Werte und der Beta-Primzahl X_t ein stationärer Prozess sind. Der Kointegrationsvektor kann beliebig skaliert werden, es ist jedoch gängige Praxis, die erste Komponentenreihe des Prozesses gleich 1 zu setzen. Diese Beziehung entsteht auf vielfältige Weise in der Wirtschaft und im Finanzwesen, einschließlich der Laufzeitstruktur von Zinssätzen, Kaufkraftparität und Geldnachfrage , abgedeckte Zinsparität, das Gesetz des einen Preises sowie Spot- und Futures. Zur Veranschaulichung des Konzepts wird ein Beispiel für Energiezukünfte gegeben.

  • 00:20:00 In diesem Abschnitt bespricht der Professor eine Zeitreihe von Rohöl-, Benzin- und Heizöl-Futures-Kontrakten, die an der CME gehandelt werden. Er erklärt, wie die Terminpreise für Benzin und Heizöl von den Kosten des Inputs, nämlich Rohöl, abhängen sollten. Der Professor zeigt eine Darstellung der Preise der Futures, die im Verhältnis zum Input die gleichen Einheiten des Outputs darstellen. Er stellt fest, dass die Futures für Benzin und Heizöl zwar durchweg über den Futures für Rohölinput liegen, je nachdem, welcher Wert höher ist, variieren sie jedoch. Die Differenz zwischen dem Preis des Heizöl-Futures und des Rohöl-Futures stellt die Wertspanne des Outputs abzüglich des Inputs dar, der die Raffinierungskosten, Angebot und Nachfrage, saisonale Effekte und den Gewinn der Raffinerie umfasst.

  • 00:25:00 In diesem Abschnitt diskutiert die Vorlesung das vektorautoregressive Modell der Ordnung p, das das univariate Modell erweitert. In der Vorlesung wird erläutert, dass die Autoregressivität einer Reihe von allen anderen Reihen abhängt, wodurch das mehrdimensionale weiße Rauschen mit einem Mittelwert von 0 und einer gewissen Kovarianzstruktur entsteht. Der zu integrierende Prozess erster Ordnung wird ebenfalls besprochen, zusammen mit dem Ableitungsprozess, der sich auf Unterschiede mit einigen zusätzlichen Begriffen bezieht. Am Ende liefert die Vorlesung die Gleichung für die Differenz der Reihe, die gleich einer Konstante plus einem Matrixvielfachen der ersten multivariaten Differenzreihe plus einer weiteren Matrix mal der zweiten Differenz ist, bis hinunter zum p-ten Unterschied.

  • 00:30:00 In diesem Abschnitt wird im Video der Prozess der Eliminierung der Nichtstationarität in der Zeitreihe durch die Verwendung verzögerter und differenzierter Reihen erläutert. Das Modell drückt das stochastische Prozessmodell für die Differenzreihe aus, die stationär ist. Während die Terme, die Matrix-Vielfache von Lags sind, stationär sind, enthält der pi X_t-Term die kointegrierenden Terme, die die Identifizierung der Matrix pi beinhalten. Da die ursprüngliche Reihe Einheitswurzeln hatte, hat die Matrix pi einen reduzierten Rang und definiert die kointegrierenden Beziehungen. Die Beta-Spalten definieren linear unabhängige Vektoren, die x kointegrieren. Die Zerlegung von Pi ist nicht eindeutig. Durch die Definition des Koordinatensystems im r-dimensionalen Raum, in dem der Prozess stationär ist, kann die Matrix Pi als Alpha-Beta-Primzahl ausgedrückt werden.

  • 00:35:00 In diesem Abschnitt diskutiert der Redner die Schätzung von Vektor-Autoregressionsmodellen und die Arbeit von Sims, Stock und Watson, die zeigt, wie der Kleinste-Quadrate-Schätzer des Originalmodells für eine Analyse von kointegrierten Vektor-Autoregressionsprozessen verwendet werden kann . Der Redner erwähnt auch die fortgeschrittene Literatur zu Schätzmethoden für diese Modelle, einschließlich der Maximum-Likelihood-Schätzung, die Tests für den Rang der kointegrierenden Beziehung liefert. Es wird auch eine Fallstudie zu den Crack-Spread-Daten besprochen, bei der mithilfe eines erweiterten Dickey-Fuller-Tests auf Nichtstationarität in der zugrunde liegenden Reihe getestet wird, der einen p-Wert von 0,164 für CLC1, den ersten nächstgelegenen Kontrakt, ergibt.

  • 00:40:00 In diesem Abschnitt erörtert der Referent die Nichtstationarität und Integrationsreihenfolge von Rohöl-Futures-Daten und weist darauf hin, dass bei der Spezifikation von Modellen die Berücksichtigung der Nichtstationarität erforderlich ist. Die Ergebnisse der Durchführung eines Johansen-Verfahrens zum Testen des Rangs des kointegrierten Prozesses legen nahe, dass es keine starke Nichtstationarität gibt und der Eigenvektor, der der stationären Beziehung entspricht, durch die Koeffizienten 1 bei Rohöl-Futures, 1,3 bei RBOB und gegeben ist -1,7 auf Heizöl. Die Kombination aus Rohöl plus Benzin minus Heizöl scheint im Laufe der Zeit stationär zu sein, was für Raffinerien nützlich sein könnte, die ihre Produktionsrisiken absichern möchten.

  • 00:45:00 In diesem Abschnitt führt der Referent in das Thema linearer Zustandsraummodelle ein, mit denen viele Zeitreihenmodelle ausgedrückt werden können, die in der Wirtschaft und im Finanzwesen verwendet werden. Das Modell umfasst einen Beobachtungsvektor zum Zeitpunkt t, einen zugrunde liegenden Zustandsvektor, einen Beobachtungsfehlervektor zum Zeitpunkt t und einen Zustandsübergangsinnovationsfehlervektor. Der Referent erläutert die Zustandsgleichung und die Beobachtungsgleichung im Modell, bei denen es sich um lineare Transformationen der Zustände und Beobachtungen plus Rauschen handelt, und wie sie in einer gemeinsamen Gleichung zusammengeschrieben werden können. Die Notation mag kompliziert erscheinen, bietet aber viel Flexibilität bei der Angabe der Beziehungen zwischen Variablen.

  • 00:50:00 In diesem Abschnitt diskutiert der Redner die Darstellung eines Kapitalvermögenspreismodells mit zeitvariablen Betas als lineares Zustandsraummodell. Das Modell erweitert das vorherige, indem es den Regressionsparametern eine Zeitabhängigkeit hinzufügt. Alpha und Beta variieren jetzt mit der Zeit, wobei Alpha eine Gaußsche Zufallswanderung und Beta ebenfalls eine Gaußsche Zufallswanderung ist. Die Zustandsgleichung wird durch Hinzufügen von Random-Walk-Termen angepasst, sodass s_(t+1) gleich T_t s_t plus R_t eta_t ist, mit einer komplexen Darstellung im linearen Zustandsraumrahmen. Die Beobachtungsgleichung wird durch eine Z_t-Matrix definiert, die eine Einheitselementzeilenmatrix von r_(m,t) ist. Die Kovarianzmatrix hat eine blockdiagonale Struktur, wobei die Kovarianz der Epsilons als H und die Kovarianz von R_t eta_t als R_t Q_t R_t transponiert ist. Abschließend betrachtet der Redner einen zweiten Fall linearer Regressionsmodelle, bei denen p unabhängige Variablen zeitlich variieren könnten.

  • 00:55:00 In diesem Abschnitt wird das Konzept der zeitlichen Änderung von Regressionsparametern in einer Zeitreihe vorgestellt, unter der Annahme, dass sie unabhängigen Zufallswanderungen folgen. Die gemeinsame Zustandsraumgleichung wird ebenso erläutert wie die lineare Zustandsraumimplementierung zur rekursiven Aktualisierung von Regressionen, wenn neue Daten hinzugefügt werden. Es werden auch autoregressive Modelle der Ordnung P diskutiert, die die Struktur für die Entwicklung des linearen Zustandsraummodells skizzieren. Schließlich wird das Modell des gleitenden Durchschnitts der Ordnung Q als lineares Zustandsraummodell ausgedrückt.

  • 01:00:00 In diesem Abschnitt diskutiert der Dozent die Zustandsgleichung und die Beobachtungsgleichung, die verwendet werden, um einen Übergang zwischen zugrunde liegenden Zuständen zu geben. Sie verwenden ein Beispiel eines autoregressiven Modells mit gleitendem Durchschnitt, um zu demonstrieren, wie der Aufbau für lineare Zustandsraummodelle den Prozess der Modellschätzung erleichtert. In der Vorlesung wird weiter erklärt, wie Harveys Arbeit im Jahr 1993 eine bestimmte Zustandsraumdarstellung für den ARMA-Prozess definierte und wie es viele verschiedene äquivalente lineare Zustandsraummodelle für einen bestimmten Prozess gibt, je nachdem, wie man die Zustände und die zugrunde liegende Transformation definiert Matrix T. Abschließend wird in der Vorlesung die Zustandsraumdarstellung für den ARMA-Prozess abgeleitet.

  • 01:05:00 In diesem Abschnitt erklärt der Referent, wie man ein einfaches Modell für die Übergangsmatrix T in linearen Zustandsraummodellen erstellt, indem man mithilfe des Beobachtungswerts iterativ nach dem zweiten Zustand auflöst und die Modellgleichung neu schreibt. Dieser Prozess ersetzt die zugrunde liegenden Zustände durch Beobachtungen und führt zu einer Übergangsmatrix T, die in der ersten Spalte autoregressive Komponenten und einen Vektor aus gleitenden Durchschnittskomponenten in der R-Matrix aufweist. Die Wirksamkeit der linearen Zustandsraummodellierung liegt in der vollständigen Spezifikation mit dem Kalman-Filter, der rekursiv die Wahrscheinlichkeitsdichtefunktionen für die zugrunde liegenden Zustände bei t+1 bei gegebenen Informationen bis zum Zeitpunkt t sowie die gemeinsame Dichte des zukünftigen Zustands berechnet und Beobachtung bei t+1, gegebene Informationen bis zum Zeitpunkt t, und die Randverteilung der nächsten Beobachtung, gegebene Informationen bis zum Zeitpunkt t. Die Implementierung des Kalman-Filters erfordert eine Notation mit bedingten Mittelwerten, Kovarianzen und mittleren quadratischen Fehlern, die durch Omegas bestimmt werden.

  • 01:10:00 In diesem Abschnitt bespricht das Transkript den Kalman-Filter, der über vier Schritte verfügt, die dabei helfen, den Zustandsvektor und die Beobachtung in einer Zeitreihe vorherzusagen. Die Filterverstärkungsmatrix wird verwendet, um die Vorhersage des zugrunde liegenden Zustands abhängig vom Geschehen anzupassen, und charakterisiert, wie viele Informationen wir aus jeder Beobachtung erhalten. Die Unsicherheit des Zustands zum Zeitpunkt t wird verringert, indem der Unterschied zwischen dem, was wir beobachtet haben, und dem, was wir vorhergesagt haben, minimiert wird. Es gibt auch einen Prognoseschritt, der den Zustand eine Periode nach vorne vorhersagt und die Kovarianzmatrix für zukünftige Zustände angesichts des vorherigen Zustands aktualisiert. Schließlich charakterisiert der Glättungsschritt die bedingte Erwartung der zugrunde liegenden Zustände bei gegebenen Informationen in der gesamten Zeitreihe.

  • 01:15:00 In diesem Abschnitt stellt der Referent den Kalman-Filter als Werkzeug zur Berechnung der Likelihood-Funktion für lineare Zustandsraummodelle und zur sukzessiven Vorhersage eines Prozesses vor. Sie erklären, dass die Wahrscheinlichkeitsfunktion das Produkt der bedingten Verteilungen jeder aufeinanderfolgenden Beobachtung angesichts der Datenhistorie ist. Der Kalman-Filter liefert alle notwendigen Terme für diese Schätzung, und wenn die Fehlerterme normalverteilt sind, charakterisieren die Mittelwerte und Varianzen dieser Schätzungen die exakten Verteilungen des Prozesses. Darüber hinaus aktualisiert der Kalman-Filter die Mittelwerte und Kovarianzmatrizen für die zugrunde liegenden Zustände und die Verteilungen der Beobachtungen.
12. Time Series Analysis III
12. Time Series Analysis III
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

13. Warenmodelle



13. Warenmodelle

In diesem Video taucht der Redner in die komplexe Welt der Rohstoffmodelle ein und beleuchtet die Herausforderungen, denen sich quantitative Analysten in diesem Bereich gegenübersehen. Sie liefern aufschlussreiche Beispiele, wie etwa den Rekordgewinn von Trafigura im Jahr 2009, der durch den strategischen Einkauf und die Lagerung von Rohöl erzielt wurde. Der Referent diskutiert verschiedene Strategien zur Ausschreibung von Speicher, Optimierungsprobleme und die Bedeutung von Stabilität und Robustheit in Rohstoffmodellen. Darüber hinaus untersuchen sie die Komplexität der Modellierung von Rohstoffpreisen und konzentrieren sich dabei auf die besonderen Überlegungen, die für Strompreise erforderlich sind. Der Redner schlägt eine alternative Methodik vor, die auf die Rohstofflandschaft zugeschnitten ist und sich von Ansätzen unterscheidet, die auf den Märkten für festverzinsliche Wertpapiere, Devisen und Aktien verwendet werden.

Das Video beleuchtet zunächst die spezifischen Probleme, mit denen sich quantitative Analysten im Rohstoffbereich befassen. Als anschauliches Beispiel wird Trafigura vorgestellt, ein Unternehmen, das immens vom dramatischen Ölpreisverfall im Jahr 2009 profitierte. Der Redner erklärt, wie Terminkontrakte auf den Rohstoffmärkten funktionieren, und betont dabei die Konzepte Contango und Backwardation. Contango bezieht sich auf ein Szenario, in dem der zukünftige Spotpreis den aktuellen Spotpreis übersteigt, sodass Händler auch in Zeiten fallender Preise Gewinne erzielen können.

Als nächstes befasst sich der Redner mit der Gewinnstrategie von Trafigura zwischen Februar 2009 und 2010, als die Rohölpreise von 35 $ auf 60 $ pro Barrel stiegen. Durch die Aufnahme von Krediten in Höhe von 35 US-Dollar, den Kauf und die Lagerung von Rohöl und den anschließenden Verkauf zum höheren Preis von 60 US-Dollar erzielte Trafigura einen bemerkenswerten Gewinn von 25 US-Dollar pro Barrel. Diese Strategie wurde in großem Umfang eingesetzt, wobei Millionen Barrel an Lagerkapazitäten benötigt wurden, was zu erheblichen Gewinnen führte. Der Redner betont die Notwendigkeit einer sorgfältigen Strategieplanung bei Speicherauktionen, um Kosten zu decken und effektiv zusätzliche Gewinne zu erzielen.

Im Video werden dann zwei unterschiedliche Strategien für die Bereitstellung von Speicherangeboten in Rohstoffmodellen erörtert. Die erste Strategie besteht darin, dass Händler auf Terminkontrakte für August bieten und diese im Dezember verkaufen, ohne dass sie Kredite aufnehmen müssen. Die zweite von Quants angewandte Strategie besteht darin, die Spread-Option zwischen August- und Dezember-Kontrakten zu verkaufen. Der Wert dieser Option wird durch die Preisdifferenz zwischen den beiden Kontrakten bestimmt, wobei positive Differenzen dem Optionsinhaber Gewinne einbringen und negative Differenzen keinen Gewinn abwerfen. Die zweite Strategie ist zwar komplexer, bietet dem Unternehmen jedoch einen Mehrwert.

Die Vorteile des Verkaufs einer Produktion am 1. August mithilfe eines Warenmodells werden im folgenden Abschnitt erläutert. Durch den Verkauf der Option an diesem bestimmten Datum erhält der Verkäufer einen durch die Formel ermittelten Optionswert, der in der Regel über dem aktuellen Marktwert liegt. Dies verschafft dem Verkäufer eine vorteilhafte Position beim Bieten und ermöglicht ihm, eine Gewinnspanne seiner Wahl zu erzielen. Der Redner erläutert außerdem die Berechnung des Optionsrisikos und wie reale oder physische Vermögenswerte genutzt werden können, um dieses Risiko zu mindern.

Anschließend befasst sich das Video mit der Komplexität von Spread-Optionen innerhalb von Rohstoffmodellen und betont die Notwendigkeit, die wertvollsten Optionsportfolios zu ermitteln und dabei technische, vertragliche, rechtliche und umweltbedingte Einschränkungen zu berücksichtigen. Der Redner betont, wie wichtig es ist, Optionsportfolios so zu verkaufen, dass die Wertentnahme bei Ablauf der Option gewährleistet ist, unter Berücksichtigung der Beschränkungen bei Ein- und Auszahlungsraten.

Ein Optimierungsproblem im Zusammenhang mit Warenmodellen und Speicher wird in einem anderen Abschnitt behandelt. Das Problem besteht darin, Wert aus einer Rohstoffoption zu ziehen, wenn die Lagerkapazität erschöpft ist, und aus dem Lager zu verkaufen, wenn es leer ist. Der Referent erläutert die mit dem Problem verbundenen Variablen und Einschränkungen und zeigt, wie die Optimierung des Portfolios durch eine Reihe von Optionen zur Gewinnmaximierung führen kann. Die Komplexität des Problems erfordert die Verwendung boolescher Variablen und die Konzentration auf die Gewinnmaximierung.

Das Video befasst sich weiter mit den Herausforderungen von Rohstoffmodellen, insbesondere im Zusammenhang mit Ein- und Ausspeiseraten, Kapazitätsbeschränkungen und unbekannten Variablen wie Mengen und Preisen. Diese Faktoren tragen zur nichtlinearen Natur des Problems bei und machen es äußerst schwierig zu lösen, wenn es um zahlreiche Variablen und Einschränkungen geht. Zur Bewältigung der Komplexität von Warenmodellen können verschiedene Ansätze eingesetzt werden, darunter Approximation, Monte-Carlo-Simulationen und stochastische Kontrolle. Die Genauigkeit der Ergebnisse hängt jedoch stark von der Präzision der verwendeten Parameter ab. Selbst die sorgfältigste Methodik kann zu fehlerhaften Ergebnissen führen, wenn die Parameter falsch sind.

Anschließend erläutert der Redner die von ihm gewählte Methodik für die Rohstoffmodellierung, bei der Robustheit und Stabilität Vorrang vor der Erfassung der gesamten Vielfalt des Preisverhaltens haben. Sie warnen davor, ein Modell zu stark zu parametrisieren, da dies zu Instabilität führen und bereits geringfügige Änderungen seinen Wert erheblich beeinträchtigen kann. Durch einen anderen Ansatz legen sie Wert auf Stabilität und Robustheit und ermöglichen so externen Regulierungsbehörden, das Modell zu überprüfen. Darüber hinaus kann jede Komponente des Modells auf dem Markt gehandelt werden, was in der aktuellen Marktlandschaft von erheblicher Bedeutung ist. Außerdem wird das Konzept der dynamischen Absicherung erläutert und gezeigt, wie es mithilfe einer einfachen Spielerfunktion dazu verwendet werden kann, den Wert einer Option nachzubilden und Auszahlungen ohne aktiven Optionsmarkt zu erfüllen.

Der Referent geht tiefer auf das Konzept ein, die Auszahlung einer Option durch dynamisches Hedging nachzubilden. Diese Strategie ermöglicht es Händlern, Portfolios zu verkaufen, auch wenn es keine Käufer gibt. Sie betonen, wie wichtig es ist, eine Strategie zur Wertschöpfung zu entwickeln und mit Speicherbetreibern zusammenzuarbeiten, um den Plan erfolgreich umzusetzen. Der Referent erklärt, wie dieser Ansatz auf die Modellierung physischer Vermögenswerte wie Tanker und Kraftwerke ausgeweitet werden kann, um Gewinne zu maximieren, indem fundierte Entscheidungen auf der Grundlage von Strom- und Kraftstoffpreisen getroffen werden. Auch wenn die Art jedes Vermögenswerts variieren kann, bleibt der konzeptionelle Ansatz derselbe und erfordert ein umfassendes Verständnis der einzigartigen Feinheiten und Einschränkungen, die mit jedem Vermögenswert verbunden sind.

In einem weiteren Abschnitt untersucht das Video den Prozess der Berechnung der Kosten für die Erzeugung einer Megawattstunde Strom auf der Grundlage der Kraftwerkseffizienz. Der Wirkungsgrad, quantifiziert als Wärmerate, gemessen in mm BTU, gibt die Menge an Erdgas an, die zur Erzeugung einer Megawattstunde Strom erforderlich ist. Die einem Erdgaskraftwerk entsprechende Konstante liegt typischerweise zwischen 7 und 20, wobei niedrigere Werte auf einen höheren Wirkungsgrad hinweisen. Zusätzliche Kosten im Zusammenhang mit der Produktion einer Megawattstunde, wie etwa Klimatisierung und Arbeitsaufwand, werden ebenfalls berücksichtigt. Das Video befasst sich weiter mit der Bestimmung des Wertes eines Kraftwerks und der Erstellung von Preis- und Brennstoffkostenverteilungen, um eine angemessene Zahlung für den Erwerb eines Kraftwerks zu ermitteln.

Die Herausforderungen bei der Modellierung von Rohstoffpreisen, insbesondere Strompreisen, werden im folgenden Abschnitt erörtert. Die Verteilung der Strompreise kann mit der Brownschen Bewegung nicht genau modelliert werden, da die Daten fette Ausläufer und Spitzen aufweisen. Darüber hinaus ist die Volatilität der Strompreise im Vergleich zu den Aktienmärkten deutlich höher. Der Dozent betont, dass diese Herausforderungen in allen Regionen gleich sind, und unterstreicht die Notwendigkeit, die Mittelwertumkehr bei Spitzen zu erfassen, um das Strompreisverhalten genau darzustellen. Andere Phänomene wie hohe Kurtosis, Regimewechsel und Instationarität müssen ebenfalls in die Modelle einbezogen werden.

Das Video untersucht die Herausforderungen, die mit der Modellierung von Rohstoffpreisen verbunden sind, und beleuchtet verschiedene Ansätze, darunter Mean-Reversion, Sprünge und Regimewechsel. Allerdings sind diese Modelle in der Regel komplex und schwierig zu verwalten. Stattdessen schlägt der Redner eine einzigartige Methodik vor, die speziell auf den Rohstoffbereich zugeschnitten ist und sich von den Methoden unterscheidet, die auf den Märkten für festverzinsliche Wertpapiere, Devisen und Aktien eingesetzt werden. Dieser Ansatz ist besser auf die Merkmale und Feinheiten der Rohstoffmärkte abgestimmt.

Der Redner betont, dass die Rohstoffpreise in erster Linie von der Angebots- und Nachfragedynamik bestimmt werden. Allerdings haben sich traditionelle Methoden, die ausschließlich auf Preisen basieren, als unzureichend erwiesen, um die Komplexität des Rohstoffpreisverhaltens zu erfassen. Um dieses Problem anzugehen, schlägt der Redner vor, eine grundlegende Modellierung einzubeziehen und gleichzeitig sicherzustellen, dass das Modell mit den verfügbaren Marktdaten übereinstimmt. Sie erklären, wie Strompreise durch die Versteigerung von Angeboten von Kraftwerken mit unterschiedlichen Wirkungsgraden entstehen und wie der Endpreis auf der Grundlage der Nachfrage ermittelt wird. Das resultierende Streudiagramm, das die Beziehung zwischen Nachfrage und Preis darstellt, zeigt eine vielfältige Verteilung aufgrund des Einflusses zufälliger Kraftstoffpreisfaktoren.

Darüber hinaus erklärt der Referent, dass der Strompreis sowohl von der Nachfrage als auch von den Brennstoffpreisen bestimmt wird, da die Erzeugungskosten von den Brennstoffpreisen abhängen. Darüber hinaus muss das Auftreten von Ausfällen modelliert werden, da der Markt endlich ist und der Strompreis beeinflusst werden kann, wenn es bei einigen Kraftwerken zu Ausfallzeiten kommt. Um diese Faktoren einzubeziehen, schlägt der Redner den Aufbau eines Erzeugungsstapels vor, der die Erzeugungskosten für jeden Marktteilnehmer darstellt. Durch die Berücksichtigung von Kraftstoffpreisen und Ausfällen kann der Erzeugungsstapel so angepasst werden, dass er genau den Marktpreisen und Optionspreisen entspricht.

Im weiteren Verlauf des Videos wird erläutert, wie verschiedene Rohstoffe modelliert werden können, um die Entwicklung der Strompreise zu verstehen. Der Referent erläutert den Prozess der Modellierung des Verhaltens von Kraftstoffpreisen, Ausfällen und Nachfrage. Anschließend wird ein Erzeugungsstapel erstellt, der eine Kurve darstellt, die von Faktoren wie Nachfrage, Ausfällen, variablen Kosten und Kraftstoffpreisen bestimmt wird. Die Parameter werden sorgfältig ausgewählt, um der Terminkurve für Strompreise und anderen relevanten Marktparametern zu entsprechen. Dieser Ansatz ermöglicht die relativ einfache Erfassung von Preisspitzen auf den Strommärkten. Der Referent weist darauf hin, dass es sich bei Erdgas, Heizöl und Heizöl um speicherbare Rohstoffe handelt, was deren Verhalten regelmäßiger und einfacher modellierbar macht.

Im weiteren Verlauf beleuchtet der Redner, wie Rohstoffmodelle genutzt werden können, um den Strompreis auf dem Markt unter Berücksichtigung von Faktoren wie Temperatur, Angebot und Nachfrage vorherzusagen. Durch den Einsatz von Monte-Carlo-Simulationen und einem umfassenden Verständnis der Verteilung der Kraftstoffpreise können genaue Simulationen von durch Temperaturschwankungen verursachten Preisspitzen erreicht werden. Das Modell erfasst außerdem genau die Korrelationsstruktur des Marktes, ohne dass diese als Eingabe erforderlich ist. Es wird jedoch betont, dass die Aufrechterhaltung eines solchen Modells einen erheblichen Informations- und Organisationsaufwand erfordert, da jede Kraftwerks- und Marktveränderung verfolgt werden muss.

Im letzten Abschnitt des Videos geht der Redner auf die Herausforderungen ein, die mit der Entwicklung von Rohstoffmodellen für verschiedene Märkte verbunden sind. Der Prozess ist ein gewaltiges Unterfangen, das jahrelange Entwicklung erfordert und daher ein kostspieliges Unterfangen ist. Trotz der damit verbundenen Komplexität glaubt der Redner, dass die behandelten Themen einen guten Abschluss der Diskussion darstellen und lädt die Zuschauer ein, eventuell noch offene Fragen zu stellen.

Insgesamt bietet das Video wertvolle Einblicke in die Herausforderungen, denen sich quantitative Analysten bei der Erstellung von Rohstoffmodellen gegenübersehen. Es unterstreicht die Bedeutung der Priorisierung von Stabilität und Robustheit bei Modellierungsansätzen, die Komplexität der Modellierung von Rohstoffpreisen und die Rolle grundlegender Faktoren wie Angebot, Nachfrage und Brennstoffpreise bei der Gestaltung der Strompreise. Der Redner betont auch die Bedeutung der Zusammenarbeit mit Branchenakteuren und den kontinuierlichen Aufwand, der erforderlich ist, um Warenmodelle für verschiedene Märkte zu pflegen und zu aktualisieren.

  • 00:00:00 In diesem Abschnitt diskutiert der Redner die Probleme, die quantitative Analysten in der Rohstoffwelt lösen, im Vergleich zu denen in anderen Märkten. Als Beispiel nannte er Trafigura, das 2009 einen Rekordgewinn erzielte, als die Ölpreise auf ein historisches Tief fielen. Er spricht auch über Terminkontrakte und deren Funktionsweise auf den Rohstoffmärkten, wobei er insbesondere die Konzepte Contango und Backwardation erörtert. Contango bedeutet, dass der zukünftige Spotpreis teurer ist als der aktuelle Spotpreis, wodurch Händler auch in Zeiten niedriger Preise einen Gewinn erzielen können.

  • 00:05:00 In diesem Abschnitt erklärt der Redner, wie Trafigura im Zeitraum zwischen Februar 2009 und 2010 Geld verdiente, als die Rohölpreise von 35 $ auf 60 $ stiegen. Das Unternehmen borgte sich 35 US-Dollar, kaufte ein Barrel Rohöl und lagerte es, bis es zu einem deutlich höheren Preis von 60 US-Dollar verkauft werden konnte. Dadurch konnten sie einen Gewinn von 25 US-Dollar pro Barrel erzielen, was über 50-60 Millionen Barrel Lagerregale zu einer gewaltigen Summe vervielfachte. Der Redner betont, dass man, um in einer Auktion für Speicher bieten zu können, eine sorgfältige Strategie entwickeln muss, wie man das für die Speicherung gezahlte Geld zurückerhalten und einen zusätzlichen Gewinn erzielen kann.

  • 00:10:00 In diesem Abschnitt werden im Video zwei Strategien für das Bieten auf Speicher in Rohstoffmodellen besprochen. Die erste ist eine Standardstrategie, bei der ein Händler auf Terminkontrakte für August bietet und im Dezember verkauft, ohne sich Geld leihen zu müssen. Die zweite Strategie wird von Quants verwendet, bei denen sie die August-Dezember-Spread-Option verkaufen, die durch die Differenz zwischen den Preisen der Dezember- und August-Kontrakte bestimmt wird, wobei positive Differenzen den Optionsinhaber auszahlen und negative Differenzen null. Die letztgenannte Strategie ist komplizierter, bietet aber einen Mehrwert für das Unternehmen.

  • 00:15:00 In diesem Abschnitt erörtert der Redner die Vorteile des Verkaufs einer Produktion am 1. August mithilfe eines Warenmodells. Er erklärt, dass der Verkäufer durch den Verkauf der Option zum angegebenen Datum einen durch die Formel ermittelten Wert der Option erhält, der typischerweise höher ist als der aktuelle Marktwert. Dies verschafft dem Verkäufer einen Vorteil beim Bieten und er kann eine Gewinnspanne seiner Wahl erzielen. Der Referent erklärt außerdem, wie das Risiko der Option berechnet wird und wie reale oder physische Vermögenswerte zur Risikominderung eingesetzt werden können.

  • 00:20:00 In diesem Abschnitt diskutiert der Referent das Konzept einer Spread-Option und beleuchtet deren Komplexität in der Realität. Er erklärt, dass die Optimierung des Werts eines Optionsportfolios, das im Vergleich zum Speicher verkauft werden kann, die Bestimmung der wertvollsten Optionsportfolios unter Berücksichtigung technischer, vertraglicher, rechtlicher und umweltbedingter Einschränkungen erfordert. Der Redner weist außerdem darauf hin, dass die Optionsportfolios so verkauft werden sollten, dass gewährleistet ist, dass der Wert immer dann ausgeschöpft werden kann, wenn die Option abläuft, und dass es Einschränkungen hinsichtlich der Ein- und Auszahlungsrate gibt.

  • 00:25:00 In diesem Abschnitt diskutiert der Referent ein Optimierungsproblem im Zusammenhang mit Warenmodellen und Speicher. Das Problem besteht darin, einen Weg zu finden, Wert aus einer Warenoption zu ziehen, wenn kein Platz mehr im Lager vorhanden ist, und umgekehrt, einen Weg zu finden, aus dem Lager zu verkaufen, wenn es leer ist. Der Referent erläutert die Variablen und Randbedingungen des Problems und zeigt, wie es möglich ist, das Portfolio durch eine Reihe von Optionen zu optimieren. Insgesamt ist das Optimierungsproblem komplex, kann aber mit Hilfe boolescher Variablen und einem Fokus auf Gewinnmaximierung gelöst werden.

  • 00:30:00 In diesem Abschnitt erörtert der Redner die komplexe Natur von Rohstoffmodellen, die Einspeise- und Entnahmeraten, maximale und minimale Kapazitätsbeschränkungen und unbekannte Variablen wie Mengen und Preise umfassen. Das Problem wird nichtlinear und ist mit einer großen Anzahl von Variablen und Einschränkungen nur sehr schwer zu lösen. Zur Lösung von Warenmodellen können verschiedene Ansätze verwendet werden, darunter Näherung, Monte-Carlo-Simulationen und stochastische Kontrolle. Die Genauigkeit der Ergebnisse hängt jedoch von der Genauigkeit der verwendeten Parameter ab. Selbst die genaueste Methodik kann falsch sein, wenn die Parameter falsch sind.

  • 00:35:00 In diesem Abschnitt erläutert der Redner die von ihm gewählte Methodik der Rohstoffmodellierung, die darauf abzielt, Robustheit und Stabilität Vorrang vor der Erfassung des Reichtums des Preisverhaltens zu geben. Sie erklären, dass eine Überparametrisierung eines Modells zu Instabilität und kleinen Änderungen führen kann, die den Wert erheblich verändern können. Um Stabilität und Robustheit in den Vordergrund zu stellen, opfern sie einen Teil des Werts, indem sie einen anderen Ansatz verwenden. Darüber hinaus kann das von ihnen verwendete Modell von externen Regulierungsbehörden überprüft werden und jede Komponente des Modells kann auf dem Markt gehandelt werden, was in der heutigen Zeit von entscheidender Bedeutung ist. Darüber hinaus erläutern sie das Konzept des dynamischen Hedgings und wie es verwendet werden kann, um den Wert einer Option nachzubilden und Auszahlungen ohne aktiven Optionsmarkt mithilfe einer einfachen Spielerfunktion zu erzielen.

  • 00:40:00 In diesem Abschnitt diskutiert der Redner das Konzept der Nachbildung der Auszahlung einer Option durch den Einsatz einer dynamischen Absicherungsstrategie, die es Händlern ermöglicht, Portfolios zu verkaufen, auch wenn es keine Käufer gibt. Er betont, wie wichtig es ist, eine Strategie zur Wertschöpfung zu entwickeln und mit denen zusammenzuarbeiten, die Lagereinrichtungen betreiben, um den Plan erfolgreich umzusetzen. Anschließend erklärt der Referent, wie dieser Ansatz zur Modellierung physischer Vermögenswerte wie Tanker und Kraftwerke verwendet werden kann, um Gewinne zu maximieren, indem fundierte Entscheidungen auf der Grundlage der Strom- und Kraftstoffpreise getroffen werden. Obwohl sich die Art jedes Vermögenswerts unterscheidet, bleibt der konzeptionelle Ansatz derselbe und erfordert ein Verständnis der Nuancen und Einschränkungen jedes Vermögenswerts.

  • 00:45:00 In diesem Abschnitt wird im Video der Prozess der Berechnung der Kosten für die Erzeugung einer Megawattstunde Strom auf der Grundlage der Effizienz des Kraftwerks erläutert. Der Wirkungsgrad, auch Wärmerate genannt, wird in mm BTU gemessen und gibt an, wie viele Einheiten Erdgas verbrannt werden müssen, um eine Megawattstunde Strom zu erzeugen. Die Konstante eines Erdgaskraftwerks liegt typischerweise zwischen 7 und 20, wobei 7 der effizienteste Wert ist. Auch andere mit der Produktion einer Megawattstunde verbundene Kosten wie Klimatisierung und Arbeitsaufwand werden berücksichtigt. Anschließend wird in dem Video der Prozess der Ermittlung des Werts eines Kraftwerks und die Erstellung einer Verteilung der Preise und Brennstoffkosten erläutert, um zu berechnen, wie viel für ein Kraftwerk zu zahlen ist.

  • 00:50:00 In diesem Abschnitt geht der Dozent auf die Herausforderungen von Commodity-Modellen, insbesondere im Fall der Strompreise, ein. Die Verteilung der Strompreise kann nicht mithilfe der Brownschen Bewegung modelliert werden, da die Daten fette Ausläufer und Spitzen aufweisen. Auch die Volatilität ist viel höher als an den Aktienmärkten. Der Dozent weist darauf hin, dass diese Herausforderungen in allen Regionen üblich sind und dass eine Umkehrung der Spitzen erforderlich ist, um das Verhalten der Strompreise zu erfassen. Weitere Phänomene, die erfasst werden müssen, sind hohe Kurtosis, Regimewechsel und Instationarität.

  • 00:55:00 In diesem Abschnitt erörtert der Redner die Herausforderungen bei der Modellierung von Rohstoffpreisen und wie unterschiedliche Modelle verwendet wurden, einschließlich Mittelwertumkehr, Sprünge und Regimewechsel. Allerdings sind diese Modelle zu komplex und schwer zu verwalten. Der Redner schlägt eine völlig andere Methodik als die Welt der festverzinslichen Wertpapiere, Devisen und Aktien vor, die aus Rohstoffsicht besser geeignet und verständlich ist.

  • 01:00:00 In diesem Abschnitt erörtert der Redner, wie Rohstoffpreise hauptsächlich durch Angebot und Nachfrage bestimmt werden. Standardmethoden zur Modellierung von Rohstoffpreisen, die ausschließlich auf den Preisen selbst basieren, haben sich jedoch als schwierig erwiesen. Der Redner schlägt vor, einige grundlegende Modellierungen einzuführen, um dieses Problem anzugehen und gleichzeitig sicherzustellen, dass sein Modell mit allen verfügbaren Marktdaten übereinstimmt. Anschließend erläutert der Referent, wie durch die Versteigerung von Geboten von Kraftwerken mit unterschiedlichem Wirkungsgrad Strompreise gebildet werden und wie der Endpreis bedarfsorientiert ermittelt wird. Das resultierende Streudiagramm der Nachfrage im Vergleich zum Preis zeigt aufgrund des Zufallsfaktors der Kraftstoffpreise ein dickes Diagramm.

  • 01:05:00 In diesem Abschnitt erklärt der Referent, dass der Strompreis sowohl von der Nachfrage als auch von den Brennstoffpreisen bestimmt wird, da die Erzeugungskosten von den Brennstoffpreisen abhängen. Auch Ausfälle müssen modelliert werden, da der Markt endlich ist und der Strompreis beeinflusst werden kann, wenn einige Kraftwerke ausfallen. Um diese Faktoren zu modellieren, schlägt der Redner den Aufbau eines Erzeugungsstapels vor, der die Erzeugungskosten für jeden Marktteilnehmer darstellt. Wenn man die Kraftstoffpreise und Ausfälle kennt, kann man den Beat-Stack generieren, der dem Generation-Stack folgt und sich an die Marktpreise und Optionspreise anpasst.

  • 01:10:00 In diesem Abschnitt erklärt der Referent, wie verschiedene Rohstoffe modelliert und zur Bestimmung der Entwicklung der Strompreise verwendet werden können. Sie beginnen mit der Modellierung der Entwicklung von Kraftstoffpreisen, Ausfällen und Nachfrage und konstruieren dann den Erzeugungsstapel, eine Kurve, die durch Nachfrage, Ausfälle, variable Kosten und Kraftstoff bestimmt wird. Sie wählen Parameter aus, die der Terminkurve für Strompreise und anderen Marktparametern entsprechen. Mit diesem Ansatz können Strompreisspitzen ohne großen Aufwand erfasst werden. Erdgas, Heizöl und Heizöl sind speicherbare Rohstoffe, wodurch ihr Verhalten regelmäßiger und einfacher modellierbar ist.

  • 01:15:00 In diesem Abschnitt des Videos erklärt der Sprecher, wie Rohstoffmodelle verwendet werden können, um den Strompreis auf dem Markt basierend auf Temperatur sowie Angebots- und Nachfragefaktoren vorherzusagen. Mithilfe von Monte-Carlo-Simulationen und dem Verständnis der Verteilung der Kraftstoffpreise sind sie in der Lage, die durch Temperaturänderungen verursachten Preisspitzen genau zu erfassen und zu simulieren. Darüber hinaus erfasst das Modell die Korrelationsstruktur des Marktes genau, ohne dass diese als Eingabe erforderlich ist. Der Nachteil dieses Ansatzes besteht jedoch darin, dass er eine Menge Informationen und Organisation erfordert, um den Überblick über jedes Kraftwerk und alle Änderungen zu behalten, die auf dem Markt auftreten können.

  • 01:20:00 In diesem Abschnitt spricht der Redner über die Herausforderungen beim Aufbau von Warenmodellen für verschiedene Märkte. Es erfordert einen gewaltigen Aufwand und dauert Jahre, um es zu entwickeln, was es zu einem teuren Prozess macht. Der Redner ist der Ansicht, dass dies ein guter Punkt zum Anhalten ist, lädt die Zuschauer jedoch zu Fragen ein.
13. Commodity Models
13. Commodity Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Alexander Eydelan...
 

14. Portfoliotheorie



14. Portfoliotheorie

Die Portfoliotheorie ist ein grundlegendes Finanzkonzept, das sich auf die Leistung und den optimalen Aufbau von Anlageportfolios konzentriert. Dabei werden die erwarteten Renditen, Volatilitäten und Korrelationen mehrerer Vermögenswerte analysiert, um die effizienteste Portfolioallokation zu ermitteln. Die Effizienzgrenze repräsentiert eine Reihe realisierbarer Portfolios mit unterschiedlichem Volatilitätsgrad. Durch die Einführung eines risikofreien Vermögenswerts erweitert sich die mögliche Menge um eine Kombination aus dem risikofreien Vermögenswert und anderen Vermögenswerten, die eine gerade Linie bilden.

Eine genaue Schätzung der Parameter ist für die Bewertung von Portfolios und die Lösung des quadratischen Programmierproblems zur Portfoliooptimierung von entscheidender Bedeutung. Formeln werden verwendet, um optimale Gewichtungen auf der Grundlage verschiedener Einschränkungen zu berechnen, wie z. B. Long-Only-Portfolios, Haltebeschränkungen und Benchmark-Engagement-Beschränkungen. Nutzenfunktionen werden verwendet, um Präferenzen für Wohlstand zu definieren und den erwarteten Nutzen zu maximieren, während gleichzeitig die Risikoaversion berücksichtigt wird.

Das Video befasst sich mit der Anwendung der Portfoliotheorie unter Verwendung von Exchange Traded Funds (ETFs) und marktneutralen Strategien. Zur Kontrolle von Risiken und Schwankungen in einem Portfolio können verschiedene Einschränkungen implementiert werden, darunter Expositionsgrenzen gegenüber Marktfaktoren und Mindesttransaktionsgrößen. Der Redner untersucht die optimale Allokation von neun ETFs, die in verschiedene Industriesektoren auf dem US-Markt investiert sind, und berücksichtigt dabei Portfolioanalysetools und die Auswirkungen von Kapitalbeschränkungen auf optimale Portfolios. Auch marktneutrale Strategien von Hedgefonds werden diskutiert, wobei ihr Potenzial für Diversifizierung und geringere Korrelation hervorgehoben wird.

Bei der Bewertung von Portfolios ist die Auswahl geeigneter Risikomaße von entscheidender Bedeutung. Die Mean-Varianz-Analyse wird häufig verwendet, aber auch alternative Risikomaße wie die mittlere absolute Abweichung, die Semivarianz, der Value-at-Risk und der bedingte Value-at-Risk können zusätzliche Erkenntnisse liefern. Der Einsatz von Faktormodellen hilft bei der Schätzung der Varianz-Kovarianz-Matrix und erhöht so die Genauigkeit der Portfoliooptimierung.

Im gesamten Video betont der Redner die Bedeutung einer genauen Parameterschätzung, die Auswirkungen von Einschränkungen auf die Portfoliokonstruktion und die Bedeutung von Risikomaßen bei der Portfoliobewertung. Die Portfoliotheorie bietet einen Rahmen für rationale Anlageentscheidungen unter Unsicherheit und berücksichtigt dabei Präferenzen für höhere Renditen, geringere Volatilität und Risikoaversion. Durch die Anwendung dieser Konzepte können Anleger ausgewogene Portfolios aufbauen, die auf ihre Risikotoleranz und Anlageziele zugeschnitten sind.

In den folgenden Abschnitten des Videos geht der Redner weiter auf die Feinheiten der Portfoliotheorie und ihre praktischen Auswirkungen ein. Hier finden Sie eine Zusammenfassung der wichtigsten behandelten Punkte:

  1. Historische Theorie der Portfoliooptimierung: Der Redner beginnt mit der Erörterung der historischen Grundlagen der Portfoliooptimierung und konzentriert sich dabei auf die Markowitz-Mean-Variance-Optimierung. Bei diesem Ansatz werden Portfolios anhand ihrer durchschnittlichen Rendite und Volatilität analysiert. Es bietet einen Rahmen zum Verständnis des Kompromisses zwischen Risiko und Rendite und dient als Grundlage für die moderne Portfoliotheorie.

  2. Nutzentheorie und Entscheidungsfindung unter Unsicherheit: Die Nutzentheorie, insbesondere die von Neumann-Morgenstern-Nutzentheorie, wird eingeführt, um rationale Entscheidungen unter Unsicherheit zu leiten. Nutzenfunktionen werden verwendet, um die Vermögenspräferenzen eines Anlegers darzustellen und dabei Faktoren wie höhere Renditen und geringere Volatilität zu berücksichtigen. Der Referent erklärt verschiedene Nutzenfunktionen, die häufig in der Portfoliotheorie verwendet werden, darunter lineare, quadratische, exponentielle, Potenz- und logarithmische Funktionen.

  3. Einschränkungen und alternative Risikomaße: Das Video untersucht die Einbeziehung von Einschränkungen in die Portfoliooptimierung. Diese Einschränkungen können implementiert werden, um bestimmte Anlagekriterien sicherzustellen, wie z. B. Long-Only-Portfolios, Umsatzbeschränkungen und Expositionsgrenzen gegenüber bestimmten Marktfaktoren. Darüber hinaus diskutiert der Redner alternative Risikomaße, die über die traditionelle Mittelwert-Varianz-Analyse hinausgehen, wie etwa Maße, die Schiefe, Kurtosis und kohärente Risikomaße berücksichtigen.

  4. Lösung des Portfoliooptimierungsproblems: Der Referent liefert mathematische Einblicke in die Lösung des Portfoliooptimierungsproblems. Durch die Formulierung als quadratisches Programmierproblem können optimale Gewichte für das Portfolio ermittelt werden. Zur Lösung dieser Gewichte werden die Lagrange-Bedingungen und die Bedingungen erster Ordnung verwendet, wobei die Ableitung zweiter Ordnung die Kovarianzmatrix darstellt. Die Lösung ermöglicht die Maximierung der Rendite bei gleichzeitiger Minimierung der Volatilität, vorbehaltlich bestimmter Einschränkungen.

  5. Effiziente Grenze und Kapitalmarktlinie: Das Konzept der effizienten Grenze wird eingeführt, die eine Reihe optimaler Portfolios darstellt, die bei einem gegebenen Risikoniveau die höchste Rendite erzielen. Der Referent erklärt, wie sich die Effizienzgrenze anhand der Risiko-Rendite-Profile verschiedener Portfolios herausbildet. Darüber hinaus wird die Kapitalmarktlinie diskutiert, die den Zusammenhang zwischen Risiko und Rendite bei der Kombination des risikofreien Vermögenswerts mit dem Marktportfolio verdeutlicht. Es ermöglicht Anlegern, die erwartete Rendite für jedes gewünschte Risikoniveau zu bestimmen.

  6. Schätzung von Parametern und Risikomaßen: Die Bedeutung einer genauen Parameterschätzung wird hervorgehoben, da sie die Portfolioanalyse erheblich beeinflusst. Der Referent betont die Verwendung von Faktormodellen zur Schätzung der Varianz-Kovarianz-Matrix, die präzisere Eingaben für die Optimierung liefern. Darüber hinaus werden verschiedene Risikomaße wie mittlere absolute Abweichung, Semivarianz, Value-at-Risk und bedingter Value-at-Risk erläutert, deren Eignung von den spezifischen Eigenschaften der investierten Vermögenswerte abhängt.

Im gesamten Video betont der Redner die praktische Anwendung der Portfoliotheorie mithilfe von Exchange Traded Funds (ETFs) und marktneutralen Strategien. Der Einsatz von Beschränkungen zur Steuerung von Risiken und Schwankungen in einem Portfolio, die Auswirkungen von Kapitalbeschränkungen auf optimale Portfolios und die Vorteile marktneutraler Diversifizierungsstrategien werden ausführlich besprochen.

Insgesamt bietet das Video einen umfassenden Überblick über die Portfoliotheorie und deckt verschiedene Aspekte von den historischen Grundlagen bis zur praktischen Umsetzung ab. Es betont die Bedeutung einer genauen Schätzung, der Einbeziehung von Einschränkungen, der Auswahl von Risikomaßen und der potenziellen Vorteile verschiedener Anlagestrategien. Durch das Verständnis dieser Konzepte können Anleger fundierte Entscheidungen zum Aufbau von Portfolios treffen, die ihren Risikopräferenzen und Anlagezielen entsprechen.

  • 00:00:00 In diesem Abschnitt des Videos behandelt Peter Kempthorne das Thema Portfoliotheorie, eines der wichtigsten Themen im Finanzwesen. Er beginnt mit der Erörterung der historischen Theorie der Portfoliooptimierung, die die Markowitz-Mean-Variance-Optimierung zur Analyse der Leistungsmerkmale von Portfolios im Hinblick auf ihre mittlere Rendite und Volatilitätsrenditen umfasst. Anschließend wird die Analyse auf das Investieren mit einem risikofreien Vermögenswert ausgeweitet und das Thema der Nutzentheorie, die Nutzentheorie von Neumann-Morgenstern, eingeführt, um Entscheidungen unter Unsicherheit auf rationale Weise zu treffen. Darüber hinaus behandelt Kempthorne Einschränkungen bei der Portfoliooptimierung und alternative Risikomaße zur Erweiterung der einfachen Mittelwert-Varianz-Analyse. Abschließend erklärt er die Einzelperiodenanalyse, wie man ein Portfolio darstellt und wie man die erwartete Rendite und Varianz eines Portfolios berechnet.

  • 00:05:00 In diesem Abschnitt stellt der Referent das Problem der Portfolioanalyse vor und betrachtet eine vereinfachte Situation mit zwei Vermögenswerten. Ziel ist es, optimale Portfolios zu finden, die in diese beiden Vermögenswerte investieren und dabei deren erwartete Rendite und Volatilität sowie die mögliche Korrelation zwischen ihnen berücksichtigen. Die Mittelwert-Varianz-Analyse wird verwendet, um den realisierbaren Portfoliosatz zu analysieren und optimale und suboptimale Portfolios zu bestimmen. Anschließend betont der Redner die Bedeutung der Markowitz-Theorie und ihrer Erweiterungen für die Bereitstellung eleganter Antworten auf diese Fragen. Abschließend wird eine Simulation durchgeführt, um die kumulierten Renditen jedes Vermögenswerts in verschiedenen Portfolios zu untersuchen.

  • 00:10:00 In diesem Abschnitt wird ein simulierter Vermögenswert mit einer durchschnittlichen Rendite von 15 % und 25 % Volatilität besprochen. Das Streudiagramm der wöchentlichen Renditen zeigt keine offensichtliche Korrelation, obwohl es eine Stichprobenkorrelation gibt. Der mögliche Satz an Portfolios ist in der rechten Grafik dargestellt, und die Allokation in Anlage 2 verbessert die Rendite des Portfolios, ohne die Volatilität zu beeinträchtigen. Das Minimum-Varianz-Portfolio wird ebenfalls besprochen, wobei die Gewichtung der verschiedenen Vermögenswerte umgekehrt proportional zu ihrer quadrierten Volatilität ist. Die blaue Grafik liegt etwas näher an Vermögenswert 1, was auf eine etwas höhere Gewichtung von Vermögenswert 1 hinweist.

  • 00:15:00 In diesem Abschnitt wird das Konzept suboptimaler Portfolios untersucht, mit der Schlussfolgerung, dass alle Punkte im Streudiagramm suboptimale Portfolios sind und ein Kompromiss zwischen Rendite und Volatilität getroffen werden muss. Der Vorteil der Diversifizierung, wenn zwei völlig unkorrelierte Vermögenswerte gepoolt werden, wird diskutiert und die Auswirkung negativer Korrelationen auf realisierbare Mengen und die Verringerung der Volatilität untersucht. Eine Korrelation von -1 zwischen zwei Vermögenswerten kann zu einem Null-Volatilitäts-Portfolio führen, was auf Märkten selten vorkommt, aber in der Preistheorie sollte die Rendite dieses Portfolios dem risikofreien Zinssatz entsprechen.

  • 00:20:00 In diesem Abschnitt des Videos diskutiert der Redner den Zusammenhang zwischen Korrelation und Diversifikation in der Portfoliotheorie. Die Simulation zeigt, dass eine Erhöhung der Korrelation zwischen Vermögenswerten zu einem geringeren Nutzen aus der Diversifizierung führt, was bedeutet, dass die Varianz des Portfolios nicht so stark gesenkt werden kann. Der Redner betont, wie wichtig es ist, bei der Bewertung von Portfolios genaue Schätzungen für mittlere Renditen, Volatilitäten und Korrelationen zu verwenden, da Stichprobenschätzungen von Populationsparametern abweichen können und eine gewisse Variabilität aufweisen. Das quadratische Programmierproblem für die Portfoliooptimierung beinhaltet die Minimierung der quadratischen Volatilität des Portfolios vorbehaltlich Einschränkungen des Mittelwerts des Portfolios und der Gesamtinvestition, die mithilfe einer Lagrange-Bedingung und Bedingungen erster Ordnung gelöst werden können.

  • 00:25:00 In diesem Abschnitt erklärt der Sprecher, wie man nach Gewichten und minimaler Varianz auflöst. Die Bedingung erster Ordnung ist eine Lösung, da die Ableitung zweiter Ordnung des Lagrange-Operators gleich der Kovarianzmatrix ist, wodurch das Problem gelöst werden kann. Durch Einsetzen eines gegebenen Alphas in die Lösungen kann auch die Varianz des optimalen Portfolios gelöst werden. Das Problem kann auf zwei andere Arten betrachtet werden: zum einen, um die Rendite vorbehaltlich einer Volatilitätsbeschränkung zu maximieren, und zum anderen, um die Rendite vorbehaltlich eines negativen Vielfachen der Varianz zu maximieren. Dies sind äquivalente Probleme, die von demselben Lagrange-Operator gelöst werden.

  • 00:30:00 In diesem Abschnitt lernen wir die Effizienzgrenze kennen, die die Sammlung aller möglichen Lösungen bei einer Reihe realisierbarer Zielrenditen und Volatilitätswerte darstellt. In einem Fall mit zwei Vermögenswerten ist die effiziente Grenze eine Parabel, und durch Hinzufügen eines weiteren Vermögenswerts entstehen mehrere Parabeln, die die zulässige Menge definieren. Die Effizienzgrenze ist die Oberseite der Kurve. Das Hinzufügen eines risikofreien Vermögenswerts erweitert die mögliche Menge auf eine gerade Linie zwischen dem risikofreien Vermögenswert und jedem Punkt auf der Effizienzgrenze und ermöglicht so Investitionen in eine Kombination aus dem risikofreien Vermögenswert und anderen Vermögenswerten.

  • 00:35:00 In diesem Abschnitt bespricht der Dozent die Mathematik zur Lösung eines Problems, bei dem das Ziel darin besteht, die Volatilität zu minimieren und gleichzeitig sicherzustellen, dass die Rendite gleich ist
    einen bestimmten Wert. Durch die Investition in einen risikofreien Vermögenswert können Anleger eine höhere Rendite bei geringerer Varianz erzielen und ihre Anlagemöglichkeiten erweitern. Der Dozent stellt Formeln zur Ermittlung eines optimalen Portfolios bereit, das anteilig in risikobehaftete Vermögenswerte investiert, sich aber je nach Zielrendite in der Gewichtsverteilung unterscheidet. Diese Formeln liefern auch geschlossene Ausdrücke für die Portfoliovarianz, die aufgrund des Kompromisses bei der Verwendung optimaler Portfolios mit steigender Zielrendite zunimmt. Das vollständig investierte optimale Portfolio wird Marktportfolio genannt.

  • 00:40:00 In diesem Abschnitt erläutert der Referent das Konzept des optimalen Portfolios, also des Portfolios, das die durchschnittliche Rendite aller Portfolios maximiert. Sie erwähnen, dass jedes optimale Portfolio in eine Kombination aus dem risikofreien Vermögenswert und dem Marktportfolio investiert, unabhängig davon, wie viel Risiko ein Anleger eingehen möchte. Der Referent präsentiert die Ausdrücke für die erwartete Rendite und Varianz des Marktportfolios und zeigt die Formel für die Gewichte des optimalen Portfolios. Dies führt zur Definition der Kapitalmarktlinie, die es Anlegern ermöglicht, die erwartete Rendite für ein gegebenes Risikoniveau zu bestimmen.

  • 00:45:00 In diesem Abschnitt wird die Kapitalmarktlinie zur Portfoliooptimierung besprochen. Die Linie stellt die erwartete Rendite jedes optimalen Portfolios dar, die dem risikofreien Zinssatz plus einem Vielfachen der Rendite pro Risiko des Marktportfolios entspricht. Durch die Zuweisung zusätzlicher Gewichte zum Marktportfolio und die Aufnahme von Geldern zum risikofreien Zinssatz können höhere Renditen und Volatilität über das Marktportfolio hinaus erzielt werden, was zu einer erweiterten Effizienzgrenze führt. Der Abschnitt endet mit einer Diskussion der Nutzentheorie von Neumann-Morgenstern, die den Entscheidungsprozess zur Portfoliooptimierung auf der Grundlage der erwarteten Rendite und Volatilität betrachtet.

  • 00:50:00 In diesem Abschnitt wird das Konzept der Portfoliotheorie vorgestellt. Bei der Portfoliotheorie geht es darum, Anlageentscheidungen unter Unsicherheit auf der Grundlage einer festgelegten Nutzenfunktion für Vermögen zu treffen, mit dem Ziel, den erwarteten Nutzen des Vermögens zu maximieren. Die Theorie ist wirkungsvoll, wenn es darum geht, rationale Entscheidungen unter Unsicherheit zu treffen, die Präferenzen hinsichtlich höherer Renditen, geringerer Volatilität und anderer durch die verwendete Nutzenfunktion definierter Faktoren berücksichtigen. Die grundlegenden Eigenschaften von Nutzenfunktionen werden diskutiert, einschließlich der Konzepte der Risikoaversion sowie der absoluten und relativen Risikoaversion. Zu den in der Portfoliotheorie verwendeten Nutzenfunktionen gehören lineare, quadratische, exponentielle, Potenz- und Logarithmusfunktionen.

  • 00:55:00 In diesem Abschnitt diskutiert der Redner die Portfoliotheorie unter der quadratischen Nutzenfunktion und die Annahmen der Gaußschen verteilten Renditen. Unter diesen Annahmen ist die Mittelwert-Varianz-Analyse der optimale Ansatz zur Portfoliooptimierung. Bei unterschiedlichen Nutzenfunktionen, beispielsweise solchen, die Strafen für Schiefe oder Kurtosis berücksichtigen, können jedoch Erweiterungen des Grundmodells erforderlich sein. Der Redner weist außerdem darauf hin, dass praktische Portfoliooptimierungsprobleme Einschränkungen wie Long-Only-Portfolios, Haltebeschränkungen, einfache lineare Einschränkungen, Umsatzbeschränkungen und Benchmark-Engagementbeschränkungen beinhalten. Diese Einschränkungen müssen bei der Anpassung von Portfolios von einer Periode zur nächsten berücksichtigt werden.

  • 01:00:00 In diesem Abschnitt diskutiert der Redner verschiedene Arten von Einschränkungen, die bei der Portfoliooptimierung angewendet werden können, um Risiken und Schwankungen in einem Portfolio zu kontrollieren. Dazu gehören die Kontrolle des Tracking Error zwischen einem Portfolio und seiner Benchmark, die Begrenzung des Risikos verschiedener Marktfaktoren sowie die Anwendung von Mindesttransaktions- und Beteiligungsgrößen sowie ganzzahligen Beschränkungen. Diese Einschränkungen können als lineare und quadratische Einschränkungen der Gewichte ausgedrückt und neben dem Portfoliooptimierungsproblem implementiert werden. Das angeführte Beispiel bezieht sich auf börsengehandelte Fonds des US-Sektors.

  • 01:05:00 In diesem Abschnitt erörtert der Redner das Potenzial von börsengehandelten Fonds als Mittel zur Investition in Aktienmärkte. Sie analysieren neun verschiedene ETFs, die in verschiedene Industriesektoren auf dem US-Markt investiert sind. Diese ETFs entwickelten sich zwischen 2009 und der letzten Woche unterschiedlich, was ihren Wert für ein diversifiziertes Portfolio unterstreicht. Der Referent untersucht die optimale Allokation dieser ETFs über diesen Zeitraum mithilfe von Portfolioanalysetools. Die Ergebnisse zeigen, dass dem gelben ETF für Basiskonsumgüter eine hohe Gewichtung zukommt, gefolgt von Grün für Energie und Orange für Gesundheit, was darauf hindeutet, dass diese Sektoren vielversprechend für Investitionen sind. Darüber hinaus wird eine Mittelwert-Varianz-Optimierung angewendet, indem eine maximale Investition von 30 % pro Anlage begrenzt wird. Die Grafik zeigt, dass diese Einschränkung aktiv wird, wenn die Renditen über dem risikofreien Zinssatz liegen, was bedeutet, dass anderen ETFs mehr Gewicht beigemessen werden muss, um das diskretionäre Portfolio der Verbraucher zu vergrößern.

  • 01:10:00 In diesem Abschnitt diskutiert der Dozent, wie sich Kapitalbeschränkungen auf optimale Portfolios auswirken. Sie präsentieren ein Diagramm der Effizienzgrenze und zeigen, wie sich Portfolios ändern, wenn Einschränkungen auftreten. Unter Berücksichtigung einer Zielrendite von 10 % bei einer Kapitalbeschränkung von 30 % ergibt sich das optimale Portfolio mit einer Volatilität von 10 %. Wenn die Kapitalbeschränkung jedoch auf 15 % gesenkt wird, sinkt die Effizienzgrenze und Portfolios müssen in andere börsengehandelte Fonds investieren, da die Beschränkungen früher auftreten. Der Vortrag beleuchtet, dass Kapitalbeschränkungen unter bestimmten Umständen realistisch sind und welche Auswirkungen sie auf die Anlagepolitik haben.

  • 01:15:00 In diesem Abschnitt diskutiert der Referent die Portfoliooptimierung mithilfe von Exchange Traded Funds (ETFs) und marktneutralen Strategien. Das Beispiel ETFs zeigt, wie die Wertentwicklung in der Vergangenheit Portfolios definieren kann, ist aber nicht realistisch zuverlässig. Anschließend erklärt der Referent, wie Hedgefonds mithilfe marktneutraler Strategien, die tendenziell weniger korrelieren und erhebliche Diversifizierungsvorteile bieten, in sektorbasierte Modelle investieren können. Die Grafik zeigt, dass eine optimale Allokation über diese branchenmarktneutralen Modelle dazu beitragen kann, eine Zielvolatilität von 10 % zu erreichen, und dass die Kombination verschiedener Modelle aufgrund ihrer geringeren Korrelation eine vorteilhafte Portfoliooptimierung bewirkt.

  • 01:20:00 In diesem Abschnitt hebt der Redner hervor, dass die Ergebnisse geschätzter Renditen, geschätzter Volatilitäten und Korrelationen durch die Wahl des Schätzzeitraums, des Schätzfehlers und verschiedener Techniken, die diese Probleme modulieren können, beeinflusst werden können. Die Verwendung von Faktormodellen zur Schätzung der Varianz-Kovarianz-Matrix führt zu präziseren Eingaben für die Optimierung. Der Referent geht auch auf verschiedene Risikomaße wie die mittlere absolute Abweichung, Semivarianz und Value-at-Risk-Maßnahmen ein, die mittlerweile zum Standard im Portfoliomanagement und der Verwaltung riskanter Vermögenswerte gehören. Es gibt auch eine Erweiterung des Value at Risk, die als bedingter Value at Risk bezeichnet wird. Die geeigneten Risikomaße hängen von den Vermögenswerten ab, in die investiert wird, und es gibt eine umfassende Diskussion über kohärente Risikomaße für die Risikoanalyse.
14. Portfolio Theory
14. Portfolio Theory
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

15. Faktormodellierung



15. Faktormodellierung

In diesem Abschnitt befasst sich das Video mit den praktischen Aspekten der Faktormodellierung, einschließlich der Schätzung zugrunde liegender Parameter und der Interpretation von Faktormodellen. Der Redner betont, wie wichtig es ist, die Modelle an bestimmte Datenperioden anzupassen, und erkennt an, dass die Modellierung der Dynamik und Beziehungen zwischen Faktoren von entscheidender Bedeutung ist.

Das Video erklärt, dass Methoden der Maximum-Likelihood-Schätzung verwendet werden können, um die Parameter von Faktormodellen, einschließlich der Faktorladungen und des Alphas, zu schätzen. Der Schätzprozess umfasst die Verwendung von Regressionsformeln mit den geschätzten Faktorladungen und Alpha-Werten, um die Faktorrealisierungen abzuschätzen. Der EM-Algorithmus (Expectation-Maximization) wird als leistungsstarke Schätzmethode für komplexe Likelihood-Funktionen hervorgehoben, da er versteckte Variablen iterativ unter der Annahme bekannter versteckter Variablen schätzt.

Die Anwendung der Faktormodellierung auf Rohstoffmärkten wird diskutiert, wobei der Schwerpunkt auf der Identifizierung zugrunde liegender Faktoren liegt, die Renditen und Kovarianzen bestimmen. Diese geschätzten Faktoren können als Input für andere Modelle dienen und ermöglichen so ein besseres Verständnis der Vergangenheit und der Marktschwankungen. Der Referent erwähnt auch die Flexibilität, unterschiedliche Transformationen geschätzter Faktoren mithilfe der Transformationsmatrix H zu berücksichtigen.

Likelihood-Ratio-Tests werden eingeführt, um die Dimensionalität des Faktormodells zu testen. Durch den Vergleich der Wahrscheinlichkeit des geschätzten Faktormodells mit der Wahrscheinlichkeit eines reduzierten Modells kann die Bedeutung und Relevanz zusätzlicher Faktoren beurteilt werden. Dieser Testansatz hilft dabei, die geeignete Anzahl von Faktoren zu bestimmen, die in das Modell einbezogen werden sollen.

Der Abschnitt schließt mit der Hervorhebung der Bedeutung der Modellierung der Dynamik von Faktoren und ihrer strukturellen Beziehungen. Faktormodelle bieten einen Rahmen zum Verständnis des Zusammenspiels zwischen Faktoren und ihrer Auswirkungen auf Vermögensrenditen und Kovarianzen. Durch die Berücksichtigung der Dynamik und strukturellen Zusammenhänge können Anleger und Analysten wertvolle Einblicke in die zugrunde liegenden Treiber der Finanzmärkte gewinnen.

Insgesamt wird in diesem Abschnitt das Thema der Faktormodellierung vertieft, wobei die Schätzung von Parametern, die Interpretation von Faktormodellen und die Anwendung der Faktormodellierung auf Rohstoffmärkten untersucht werden. Der Abschnitt betont die Notwendigkeit geeigneter Modellierungstechniken und des Verständnisses der Dynamik und Beziehungen zwischen Faktoren, um aussagekräftige Einblicke in die Finanzmärkte zu gewinnen.

  • 00:00:00 In diesem Abschnitt geht es um die Faktormodellierung, die darauf abzielt, mithilfe multivariater Analysen Finanzmärkte zu modellieren, indem Faktoren zur Erklärung von Renditen und Kovarianzen verwendet werden. Es gibt zwei Arten von Faktormodellen, bei denen die Faktoren entweder beobachtbar oder verborgen sein können. Zur Spezifizierung dieser Modelle werden statistische Faktormodelle verwendet. Das lineare Faktormodell verwendet die Faktoren f1 bis fk. Dabei handelt es sich um ein Zustandsraummodell für den Wert des stochastischen Prozesses, der von den Koeffizienten beta_1 bis beta_k abhängt. Der Aufbau sieht aus wie ein Standard-Regressionsmodell, und die Vektoren beta_i werden als Faktorladungen bezeichnet, wobei bestimmte Faktoren als Epsilon von Asset i, Periode t bezeichnet werden. Das Ziel besteht darin, Renditen und Kovarianzen anhand einer im Vergleich zur großen Anzahl von Wertpapieren bescheidenen Anzahl zugrunde liegender Faktoren zu charakterisieren, wodurch das Problem erheblich vereinfacht wird.

  • 00:05:00 In diesem Abschnitt wird im Video ein Faktormodell zur Erklärung der Renditen von Vermögenswerten auf der Grundlage zugrunde liegender Faktoren erläutert. Die Restlaufzeit wird als zufällig betrachtet und als weißes Rauschen mit einem Mittelwert von 0 angenommen. Dieses Modell geht davon aus, dass die Kapitalrenditen von den zugrunde liegenden Faktoren mit einem Mittelwert, mu_f, und einer Kovarianzmatrix, omega_f, abhängen. Die Psi-Matrix stellt eine Diagonalmatrix mit den spezifischen Varianzen der zugrunde liegenden Vermögenswerte dar. Die Kovarianzmatrix für den Gesamtvektor des m-variablen stochastischen Prozesses kann mithilfe der bedingten und unbedingten Erwartungen und Kovarianzen ermittelt werden. Die bedingungslose Kovarianz von x ist gleich der Erwartung der Kovarianz des Restterms plus dem Doppelten der Kovarianz zwischen dem Erwartungswert von x und dem Restterm. Die Anzahl der Parameter für die Kovarianzmatrix beträgt m mal m plus 1 über 2.

  • 00:10:00 In diesem Abschnitt wird das Konzept eines Faktormodells als Mittel zur Reduzierung der Anzahl der an einer multivariaten Regression beteiligten Parameter vorgestellt, wobei besonderes Augenmerk auf die Interpretation des Faktormodells als eine Reihe von Zeitreihenregressionen gelegt wird. Der Schwerpunkt liegt auf der Gruppierung aller Assets auf einmal, was eine recheneffiziente Anpassung dieser Assets ermöglicht. Das einfachste Faktormodell, das Ein-Faktor-Modell von Sharpe, wird vorgestellt, bei dem die Überschussrendite von Aktien als lineare Regression auf die Überschussrendite des Marktes modelliert werden kann, wobei das Risiko durch das Beta_i verschiedener Vermögenswerte skaliert wird.

  • 00:15:00 In diesem Abschnitt bespricht das Video die Kovarianzmatrix von Vermögenswerten in der Faktormodellierung und wie sie durch die Verwendung eines Modells zur Modellierung der Kovarianz vereinfacht werden kann, was beim Portfoliomanagement und Risikomanagement nützlich sein kann. Außerdem wird der Schätzprozess für das Einzelindexmodell von Sharpe sowie das Konzept gemeinsamer Faktorvariablen erläutert, die als potenzielle Kandidaten für die Rolle eines relevanten Faktors in einem linearen Faktormodell beobachtet werden können. Die Wirksamkeit eines potenziellen Faktors wird bestimmt, indem das Modell angepasst und ermittelt wird, wie viel es zur gesamten Kovarianzmatrix beiträgt.

  • 00:20:00 In diesem Abschnitt beschreibt das Video die Faktormodellierung und den Ansatz, Faktoren in Überraschungsfaktoren umzuwandeln, um makroökonomische Variablen zu modellieren. Es wird diskutiert, wie wirksam es ist, unvorhergesehene Änderungen dieser Faktoren einzubeziehen, und dieser Ansatz wird mittlerweile in großem Umfang angewendet. Das Video erklärt außerdem, wie man die zugrunde liegenden Parameter mithilfe einfacher Regressionsmethoden und der Gauss-Markov-Annahmen schätzt. Außerdem wird ein Beispiel für den BARRA-Ansatz bereitgestellt, der gemeinsame Faktorvariablen auf der Grundlage grundlegender oder vermögenswertspezifischer Attribute verwendet.

  • 00:25:00 In diesem Abschnitt wird der Fama-French-Ansatz zur Faktormodellierung und Risikoanalyse besprochen, bei dem es darum geht, Aktien auf der Grundlage gemeinsamer Faktoren wie Marktkapitalisierung und Wert im Vergleich zum Wachstum zu bewerten und sie für gleichgewichtete Durchschnittswerte in Quintile zu unterteilen . Als einfacher Fall der Faktormodellierung wird auch das Branchenfaktormodell BARRA genannt, das Aktien in verschiedene Branchengruppen einteilt. Die Faktorrealisierungen werden nicht beobachtet, sondern bei der Anwendung dieser Modelle geschätzt, sodass Korrelationen mit den Renditen einzelner Vermögenswerte berechnet werden können. Insgesamt werden diese Ansätze auch heute noch in großem Umfang in der Faktormodellierung eingesetzt.

  • 00:30:00 In diesem Abschnitt wird das Konzept der Branchenfaktormodelle vorgestellt. Branchenfaktormodelle ermöglichen insbesondere die Zuordnung von Faktorladungen, die verwendet werden, um jeden Vermögenswert im Hinblick auf die Branchengruppe, zu der er gehört, zu laden. Das Problem bei Branchenfaktormodellen besteht darin, die Realisierung zugrunde liegender Faktoren anzugeben, die mit einem Regressionsmodell geschätzt werden können. Bei der Schätzung der Faktorrealisierungen wird davon ausgegangen, dass die Variabilität der Komponenten von x die gleiche Varianz aufweist, in diesen Modellen jedoch tatsächlich Heteroskedastizität vorliegt. Insgesamt bietet dieser Abschnitt einen Überblick über die Schätzung von Kovarianzmatrizen und Regressionsschätzungen für Branchenfaktormodelle.

  • 00:35:00 In diesem Abschnitt des Videos liegt der Schwerpunkt auf der Heteroskedastizität bei der Schätzung der Regressionsparameter und ihren Auswirkungen auf die Portfoliooptimierung, bei der Vermögenswerte nach ihren erwarteten Renditen gewichtet und durch hohe Varianz bestraft werden. Faktornachahmende Portfolios werden verwendet, um den tatsächlichen Wert des Handels mit Faktoren wie im Fama-French-Modell zu bestimmen, und die Realisierung jedes Faktors ist eine gewichtete Summe der Renditen der zugrunde liegenden Vermögenswerte. Durch die Normalisierung der Zeilengewichte der k-dimensionalen Realisierungen können faktornachahmende Portfolios, die potenzielle Investitionen interpretieren, für die Vermögensallokation definiert werden.

  • 00:40:00 In diesem Abschnitt diskutiert der Redner statistische Faktormodelle zur Analyse von Zeitreihen von Vermögensrenditen für m Vermögenswerte über T Zeiteinheiten, bei denen die zugrunde liegenden Faktoren unbekannt sind. Der Referent erläutert die Faktorenanalyse und die Hauptkomponentenanalyse als Methoden zur Aufdeckung der zugrunde liegenden Faktoren, die anhand der Daten selbst definiert werden können. Der Sprecher weist darauf hin, dass bei der Definition des Faktormodells Flexibilität besteht und dass jede gegebene Spezifikation der Matrix B oder der Faktoren f durch die invertierbare Matrix H von ak durch k transformiert werden kann.

  • 00:45:00 In diesem Abschnitt wird das Konzept der Faktormodellierung und -transformation besprochen und hervorgehoben, wie die lineare Funktion im Hinblick auf die Kovarianzmatrix der zugrunde liegenden Faktoren gleich bleibt. Die Diskussion bewegt sich zur Definition einer Matrix H, die die Faktoren diagonalisiert, was die Berücksichtigung von Faktormodellen mit unkorrelierten Faktorkomponenten ermöglicht. Durch die Annahme bestimmter Annahmen wie Orthonormal- und Mittelwertnullfaktoren wird das Modell auf die Kovarianzmatrix sigma_x vereinfacht, da die Faktorladungen B multipliziert mit ihrer Transponierten plus einer Diagonalmatrix sind. Die Maximum-Likelihood-Schätzung wird auch im Zusammenhang mit normalen linearen Faktormodellen mit normalverteilten zugrunde liegenden Zufallsvariablen diskutiert, was zur gemeinsamen Dichtefunktion der Daten führt.

  • 00:50:00 In diesem Abschnitt geht es im Video um die Faktormodellierung und darum, wie Methoden der Maximum-Likelihood-Schätzung angewendet werden können, um alle Parameter der B- und Psi-Matrizen mithilfe des EM-Algorithmus anzugeben. Faktorrealisierungen können mithilfe der Regressionsformel mit Schätzungen für die Faktorladungen und Alpha geschätzt werden. Der EM-Algorithmus ist eine leistungsstarke Schätzmethode, die komplexe Likelihood-Funktionen vereinfachen kann, indem verborgene Variablen geschätzt werden, vorausgesetzt, dass die verborgenen Variablen bekannt sind, und dieser Prozess iteriert wird. Die Faktorerkenntnisse können zur Risikomodellierung genutzt werden.

  • 00:55:00 In diesem Abschnitt diskutiert der Redner den Einsatz der statistischen Faktoranalyse auf Rohstoffmärkten und die Identifizierung zugrunde liegender Faktoren, die Renditen und Kovarianzen bestimmen. Die geschätzten zugrunde liegenden Faktoren können auch als Eingaben für andere Modelle verwendet werden, was für das Verständnis der Vergangenheit und ihrer Variation hilfreich ist. Der Redner erwähnt auch die Flexibilität, unterschiedliche Transformationen eines bestimmten Satzes geschätzter Faktoren durch die H-Matrix für die Transformation zu berücksichtigen. Darüber hinaus wird die Verwendung der statistischen Faktorenanalyse zur Interpretation der zugrunde liegenden Faktoren erwähnt, mit Anwendungen zur Messung des IQ und zur Ermittlung von Rotationen der Faktorladungen, die die Faktoren besser interpretierbar machen. Schließlich behandelt der Abschnitt Likelihood-Ratio-Tests und Tests für die Dimensionalität des Faktormodells.

  • 01:00:00 In diesem Abschnitt wird das Konzept der Hauptkomponentenanalyse (PCA) vorgestellt, ein theoretischer Rahmen, der Eigenwerte und Eigenvektoren der Kovarianzmatrix verwendet, um die multivariate Struktur in einen kleineren dimensionalen Raum zu reduzieren. PCA erstellt ein neues Koordinatensystem, das die relative Position der Daten nicht ändert, sondern nur die Koordinatenachsen dreht und vereinfacht
    die affine Transformation der ursprünglichen Variablen x. Die Hauptkomponentenvariablen haben einen Mittelwert von 0 und eine durch die Diagonalmatrix der Eigenwerte gegebene Kovarianzmatrix und stellen ein lineares Faktormodell mit durch gamma_1 gegebenen Faktorladungen und einem durch gamma_2 p_2 gegebenen Restterm dar. Der gamma_2 p_2-Vektor verfügt jedoch möglicherweise nicht über eine diagonale Kovarianzmatrix.

  • 01:05:00 In diesem Abschnitt erläutert das Video die Unterschiede zwischen linearen Faktormodellen und der Hauptkomponentenanalyse. Bei einem linearen Faktormodell wird davon ausgegangen, dass der Restvektor eine Kovarianzmatrix hat, die einer Diagonale entspricht, während die Hauptkomponentenanalyse wahr sein kann oder auch nicht. Anschließend wird im Video die empirische Hauptkomponentenanalyse erörtert, bei der Stichprobendaten verwendet werden, um Schätzungen von Mittelwerten und Kovarianzmatrizen zu erhalten. Außerdem wird das Konzept der Variabilität eingeführt, wobei die erste Hauptkomponentenvariable als die Dimension definiert ist, bei der die Koordinatenachse die maximale Variabilität aufweist. Die zweite Hauptkomponentenvariable ist dann die Richtung orthogonal zur ersten mit der maximalen Varianz, und dieser Prozess wird fortgesetzt, um alle m Hauptkomponentenvariablen zu definieren.

  • 01:10:00 In diesem Abschnitt erklärt der Referent, wie die Hauptkomponentenanalyse verwendet werden kann, um die Variabilität verschiedener Hauptkomponentenvariablen einer Kovarianzmatrix σ zu zerlegen, die die Gesamtvarianz eines multivariaten Datensatzes darstellt. Die nicht diagonalen Einträge der Matrix sind Null, was darauf hinweist, dass die Hauptkomponentenvariablen nicht korreliert sind und ihr eigenes Variabilitätsniveau aufweisen, das durch die Eigenwerte dargestellt wird. Als Fallstudie nutzt der Referent das Beispiel der Renditen von US-Staatsanleihen zwischen 2000 und 2013 und betrachtet dabei insbesondere die Veränderungen der Renditen. Der Schwerpunkt liegt auf einem Fünfjahreszeitraum zwischen 2001 und 2005, und die Analyse besteht aus der täglichen Volatilität der Renditen und den negativen Niveaus in diesem Zeitraum.

  • 01:15:00 In diesem Abschnitt diskutiert der Referent die Faktormodellierung von Ertragsänderungen mithilfe der Hauptkomponentenanalyse. Die Korrelationsmatrix der Renditeänderungen zeigt hohe Korrelationen für kürzere Laufzeiten und abnehmende Korrelationen, wenn man sich von der Diagonale entfernt. Der Vortragende verwendet Diagramme zur visuellen Darstellung der Korrelationen und zeigt, dass die erste Hauptkomponentenvariable 85 % der Gesamtvariabilität erklärt. Ein Gerölldiagramm bestätigt, dass die ersten paar Hauptkomponenten einen erheblichen Teil der Variabilität erklären. Abschließend vergleicht der Vortragende die Standardabweichungen der ursprünglichen Ertragsänderungen mit denen der Hauptkomponentenvariablen.

  • 01:20:00 In diesem Abschnitt wurde ein Diagramm der Belastungen der verschiedenen Ertragsänderungen für die ersten paar Hauptkomponentenvariablen vorgestellt, das einen Eindruck von der Interpretation der Hauptkomponentenvariablen vermittelt. Die erste Hauptkomponentenvariable misst die durchschnittliche Renditeänderung über den gesamten Bereich und gibt dem Fünfjahreszeitraum ein größeres Gewicht, der ein Maß für die Niveauverschiebung in der Zinsstrukturkurve erfasst, während die zweite Hauptkomponentenvariable die Differenz zwischen den Renditen betrachtet Änderungen bei den langen Laufzeiten im Vergleich zu den kurzen Laufzeiten. Darüber hinaus liefert die dritte Hauptkomponentenvariable ein Maß für die Krümmung der Termstruktur und wie sich diese im Laufe der Zeit ändert. Die Hauptkomponentenvariablen weisen keine Korrelationen untereinander auf, und die kumulierten Hauptkomponentenvariablen im Zeitverlauf geben an, wie sich diese zugrunde liegenden Faktoren im Laufe des Zeitraums entwickelt haben.

  • 01:25:00 In diesem Abschnitt diskutiert der Redner die Anpassung eines statistischen Faktoranalysemodells an die Daten und den Vergleich der Ergebnisse über einen Zeitraum von fünf Jahren. Der Redner betont, wie wichtig es ist, die Modelle über einen bestimmten Zeitraum zu spezifizieren, und weist darauf hin, dass die Anpassung der Modelle nur ein Ausgangspunkt ist. Letztendlich ist es notwendig, die Dynamik dieser Faktoren und ihre strukturellen Beziehungen zu modellieren.
15. Factor Modeling
15. Factor Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
Grund der Beschwerde: