Commercio quantitativo - pagina 11

 

6. Analisi di regressione



6. Analisi di regressione

In questo video completo, approfondiamo l'argomento dell'analisi di regressione, esplorandone l'importanza nella modellazione statistica. La regressione lineare è al centro della scena mentre discutiamo i suoi obiettivi, l'impostazione del modello lineare e il processo di adattamento di un modello di regressione. Per garantire una solida base, iniziamo spiegando le ipotesi alla base della distribuzione dei residui, comprese le famose ipotesi di Gauss-Markov. Inoltre, introduciamo il teorema generalizzato di Gauss-Markov, che fornisce un metodo per stimare la matrice di covarianza nell'analisi di regressione.

Sottolineiamo l'importanza di incorporare informazioni soggettive nella modellazione statistica e di accogliere dati incompleti o mancanti. La modellazione statistica dovrebbe essere adattata allo specifico processo analizzato e mettiamo in guardia dall'applicare ciecamente la semplice regressione lineare a tutti i problemi. Viene spiegata la stima dei minimi quadrati ordinari per beta, insieme alle equazioni di normalizzazione, alla matrice cappello e al teorema di Gauss-Markov per la stima dei parametri di regressione. Copriamo anche modelli di regressione con covarianze diverse da zero tra i componenti, consentendo un approccio più flessibile e realistico.

Per espandere ulteriormente la nostra comprensione, esploriamo il concetto di distribuzioni normali multivariate e il loro ruolo nel risolvere la distribuzione dello stimatore dei minimi quadrati, assumendo residui normalmente distribuiti. Vengono trattati argomenti come la funzione di generazione dei momenti, la decomposizione QR e la stima di massima verosimiglianza. Spieghiamo come la decomposizione QR semplifica la stima dei minimi quadrati e presentiamo un risultato fondamentale sui normali modelli di regressione lineare. Definiamo la funzione di verosimiglianza e le stime di massima verosimiglianza, evidenziando la coerenza tra minimi quadrati e principi di massima verosimiglianza nei normali modelli di regressione lineare.

In tutto il video, sottolineiamo i passaggi iterativi coinvolti nell'analisi di regressione. Questi passaggi includono l'identificazione della risposta e delle variabili esplicative, la specifica delle ipotesi, la definizione dei criteri di stima, l'applicazione dello stimatore scelto ai dati e la convalida delle ipotesi. Discutiamo anche dell'importanza di verificare le ipotesi, condurre diagnosi di influenza e rilevare valori anomali.

In sintesi, questo video fornisce una panoramica completa dell'analisi di regressione, coprendo argomenti come la regressione lineare, le ipotesi di Gauss-Markov, il teorema di Gauss-Markov generalizzato, le informazioni soggettive nella modellazione, la stima dei minimi quadrati ordinari, la matrice del cappello, le distribuzioni normali multivariate, la generazione dei momenti funzione, decomposizione QR e stima di massima verosimiglianza. Comprendendo questi concetti e tecniche, sarai ben attrezzato per affrontare l'analisi di regressione e utilizzarla in modo efficace nei tuoi sforzi di modellazione statistica.

  • 00:00:00 In questa sezione, il professore introduce l'argomento dell'analisi di regressione, trattato oggi, e la sua importanza nella modellazione statistica. La metodologia, in particolare la regressione lineare, è potente e ampiamente utilizzata in finanza e in altre discipline che si occupano di statistica applicata. Il professore discute i vari obiettivi dell'analisi di regressione, tra cui l'estrazione/sfruttamento della relazione tra variabili indipendenti e dipendenti, la previsione, l'inferenza causale, l'approssimazione e la scoperta di relazioni funzionali/convalida di relazioni funzionali tra variabili. Inoltre, il modello lineare è impostato da un punto di vista matematico, e la lezione copre i minimi quadrati ordinari, il teorema di Gauss-Markov, e modelli formali con normali modelli di regressione lineare, seguiti da estensioni a classi più ampie.

  • 00:05:00 In questa sezione viene esplorato il concetto di analisi di regressione lineare, in cui una funzione lineare modella la distribuzione condizionale di una variabile di risposta date variabili indipendenti. I parametri di regressione vengono utilizzati per definire la relazione e i residui descrivono l'incertezza o l'errore nei dati. Inoltre, l'approssimazione polinomiale e le serie di Fourier possono essere applicate per fornire una descrizione completa, specialmente per il comportamento ciclico. I passaggi chiave per l'adattamento di un modello di regressione comportano la proposta di un modello basato sulla scala della variabile di risposta e l'identificazione di variabili indipendenti chiave. Vale la pena notare che queste variabili indipendenti possono includere diverse forme funzionali e valori di ritardo della variabile di risposta, rendendo l'impostazione relativamente generale.

  • 00:10:00 In questa sezione, il relatore discute i passaggi coinvolti nell'analisi di regressione. In primo luogo, occorre identificare la risposta delle variabili esplicative e specificare le ipotesi alla base della distribuzione dei residui. In secondo luogo, è necessario definire un criterio su come giudicare diversi stimatori dei parametri di regressione, con diverse opzioni disponibili. In terzo luogo, il miglior stimatore deve essere caratterizzato e applicato ai dati dati. In quarto luogo, è necessario verificare le loro ipotesi, che possono portare a modifiche al modello e alle ipotesi, se necessario. Infine, il relatore sottolinea l'importanza di adattare il modello al processo da modellare e non applicare la semplice regressione lineare a tutti i problemi. La sezione termina con una discussione delle ipotesi che si possono fare per la distribuzione residua in un modello di regressione lineare, con la distribuzione normale come punto di partenza comune e familiare.

  • 00:15:00 In questa sezione, il relatore spiega le ipotesi di Gauss-Markov utilizzate nell'analisi di regressione, che si concentrano sulle medie e le varianze dei residui. Le ipotesi includono media zero, varianza costante e residui non correlati. Il relatore discute anche le ipotesi generalizzate di Gauss-Markov che coinvolgono variabili casuali con valori matriciali o vettoriali. Il relatore dimostra come la matrice di covarianza caratterizza la varianza del vettore n e fornisce esempi utilizzando i valori mu e y.

  • 00:20:00 In questa sezione viene introdotto il teorema di Gauss-Markov generalizzato come metodo per stimare la matrice di covarianza nell'analisi di regressione. Il teorema consente una matrice di covarianza generale con covarianze diverse da zero tra le variabili indipendenti, le variabili dipendenti e i residui e presuppone che possano essere correlate. Vengono discussi esempi non lineari del motivo per cui i residui potrebbero essere correlati nei modelli di regressione, nonché l'uso di vari tipi di distribuzione oltre la distribuzione gaussiana per adattare i modelli di regressione per estendere l'applicabilità. La lezione copre quindi il criterio di stima per i parametri di regressione e vari metodi utilizzati per giudicare ciò che si qualifica come una buona stima, inclusi minimi quadrati, massima verosimiglianza, metodi robusti, metodi di Bayes e sistemazione per dati incompleti o mancanti.

  • 00:25:00 In questa sezione, il relatore discute l'importanza di incorporare informazioni soggettive nella modellazione statistica e l'utilità delle metodologie Bayes nella modellazione appropriata. Sottolinea inoltre la necessità di accogliere dati incompleti o mancanti utilizzando modelli statistici. Inoltre, il relatore spiega come verificare le ipotesi nei modelli di regressione analizzando i residui per determinare se si applicano le ipotesi di Gauss-Markov. Cita anche l'importanza della diagnostica dell'influenza e del rilevamento dei valori anomali nell'identificare i casi che potrebbero essere rispettivamente altamente influenti o insoliti. Infine, introduce il concetto di minimi quadrati ordinari e il criterio dei minimi quadrati per calcolare la somma degli scostamenti quadrati dal valore effettivo della variabile di risposta.

  • 00:30:00 In questa sezione, apprendiamo l'analisi di regressione e come risolvere la stima dei minimi quadrati ordinari per beta. Utilizziamo matrici, prendendo il vettore y, gli n valori della variabile indipendente e X, la matrice dei valori della variabile dipendente, per definire il valore adattato, y hat, uguale alla matrice x per beta. Prendendo il prodotto incrociato del vettore n meno il prodotto della matrice X per beta, che fornisce le stime dei minimi quadrati ordinari per beta, possiamo risolvere la derivata seconda di Q rispetto a beta, che finisce per essere X. trasporre X, una matrice definita o semidefinita positiva. Infine, definiamo la derivata di Q rispetto ai parametri di regressione come meno il doppio della j-esima colonna impilata per y.

  • 00:35:00 In questa sezione viene introdotto il concetto di equazioni normali nella modellazione di regressione. L'insieme delle equazioni deve essere soddisfatto dalla stima dei minimi quadrati ordinari, beta. Con l'assistenza dell'algebra matriciale, l'equazione può essere risolta e la soluzione per beta hat assume che X traspone X inversa esista. Per fare in modo che X trasponga X inverso, X deve avere un rango completo, indicando che avere variabili indipendenti spiegate da altre variabili indipendenti comporterebbe un rango ridotto. Si scopre che se beta hat non ha un rango completo, la nostra stima dei minimi quadrati di beta potrebbe non essere unica.

  • 00:40:00 In questa sezione sull'analisi di regressione, la matrice cappello viene introdotta come matrice di proiezione che prende il vettore lineare della variabile di risposta in valori adattati. Nello specifico, è una matrice di proiezione ortogonale che proietta sullo spazio colonna di X. I residui sono la differenza tra il valore di risposta e il valore adattato e possono essere espressi come y meno y hat, o I_n meno H per y. Si scopre che I_n meno H è anche una matrice di proiezione che proietta i dati sullo spazio ortogonale allo spazio delle colonne di x. Questo è importante da tenere a mente perché aiuta a rappresentare il vettore n-dimensionale y mediante proiezione sullo spazio delle colonne e a capire che i residui sono ortogonali a ciascuna delle colonne di X.

  • 00:45:00 In questa sezione, il teorema di Gauss-Markov viene presentato come un potente risultato nella teoria dei modelli lineari che è utile per stimare una funzione dei parametri di regressione considerando un obiettivo generale di interesse, che è una combinazione lineare dei beta . Il teorema afferma che le stime dei minimi quadrati sono stimatori imparziali del parametro theta e fornisce un modo per dimostrare che queste stime hanno la varianza minima tra tutti gli stimatori imparziali lineari, assumendo che siano soddisfatte determinate condizioni. Viene anche spiegato brevemente il concetto di stimatori imparziali.

  • 00:50:00 In questa sezione, il relatore discute il teorema di Gauss-Markov, che afferma che se si applicano le ipotesi di Gauss-Markov, allora lo stimatore theta ha la varianza più piccola tra tutti gli stimatori lineari imparziali di theta. Ciò significa che lo stimatore dei minimi quadrati è lo stimatore ottimale per theta purché questo sia il criterio. La dimostrazione di questo teorema si basa sul considerare un'altra stima lineare che è anch'essa una stima imparziale e valutare la differenza tra i due stimatori che devono avere un'aspettativa di 0. L'argomento matematico per la dimostrazione include una scomposizione della varianza e il tenere traccia di i termini di covarianza. Questo risultato è da dove proviene il termine stime BLU o la proprietà BLU delle stime dei minimi quadrati nella classe econometrica.

  • 00:55:00 In questa sezione, il video discute il modello di regressione con covarianze diverse da zero tra i componenti e come i dati Y, X possono essere trasformati in Y star e X star per soddisfare le ipotesi originali di Gauss-Markov, rendendo le variabili di risposta hanno varianza costante e non sono correlati. Il video spiega che con valori di risposta che hanno varianze molto grandi, questi minimi quadrati generalizzati scontano quelli dell'inverso sigma. Il video approfondisce quindi la teoria della distribuzione per i normali modelli di regressione, assumendo che i residui siano normali con media 0 e varianza sigma al quadrato e che le variabili di risposta avranno una varianza costante, sebbene non siano distribuite in modo identico perché hanno medie diverse per la variabile dipendente.

  • 01:00:00 In questa sezione viene discusso il concetto di distribuzione normale multivariata rispetto al vettore medio e alla matrice di covarianza. L'obiettivo è risolvere la distribuzione dello stimatore dei minimi quadrati assumendo residui normalmente distribuiti. La funzione di generazione dei momenti viene introdotta come un modo per derivare la distribuzione congiunta di Y e beta hat. Per le distribuzioni normali multivariate, la funzione generatrice del momento per Y è il prodotto delle singole funzioni generatrici del momento, con la distribuzione di Y che è normale con media mu e matrice di covarianza sigma. La funzione generatrice dei momenti per beta hat viene risolta per determinarne la distribuzione, che è una normale multivariata.

  • 01:05:00 In questa sezione, il relatore discute la funzione generatrice dei momenti di beta hat e come sia equivalente a una distribuzione normale multivariata con media la vera beta e matrice di covarianza data da un certo oggetto. La distribuzione marginale di ciascuno dei cappelli beta è data da una distribuzione normale univariata con media beta_j e varianza uguale alla diagonale, che può essere dimostrata dalla funzione generatrice del momento gaussiano. Il relatore passa poi a discutere la decomposizione QR di X, che può essere ottenuta attraverso un'ortonormalizzazione di Gram-Schmidt della matrice delle variabili indipendenti. Definendo la matrice triangolare superiore R e risolvendo per Q e R attraverso il processo di Gram-Schmidt, possiamo esprimere qualsiasi matrice n per p come prodotto di una matrice ortonormale Q e una matrice triangolare superiore R.

  • 01:10:00 In questa sezione viene discussa la decomposizione QR e la sua applicazione nella semplificazione della stima dei minimi quadrati. Utilizzando il processo di Gram-Schmidt per ortogonalizzare le colonne di X, la decomposizione QR può essere calcolata per ottenere una semplice operazione di algebra lineare da risolvere per le stime dei minimi quadrati. La matrice di covarianza di beta hat è uguale a sigma quadrato X trasposizione X inverso, e la matrice cappello è semplicemente Q per Q trasposizione. La teoria della distribuzione viene ulteriormente esplorata per fornire un risultato fondamentale sui normali modelli di regressione lineare.

  • 01:15:00 In questa sezione, il professore discute un importante teorema per qualsiasi matrice A, m per n, che può trasformare un vettore casuale y in un vettore normale casuale. Il teorema dimostra che la stima dei minimi quadrati beta hat e il vettore residuo epsilon hat sono variabili casuali indipendenti durante la costruzione di tali statistiche. La distribuzione del cappello beta è normale multivariata mentre la somma dei residui quadrati è un multiplo di una variabile casuale chi quadrato. Vengono inoltre discusse le stime dei parametri di regressione e le statistiche t. La stima della massima verosimiglianza è spiegata anche nel contesto dei normali modelli di regressione lineare. Si scopre che le stime dei minimi quadrati ordinari sono stime di massima verosimiglianza.

  • 01:20:00 In questa sezione vengono definite la funzione di verosimiglianza e le stime di massima verosimiglianza. La funzione di verosimiglianza è la funzione di densità per i dati dati i parametri sconosciuti di una variabile casuale normale multivariata e le stime di massima verosimiglianza determinano i valori di questi parametri che rendono i dati osservati più probabili. Si noti che l'utilizzo dei minimi quadrati per adattare i modelli è coerente con l'applicazione del principio di massima verosimiglianza a un normale modello di regressione lineare. Inoltre, gli stimatori M generalizzati sono brevemente menzionati come una classe di stimatori utilizzati per trovare stime robuste e quantili dei parametri di regressione.
6. Regression Analysis
6. Regression Analysis
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

7. Modelli Value At Risk (VAR).



7. Modelli Value At Risk (VAR).

Il video fornisce una discussione approfondita sul concetto di modelli di valore a rischio (VAR), ampiamente utilizzati nel settore finanziario. Questi modelli utilizzano calcoli basati sulla probabilità per misurare le potenziali perdite che un'azienda o un individuo potrebbero dover affrontare. Utilizzando un semplice esempio, il video illustra efficacemente i concetti fondamentali alla base dei modelli VAR.

I modelli VAR fungono da strumenti preziosi per le persone per valutare la probabilità di perdere denaro a causa di decisioni di investimento in un dato giorno. Per comprendere il rischio associato agli investimenti, gli investitori possono analizzare la deviazione standard di una serie storica. Questa metrica rivela quanto il rendimento medio si è discostato dalla media nel tempo. Valutando un titolo alla media più o meno una deviazione standard, gli investitori possono ottenere informazioni sul potenziale rendimento aggiustato per il rischio del titolo.

Il video evidenzia che i modelli VAR possono essere costruiti utilizzando diversi approcci. Mentre il video si concentra principalmente sull'approccio parametrico, riconosce il metodo alternativo di impiegare la simulazione Monte Carlo. Quest'ultimo approccio offre una maggiore flessibilità e opzioni di personalizzazione, consentendo valutazioni del rischio più accurate.

Inoltre, il video esplora la creazione di set di dati sintetici che rispecchiano le proprietà dei set di dati storici. Utilizzando questa tecnica, gli analisti possono generare scenari realistici per valutare accuratamente i potenziali rischi. Il video dimostra anche l'applicazione della trigonometria nella descrizione dei modelli stagionali osservati nei dati di temperatura, mostrando i diversi metodi impiegati nell'analisi del rischio.

Oltre a discutere i modelli VAR, il video approfondisce gli approcci di gestione del rischio utilizzati da banche e società di investimento. Sottolinea l'importanza di comprendere il profilo di rischio di un'azienda e di proteggersi da eccessive concentrazioni di rischio.

Nel complesso, il video offre preziose informazioni sull'utilizzo dei modelli VAR come strumenti di valutazione del rischio nel settore finanziario. Quantificando i rischi associati agli investimenti e impiegando analisi statistiche, questi modelli aiutano a prendere decisioni informate e mitigare potenziali perdite finanziarie.

  • 00:00:00 In questo video, Ken Abbott discute gli approcci di gestione del rischio utilizzati da banche e società di investimento. Prima discute il rischio e prosegue discutendo di come la gestione del rischio implichi la comprensione del profilo di rischio dell'azienda e la protezione da concentrazioni di rischio troppo grandi.

  • 00:05:00 I modelli di valore a rischio sono un modo per stimare il rischio associato a investimenti specifici e possono essere utilizzati per aiutare a prendere decisioni informate su quali possedere. Questi modelli si basano su una comprensione statistica del comportamento di azioni, obbligazioni e derivati e possono essere utilizzati per quantificare la sensibilità di un investitore alle variazioni dei tassi di interesse, dei prezzi delle azioni e dei prezzi delle materie prime.

  • 00:10:00 Il video spiega che i modelli VAR vengono utilizzati per misurare il rischio e determinare quanto denaro deve detenere un investitore per sostenere una posizione in un determinato mercato. Il video fornisce anche una panoramica dell'analisi delle serie temporali, che viene utilizzata per comprendere il comportamento dei mercati nel tempo.

  • 00:15:00 Il video discute il concetto di valore a rischio (VAR), che è un modello finanziario che utilizza la probabilità per misurare le potenziali perdite che un'azienda potrebbe subire. Il video utilizza un semplice esempio per illustrare i concetti.

  • 00:20:00 I modelli Value at Risk (VAR) aiutano le persone a valutare la probabilità di perdere denaro in un dato giorno a causa di decisioni di investimento. La deviazione standard di una serie temporale indica agli investitori quanto il rendimento medio si è discostato dalla media nel tempo. Valutare un titolo alla media più o meno una deviazione standard dà un'idea del rendimento potenziale aggiustato per il rischio del titolo.

  • 00:25:00 I modelli Value at Risk (VAR) consentono di identificare scenari in cui un investimento potrebbe perdere più del 4,2% del suo valore in un periodo di cinque anni. Queste informazioni possono essere utili per determinare se è probabile che un investimento sia redditizio o meno.

  • 00:30:00 Questo video spiega come funzionano i modelli di valore a rischio (VAR) e come aiutano a mitigare il rischio. I concetti introdotti includono le variazioni percentuali e le variazioni logaritmiche e l'uso di PV1 e durate per misurare il rischio. Il video copre anche l'uso dei modelli VAR nel settore finanziario.

  • 00:35:00 Questo video discute il concetto di valore a rischio (VAR), che è uno strumento di gestione del rischio che calcola la potenziale perdita finanziaria che un'azienda o un individuo potrebbe subire a causa della volatilità delle sue attività. Vengono discussi anche i rendimenti e viene spiegato che sono composti da tassi privi di rischio e spread creditizi. Il presentatore fornisce un esempio di come il VAR può essere utilizzato per stimare la potenziale perdita finanziaria che un'azienda potrebbe subire a causa delle variazioni dei prezzi delle sue attività.

  • 00:40:00 Questo video discute i modelli di valore a rischio, che misurano il rischio nei mercati finanziari. covarianza e correlazione sono due misure di rischio e le matrici di covarianza sono simmetriche, con la varianza sulla diagonale e la covarianza sulla diagonale esterna. Anche le correlazioni sono simmetriche e possono essere calcolate utilizzando la covarianza divisa per il prodotto delle deviazioni standard.

  • 00:45:00 Il video discute il concetto di valore a rischio (VAR), che viene utilizzato per misurare il rischio di perdite finanziarie associate a un portafoglio di attività. Il video spiega che il VAR può essere calcolato utilizzando una matrice di covarianza e una matrice di correlazione. La matrice di covarianza misura il grado di correlazione tra attività, mentre la matrice di correlazione misura il grado di correlazione tra attività e passività. Il video presenta quindi un esempio di come il VAR può essere calcolato utilizzando una matrice di covarianza e una matrice di correlazione.

  • 00:50:00 I modelli Value at Risk (VAR) sono un modo per misurare il rischio associato a un investimento finanziario. Il modello utilizza i dati dei rendimenti e della covarianza per calcolare il vettore di posizione e la statistica dell'ordine. Questo viene quindi utilizzato per determinare il livello di rischio dell'investimento.

  • 00:55:00 Questo video fornisce i punti chiave di una presentazione di 7 diapositive sui modelli di valore a rischio. Tali modelli sono utilizzati per calcolare la probabilità di una perdita finanziaria, al verificarsi di determinate condizioni. I dati mancanti possono essere un problema e sono disponibili vari metodi per colmare le lacune. La presentazione discute anche come l'impatto di un presupposto può avere un impatto materiale sui risultati di un modello.

  • 01:00:00 Il video discute i modelli di valore a rischio (VAR). Il modello utilizza un approccio parametrico, ma esiste un altro metodo che utilizza la simulazione Monte Carlo. Questo metodo è più flessibile e consente una maggiore personalizzazione.

  • 01:05:00 I modelli Value at Risk (VAR) vengono utilizzati per stimare il potenziale di una perdita finanziaria dovuta alle fluttuazioni dei prezzi delle attività. Questi modelli possono essere utilizzati per quantificare il rischio associato a un particolare investimento o portafoglio.

  • 01:10:00 In questo video, l'autore discute l'importanza dei modelli di valore a rischio (VAR), spiegando che questi modelli aiutano a garantire che un'azienda non subisca un autovalore negativo. Continua dicendo che, se hai mille osservazioni, devi inserire i dati mancanti usando un processo chiamato "imputazione dei dati mancanti". Infine, John dimostra come creare una matrice di trasformazione che correlerà le normali casuali.

  • 01:15:00 In questo video, il presentatore spiega come creare modelli che simulano i risultati degli investimenti, utilizzando la simulazione Monte Carlo. Discute anche su come utilizzare una copula gaussiana per generare modelli più accurati.

  • 01:20:00 Il video spiega come creare set di dati sintetici per avere le stesse proprietà dei set di dati storici. Dimostra anche come la trigonometria può essere utilizzata per descrivere i modelli stagionali nei dati di temperatura.
7. Value At Risk (VAR) Models
7. Value At Risk (VAR) Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Kenneth AbbottThi...
 

8. Analisi delle serie storiche I


8. Analisi delle serie storiche I

In questo video, il professore inizia rivisitando il metodo di stima della massima verosimiglianza come approccio principale nella modellazione statistica. Spiegano il concetto di funzione di verosimiglianza e la sua connessione ai normali modelli di regressione lineare. Le stime di massima verosimiglianza sono definite come valori che massimizzano la funzione di verosimiglianza, indicando quanto è probabile che i dati osservati ricevano questi valori di parametro.

Il professore approfondisce la risoluzione di problemi di stima per normali modelli di regressione lineare. Sottolineano che la stima di massima verosimiglianza della varianza dell'errore è Q di beta hat su n, ma avvertono che questa stima è distorta e necessita di correzione dividendola per n meno il rango della matrice X. Man mano che vengono aggiunti più parametri al modello, i valori adattati diventano più precisi, ma esiste anche il rischio di overfitting. Il teorema afferma che le stime dei minimi quadrati, ora stime di massima verosimiglianza, dei modelli di regressione seguono una distribuzione normale e la somma dei quadrati dei residui segue una distribuzione del chi quadrato con gradi di libertà pari a n meno p. La statistica t è sottolineata come uno strumento cruciale per valutare il significato delle variabili esplicative nel modello.

Viene introdotta la stima M generalizzata come metodo per stimare parametri sconosciuti minimizzando la funzione Q di beta. Diversi stimatori possono essere definiti scegliendo diverse forme per la funzione h, che comporta la valutazione di un'altra funzione. Il video copre anche robusti stimatori M, che utilizzano la funzione chi per garantire buone proprietà rispetto alle stime, nonché stimatori quantili. Gli stimatori robusti aiutano a mitigare l'influenza dei valori anomali o dei grandi residui nella stima dei minimi quadrati.

L'argomento si sposta quindi sugli stimatori M e sulla loro ampia applicabilità nei modelli di adattamento. Viene presentato un case study sui modelli di regressione lineare applicati all'asset pricing, incentrato sul modello di capital asset pricing. Il professore spiega come i rendimenti azionari sono influenzati dal rendimento complessivo del mercato, scalato dal rischio del titolo. Il caso di studio fornisce dati e dettagli su come raccoglierli utilizzando il software statistico R. Vengono menzionate le diagnostiche di regressione, evidenziando il loro ruolo nella valutazione dell'influenza delle singole osservazioni sui parametri di regressione. La leva finanziaria viene introdotta come misura per identificare punti dati influenti e vengono fornite la sua definizione e spiegazione.

Viene introdotto il concetto di incorporare fattori aggiuntivi, come i rendimenti del petrolio greggio, nei modelli di rendimento azionario. L'analisi dimostra che il mercato da solo non spiega in modo efficiente i rendimenti di alcuni titoli, mentre il petrolio greggio agisce come un fattore indipendente che aiuta a chiarire i rendimenti. Viene fornito un esempio con Exxon Mobil, una compagnia petrolifera, che mostra come i suoi rendimenti siano correlati ai prezzi del petrolio. La sezione si conclude con un grafico a dispersione che indica le osservazioni influenti basate sulla distanza Mahalanobis dei casi dal baricentro delle variabili indipendenti.

Il docente procede a discutere l'analisi delle serie temporali univariate, che prevede l'osservazione di una variabile casuale nel tempo come un processo discreto. Spiegano le definizioni di stazionarietà rigorosa e di covarianza, con stazionarietà di covarianza che richiede che la media e la covarianza del processo rimangano costanti nel tempo. Vengono introdotti i modelli di media mobile autoregressiva (ARMA), insieme alla loro estensione alla non stazionarietà attraverso i modelli di media mobile autoregressiva integrata (ARIMA). Vengono trattate anche la stima di modelli stazionari e test di stazionarietà.

Viene discusso il teorema di rappresentazione di Wold per le serie temporali stazionarie di covarianza, affermando che tali serie temporali possono essere scomposte in un processo deterministico lineare e una media pesata di rumore bianco con coefficienti dati da psi_i. La componente del rumore bianco, eta_t, ha una varianza costante ed è incorrelata con se stessa e con il processo deterministico. Il teorema di decomposizione di Wold fornisce un quadro utile per modellare tali processi.

Il docente illustra il metodo di decomposizione Wold dell'analisi delle serie temporali, che prevede l'inizializzazione del parametro p (che rappresenta il numero di osservazioni passate) e la stima della proiezione lineare di X_t sulla base degli ultimi valori di p lag. Esaminando i residui utilizzando metodi di serie temporali, come la valutazione dell'ortogonalità rispetto a ritardi più lunghi e la coerenza con il rumore bianco, è possibile determinare un modello di media mobile appropriato. Il metodo di decomposizione di Wold può essere implementato prendendo il limite delle proiezioni quando p si avvicina all'infinito, convergendo alla proiezione dei dati sulla sua storia e corrispondenti ai coefficienti della definizione di proiezione. Tuttavia, è fondamentale che il rapporto tra p e la dimensione del campione n si avvicini allo zero per garantire un numero adeguato di gradi di libertà per la stima del modello.

Viene sottolineata l'importanza di avere un numero finito di parametri nei modelli di serie temporali per evitare l'overfitting. L'operatore ritardo, indicato con L, viene introdotto come uno strumento fondamentale nei modelli di serie temporali, consentendo lo spostamento di una serie temporale di un incremento temporale. L'operatore ritardo viene utilizzato per rappresentare qualsiasi processo stocastico utilizzando il polinomio psi(L), che è un polinomio di ordine infinito che coinvolge i ritardi. La funzione di risposta all'impulso è discussa come misura dell'impatto di un'innovazione in un determinato momento sul processo, influenzandolo in quel momento e oltre. Il relatore fornisce un esempio utilizzando la variazione del tasso di interesse da parte del presidente della Federal Reserve per illustrare l'impatto temporale delle innovazioni.

Il concetto di risposta cumulativa di lungo periodo è spiegato in relazione all'analisi delle serie temporali. Questa risposta rappresenta l'effetto accumulato di un'innovazione nel processo nel tempo e indica il valore verso il quale il processo sta convergendo. Viene calcolato come la somma delle risposte individuali catturate dal polinomio psi(L). La rappresentazione di Wold, che è una media mobile di ordine infinito, può essere trasformata in una rappresentazione autoregressiva utilizzando l'inverso del polinomio psi(L). Viene introdotta la classe dei processi di media mobile autoregressiva (ARMA) con la sua definizione matematica.

L'attenzione si sposta quindi sui modelli autoregressivi nel contesto dei modelli ARMA. La lezione inizia con casi più semplici, in particolare modelli autoregressivi, prima di affrontare i processi a media mobile. Vengono esplorate le condizioni di stazionarietà e viene introdotta l'equazione caratteristica associata al modello autoregressivo sostituendo la funzione polinomiale phi con la variabile complessa z. Il processo X_t è considerato stazionario di covarianza se tutte le radici dell'equazione caratteristica giacciono all'esterno della circonferenza unitaria, il che implica che il modulo del complesso z è maggiore di 1. Le radici all'esterno della circonferenza unitaria devono avere un modulo maggiore di 1 per garantire la stazionarietà.

Nella sezione successiva del video, viene discusso il concetto di stazionarietà e radici unitarie in un processo autoregressivo di ordine uno (AR(1)). Viene presentata l'equazione caratteristica del modello e viene spiegato che la stazionarietà della covarianza richiede che la grandezza di phi sia inferiore a 1. La varianza di X nel processo autoregressivo si dimostra maggiore della varianza delle innovazioni quando phi è positivo e minore quando phi è negativo. Inoltre, è dimostrato che un processo autoregressivo con phi compreso tra 0 e 1 corrisponde a un processo di ritorno alla media esponenziale, che è stato impiegato nei modelli di tasso di interesse in finanza.

Il video procede per concentrarsi specificamente sui processi autoregressivi, in particolare sui modelli AR(1). Questi modelli coinvolgono variabili che tendono a tornare a una certa media in brevi periodi, con il punto di ritorno alla media che potrebbe cambiare in lunghi periodi. La conferenza introduce le equazioni di Yule-Walker, che vengono utilizzate per stimare i parametri dei modelli ARMA. Queste equazioni si basano sulla covarianza tra osservazioni a ritardi diversi e il sistema di equazioni risultante può essere risolto per ottenere i parametri autoregressivi. Le equazioni di Yule-Walker sono spesso utilizzate per specificare i modelli ARMA nei pacchetti statistici.

Viene spiegato il principio del metodo dei momenti per la stima statistica, in particolare nel contesto di modelli complessi in cui la specificazione e il calcolo delle funzioni di verosimiglianza diventano difficili. La lezione prosegue discutendo i modelli a media mobile e presenta le formule per le aspettative di X_t, inclusi mu e gamma 0. Il comportamento non stazionario nelle serie temporali viene affrontato attraverso vari approcci. Il docente sottolinea l'importanza di accogliere comportamenti non stazionari per ottenere modelli accurati. Un approccio consiste nel trasformare i dati per renderli stazionari, ad esempio differenziandoli o applicando l'approccio di Box-Jenkins che utilizza la prima differenza. Inoltre, vengono forniti esempi di modelli di inversione di tendenza lineare come mezzo per gestire serie temporali non stazionarie.

Il relatore esplora ulteriormente i processi non stazionari e la loro incorporazione nei modelli ARMA. Se la differenziazione, prima o seconda, produce stazionarietà della covarianza, può essere integrata nella specifica del modello per creare modelli ARIMA (Autoregressive Integrated Moving Average Processes). I parametri di questi modelli possono essere stimati utilizzando la stima di massima verosimiglianza. Per valutare diversi insiemi di modelli e determinare gli ordini dei parametri autoregressivi e della media mobile, vengono suggeriti criteri informativi come il criterio informativo di Akaike o Bayes.

Viene discussa la questione dell'aggiunta di ulteriori variabili al modello, insieme alla considerazione delle sanzioni. Il docente sottolinea la necessità di stabilire prove per l'incorporazione di parametri aggiuntivi, come la valutazione di statistiche t che superano una certa soglia o l'utilizzo di altri criteri. Il criterio informativo di Bayes assume un numero finito di variabili nel modello, supponendo che siano note, mentre il criterio di Hannan-Quinn assume un numero infinito di variabili ma ne garantisce l'identificabilità. La selezione del modello è un compito impegnativo, ma questi criteri forniscono strumenti utili per il processo decisionale.

In conclusione, il video copre vari aspetti della modellazione statistica e dell'analisi delle serie temporali. Inizia spiegando la stima di massima verosimiglianza e la sua relazione con i normali modelli di regressione lineare. Vengono introdotti i concetti di stima M generalizzata e stima M robusta. Viene presentato un caso di studio che applica i modelli di regressione lineare al prezzo delle attività, seguito da una spiegazione dell'analisi delle serie temporali univariate. Il teorema di rappresentazione di Wold e il metodo di decomposizione di Wold sono discussi nel contesto delle serie temporali stazionarie di covarianza. Viene sottolineata l'importanza di un numero finito di parametri nei modelli di serie temporali, insieme ai modelli autoregressivi e alle condizioni di stazionarietà. Il video si conclude affrontando i processi autoregressivi, le equazioni di Yule-Walker, il principio del metodo dei momenti, il comportamento non stazionario e la selezione del modello utilizzando criteri informativi.

  • 00:00:00 In questa sezione, il professore esamina il metodo di stima della massima verosimiglianza come metodo di stima principale nella modellazione statistica mentre discute la funzione di verosimiglianza e la sua relazione con i normali modelli di regressione lineare. Il professore spiega che le stime di massima verosimiglianza sono valori che massimizzano la funzione per cui i dati osservati sono più probabili e questi valori ridimensionano i parametri sconosciuti in termini di probabilità che avrebbero potuto generare i valori dei dati.

  • 00:05:00 In questa sezione, il professore discute come risolvere i problemi di stima per i normali modelli di regressione lineare. La stima di massima verosimiglianza della varianza dell'errore è Q di beta hat su n, ma questa stima è distorta e deve essere corretta dividendo per n meno il rango della matrice X. Maggiore è il numero di parametri aggiunti al modello, più precisi sono i valori adattati, ma aumenta anche il rischio di adattamento della curva. Il teorema afferma che i minimi quadrati, ora le stime di massima verosimiglianza, dei modelli di regressione sono distribuiti normalmente e la somma dei quadrati dei residui ha una distribuzione chi-quadrato con gradi di libertà dati da n meno p. La statistica t è un modo critico per valutare la rilevanza delle diverse variabili esplicative nel modello.

  • 00:10:00 In questa sezione, il video spiega il concetto di stima M generalizzata, che comporta la stima di parametri sconosciuti minimizzando la funzione Q di beta. Scegliendo diverse forme funzionali per h, che è una somma di valutazioni di un'altra funzione, è possibile definire diversi tipi di stimatori come i minimi quadrati e la stima di massima verosimiglianza. Il video discute anche degli stimatori M robusti, che implicano la definizione della funzione chi per avere buone proprietà con stime e stimatori quantili. Stimatori robusti aiutano a controllare l'indebita influenza di valori molto grandi o residui sotto la stima dei minimi quadrati.

  • 00:15:00 In questa sezione, il professore discute gli stimatori M e il modo in cui comprendono la maggior parte degli stimatori incontrati nei modelli di adattamento. La classe viene introdotta a un caso di studio che applica modelli di regressione lineare al prezzo delle attività. Il modello di determinazione del prezzo delle attività di capitale viene spiegato per suggerire che i rendimenti delle azioni dipendono dal rendimento del mercato complessivo, ridimensionato in base alla rischiosità del titolo. Il caso di studio fornisce i dati ei dettagli necessari per raccoglierlo utilizzando R. Il professore menziona la diagnostica della regressione e il modo in cui determinano l'influenza delle singole osservazioni sui parametri di regressione. Infine, i punti dati influenti vengono identificati utilizzando la leva finanziaria e vengono fornite la definizione e la spiegazione.

  • 00:20:00 In questa sezione, il professore introduce il concetto di aggiungere un altro fattore, come il rendimento del petrolio greggio, nella modellazione dei rendimenti azionari per aiutare a spiegare i rendimenti. L'analisi mostra che il mercato, in questo caso di studio, non è stato efficiente nello spiegare il ritorno di GE; il petrolio greggio è un altro fattore indipendente che aiuta a spiegare i rendimenti. D'altra parte, Exxon Mobil, una compagnia petrolifera, ha un parametro di regressione che mostra come il petrolio greggio abbia sicuramente un impatto sul suo rendimento poiché sale e scende con i prezzi del petrolio. La sezione termina con un grafico a dispersione che indica le osservazioni influenti associate alla distanza Mahalanobis dei casi dal baricentro delle variabili indipendenti.

  • 00:25:00 In questa sezione, il docente introduce l'argomento dell'analisi di serie temporali univariate, che prevede l'osservazione di una variabile casuale nel tempo ed è un processo temporale discreto. Viene spiegata la definizione di stazionarietà rigorosa e di covarianza, in cui la stazionarietà di covarianza è più debole e richiede che solo la media e la covarianza del processo rimangano costanti nel tempo. Vengono inoltre discussi i modelli classici di modelli di media mobile autoregressiva e le loro estensioni alla non stazionarietà con modelli di media mobile autoregressiva integrati, insieme a come stimare i modelli stazionari e testare la stazionarietà.

  • 00:30:00 In questa sezione del video, il relatore discute il teorema di rappresentazione di Wold per serie temporali stazionarie di covarianza. Il teorema afferma che una serie temporale stazionaria di covarianza a media zero può essere scomposta in due componenti: un processo deterministico lineare e una media pesata di rumore bianco con coefficienti dati da psi_i. L'oratore spiega anche che eta_t, l'elemento rumore bianco, ha varianza costante ed è incorrelato con se stesso e il processo deterministico. Il teorema di decomposizione di Wold fornisce una struttura avvincente per modellare tali processi.

  • 00:35:00 In questa sezione viene discusso il metodo di decomposizione di Wold per l'analisi delle serie temporali. Questo metodo comporta l'inizializzazione del parametro p, che rappresenta il numero di osservazioni passate nel termine linearmente deterministico, e la stima della proiezione lineare di X_t sugli ultimi valori di p lag. Conducendo metodi di serie temporali per analizzare i residui, come valutare se i residui sono ortogonali a ritardi più lunghi e coerenti con il rumore bianco, è possibile specificare un modello di media mobile e valutarne l'adeguatezza. Il metodo di decomposizione di Wold può essere implementato come limite delle proiezioni al crescere di p, convergendo alla proiezione dei dati sulla sua storia e corrispondenti ai coefficienti della definizione di proiezione. Tuttavia, il rapporto p/n deve avvicinarsi a 0 per evitare di esaurire i gradi di libertà durante la stima dei modelli.

  • 00:40:00 In questa sezione, il relatore sottolinea l'importanza di avere un numero finito di parametri durante la stima dei modelli di serie temporali perché aiuta a evitare l'overfitting. L'operatore ritardo è uno strumento cruciale nei modelli di serie temporali in cui una serie temporale viene spostata indietro di un incremento temporale utilizzando l'operatore L. Qualsiasi processo stocastico può essere rappresentato utilizzando l'operatore ritardo con psi di L, che è un polinomio di ordine infinito di i ritardi. La funzione di risposta all'impulso si riferisce all'impatto dell'innovazione in un determinato momento che influenza il processo in quel momento e oltre. L'oratore utilizza un esempio della variazione del tasso di interesse del presidente della Federal Reserve per aiutare a spiegare l'impatto dell'innovazione nel tempo.

  • 00:45:00 In questa sezione viene discusso il concetto di risposta cumulativa di lungo periodo in relazione all'analisi delle serie temporali. La risposta cumulativa a lungo termine è l'impatto di un'innovazione in un processo nel tempo e il valore verso il quale il processo si sta muovendo. Questa risposta è data dalla somma delle risposte individuali, rappresentate dal polinomio di psi con operatore lag. La rappresentazione Wold è una media mobile di ordine infinito che può avere una rappresentazione autoregressiva utilizzando un inverso del psi del polinomio L. Allo spettatore viene inoltre presentata la classe dei processi a media mobile autoregressiva, con definizione matematica.

  • 00:50:00 In questa sezione, l'attenzione è rivolta ai modelli autoregressivi nei modelli ARMA. Per comprendere meglio questi modelli, verranno esaminati casi più semplici, partendo dai modelli autoregressivi e passando ai processi a media mobile. Si esploreranno anche condizioni di stazionarietà, dove la funzione polinomiale phi, se sostituita da una variabile complessa z, sarà l'equazione caratteristica associata al modello autoregressivo. Il processo di X_t è stazionario di covarianza se e solo se tutte le radici di questa equazione caratteristica giacciono all'esterno della circonferenza unitaria, il che significa che il modulo del complesso z è maggiore di 1, e le radici, se esterne alla circonferenza unitaria, hanno modulo maggiore di 1.

  • 00:55:00 In questa sezione del video, viene discusso il concetto di stazionarietà e radici unitarie in un processo autoregressivo di ordine uno. Viene presentata l'equazione caratteristica del modello e si determina che la stazionarietà della covarianza richiede che la grandezza di phi sia minore di 1 in grandezza. Si mostra che la varianza di X nel processo autoregressivo è maggiore della varianza delle innovazioni quando phi è positivo e minore quando phi è minore di 0. Inoltre, si dimostra che un processo autoregressivo con phi compreso tra 0 e 1 corrisponde a un processo di ripristino della media esponenziale che è stato utilizzato teoricamente per i modelli di tasso di interesse in finanza.

  • 01:00:00 In questa sezione, l'attenzione è rivolta ai processi autoregressivi, in particolare ai modelli AR(1). Questi modelli coinvolgono variabili che in genere ritornano a una certa media in brevi periodi di tempo, ma il punto di ritorno alla media può cambiare in lunghi periodi di tempo. La conferenza spiega le equazioni di Yule-Walker, che vengono utilizzate per stimare i parametri dei modelli ARMA. Queste equazioni implicano la covarianza tra osservazioni a ritardi diversi e il sistema di equazioni risultante può essere risolto per i parametri autoregressivi. Infine, si noti che le equazioni di Yule-Walker sono spesso utilizzate per specificare i modelli ARMA nei pacchetti statistici.

  • 01:05:00 In questa sezione viene spiegato il principio del metodo dei momenti per la stima statistica, in particolare nei modelli complessi in cui le funzioni di verosimiglianza sono difficili da specificare e calcolare e utilizzando stime imparziali dei parametri. Viene quindi discusso il modello della media mobile, con le formule per le aspettative di X_t, che includono mu e gamma 0, calcolate. Vengono discussi anche gli adattamenti per il comportamento non stazionario nelle serie temporali, in particolare attraverso la trasformazione dei dati in stazionario, l'approccio di Box e Jenkins di utilizzare la prima differenza ed esempi di modelli di inversione di tendenza lineare.

  • 01:10:00 In questa sezione, il relatore discute i processi non stazionari e come incorporarli nei modelli ARMA. Spiega che se la prima o la seconda differenziazione si traduce in stazionarietà della covarianza, può essere incorporata nella specifica del modello per creare modelli ARIMA o processi di media mobile integrata autoregressiva. I parametri per questi modelli possono essere specificati utilizzando la massima verosimiglianza e diversi insiemi di modelli e ordini di parametri di media autoregressiva e mobile possono essere valutati utilizzando criteri di informazione come il criterio di informazione di Akaike o Bayes.

  • 01:15:00 In questa sezione, il relatore discute la questione dell'aggiunta di variabili extra nel modello e quale penalità dovrebbe essere data. Suggerisce che è necessario considerare quali prove dovrebbero essere richieste per incorporare parametri aggiuntivi come statistiche t che superano una certa soglia o altri criteri. Il criterio di informazione di Bayes presuppone che ci sia un numero finito di variabili nel modello e che le conosciamo, mentre il criterio di Hannan-Quinn presuppone un numero infinito di variabili nel modello ma garantisce che siano identificabili. Il problema della selezione del modello è impegnativo ma può essere risolto utilizzando questi criteri.
8. Time Series Analysis I
8. Time Series Analysis I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

9. Modellazione della volatilità



9. Modellazione della volatilità

Questo video fornisce un'ampia panoramica della modellazione della volatilità, esplorando vari concetti e tecniche nel campo. Il docente inizia introducendo i modelli di media mobile autoregressiva (ARMA) e la loro rilevanza per la modellazione della volatilità. I modelli ARMA vengono utilizzati per catturare l'arrivo casuale di shock in un processo di moto browniano. Il relatore spiega che questi modelli presuppongono l'esistenza di un processo, pi di t, che rappresenta un processo di Poisson che conta il numero di salti che si verificano. I salti sono rappresentati da variabili casuali, gamma sigma Z_1 e Z_2, seguendo una distribuzione di Poisson. La stima di questi parametri viene effettuata utilizzando la stima di massima verosimiglianza attraverso l'algoritmo EM.

Il video approfondisce quindi l'argomento della selezione del modello e dei criteri. Vengono discussi diversi criteri di selezione del modello per determinare il modello più adatto per un dato set di dati. Il criterio di informazione di Akaike (AIC) è presentato come una misura di quanto un modello si adatta ai dati, penalizzando i modelli in base al numero di parametri. Il criterio informativo di Bayes (BIC) è simile ma introduce una penalità logaritmica per i parametri aggiunti. Il criterio di Hannan-Quinn fornisce una penalità intermedia tra i termini logaritmici e lineari. Questi criteri aiutano nella selezione del modello ottimale per la modellizzazione della volatilità.

Successivamente, il video affronta il test Dickey-Fuller, che è uno strumento prezioso per valutare se una serie temporale è coerente con una semplice passeggiata casuale o presenta una radice unitaria. Il docente spiega l'importanza di questo test nel rilevare processi non stazionari, che possono rappresentare una sfida quando si utilizzano i modelli ARMA. Vengono evidenziati i problemi associati alla modellazione di processi non stazionari utilizzando i modelli ARMA e vengono discusse le strategie per affrontare questi problemi.

Il video si conclude presentando un'applicazione dei modelli ARMA a un esempio reale. Il docente dimostra come la modellazione della volatilità può essere applicata nella pratica e come i modelli ARMA possono catturare la volatilità dipendente dal tempo. L'esempio serve a illustrare la rilevanza pratica e l'efficacia delle tecniche di modellizzazione della volatilità.

In sintesi, questo video fornisce una panoramica completa della modellazione della volatilità, coprendo i concetti dei modelli ARMA, il test Dickey-Fuller, i criteri di selezione del modello e le applicazioni pratiche. Esplorando questi argomenti, il video offre approfondimenti sulle complessità e sulle strategie coinvolte nella modellazione e nella previsione della volatilità in vari domini, come i mercati finanziari.

  • 00:00:00 L'autore discute il modello di volatilità e come può aiutare nella stima di un modello statistico. L'autore osserva che esistono vari criteri di selezione del modello che possono essere utilizzati per determinare quale modello è più adatto per un dato insieme di dati.

  • 00:05:00 Il criterio di informazione di Akaike è una misura di quanto bene un modello si adatta ai dati e sta penalizzando i modelli di un fattore che dipende dalla dimensione dei parametri del modello. Il criterio delle informazioni di Bayes è simile, ma ha una penalità di log n per i parametri aggiunti. Il criterio di Hannan-Quinn ha una penalità a metà tra log n e due. Il test Dickey-Fuller è un test per vedere se una serie temporale è coerente con una semplice passeggiata aleatoria.

  • 00:10:00 Questo video fornisce una panoramica dei modelli di volatilità, compresi i concetti dei modelli di media mobile autoregressiva (ARMA) e il test Dickey-Fuller. Il video passa quindi a discutere i problemi che possono verificarsi quando un processo non stazionario viene modellato utilizzando i modelli ARMA e come affrontare questi problemi. Infine, il video fornisce un'applicazione dei modelli ARMA a un esempio reale.

  • 00:15:00 Questo video fornisce una breve introduzione alla modellazione della volatilità, inclusa una discussione sulle funzioni ACF e PACF, il test Dickey-Fuller per le radici unitarie e la diagnostica della regressione.

  • 00:20:00 La volatilità è una misura della variabilità dei prezzi o dei rendimenti nei mercati finanziari. La volatilità storica viene calcolata prendendo la differenza nei logaritmi dei prezzi in un dato periodo di tempo. I modelli di volatilità sono progettati per catturare la volatilità dipendente dal tempo.

  • 00:25:00 La volatilità è una misura di quanto il prezzo di un titolo cambia nel tempo. La volatilità può essere misurata dalla radice quadrata della varianza campionaria e può essere convertita in valori annualizzati. La volatilità storica può essere stimata utilizzando approcci basati su metriche di rischio.

  • 00:30:00 I modelli di volatilità possono essere utilizzati per prevedere i futuri prezzi delle azioni e il moto browniano geometrico è un modello comunemente utilizzato. Choongbum entrerà più in dettaglio sulle equazioni differenziali stocastiche e sul calcolo stocastico nelle lezioni successive.

  • 00:35:00 Il modello di volatilità è un modello matematico che prevede il prezzo di un titolo nel tempo. Il modello utilizza una distribuzione gaussiana per calcolare il prezzo in un dato periodo di tempo. Quando la scala temporale viene modificata, il modello deve essere adattato.

  • 00:40:00 La modellazione della volatilità può produrre risultati diversi in base a come viene misurato il tempo. Ad esempio, in un modello di moto browniano geometrico, i rendimenti giornalieri vengono campionati da una distribuzione gaussiana, mentre in un modello normale vengono tracciati i percentili della distribuzione gaussiana adattata. In entrambi i casi, la funzione di distribuzione cumulativa del modello adattato dovrebbe essere centrata attorno al percentile effettivo.

  • 00:45:00 Lo stimatore Garman-Klass è un modello per stimare la volatilità che tiene conto di più informazioni rispetto ai soli prezzi di chiusura. Si assume che gli incrementi siano uno per daily, corrispondente a daily, e che si tenga conto dell'orario di apertura del mercato (rappresentato dalla f minuscola).

  • 00:50:00 Questo modello di volatilità calcola la varianza dei rendimenti da apertura a chiusura e l'efficienza di questa stima rispetto alla stima da chiusura a chiusura.

  • 00:55:00 Il modello di volatilità è un'equazione differenziale stocastica che modella la volatilità di un'attività finanziaria. L'articolo di Garman e Klass ha rilevato che il miglior stimatore invariante di scala è una stima che cambia solo di un fattore di scala e che questo stimatore ha un'efficienza di 8,4.

  • 01:00:00 Questo video tratta la modellazione della volatilità, che è un modo per gestire l'arrivo casuale di shock in un processo di moto browniano. Il modello presuppone che esista un processo pi di t, che è un processo di Poisson che conta il numero di salti che si sono verificati. Questi salti sono rappresentati da gamma sigma Z_1 e Z_2, che sono variabili casuali con distribuzione di Poisson. La stima di massima verosimiglianza di questi parametri viene effettuata utilizzando l'algoritmo EM.

  • 01:05:00 Il video "9. Volatility Modeling" copre l'algoritmo EM ei modelli ARCH, che vengono utilizzati per modellare la volatilità dipendente dal tempo. I modelli ARCH consentono la dipendenza dal tempo nella volatilità, pur mantenendo i vincoli dei parametri. Questo modello viene utilizzato per stimare i tassi di cambio euro/dollaro.

  • 01:10:00 La modellazione della volatilità è il processo di stima del processo sottostante che guida i prezzi delle azioni. Ciò comporta l'adattamento di un modello autoregressivo ai residui al quadrato e il test della struttura ARCH. Se non esiste una struttura ARCH, il modello di regressione non avrà prevedibilità.

  • 01:15:00 Il modello GARCH è una rappresentazione semplificata della volatilità dei rendimenti al quadrato di un determinato asset. Il modello è in grado di adattare i dati abbastanza bene e ha proprietà che suggeriscono una dipendenza dal tempo nella volatilità.

  • 01:20:00 Questo video illustra i vantaggi dell'utilizzo dei modelli di volatilità rispetto ad altri modelli di previsione. I modelli GARCH si sono dimostrati particolarmente efficaci nel catturare la volatilità variabile nel tempo. L'ultimo giorno per iscriversi a una gita scolastica è martedì prossimo.
9. Volatility Modeling
9. Volatility Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

10. Prezzi regolarizzati e modelli di rischio



10. Prezzi regolarizzati e modelli di rischio

In questo video completo, viene ampiamente trattato il tema della regolarizzazione dei prezzi e dei modelli di rischio per i prodotti su tassi di interesse, in particolare obbligazioni e swap. Il relatore inizia affrontando la sfida della cattiva posizione in questi modelli, dove anche piccoli cambiamenti negli input possono portare a risultati significativi. Per superare questa sfida, propongono l'uso di funzioni di base lisce e funzioni di penalità per controllare l'uniformità della superficie di volatilità. La regolarizzazione di Tikhonov viene introdotta come una tecnica che aggiunge una penalità all'ampiezza, riducendo l'impatto del rumore e migliorando la significatività dei modelli.

L'oratore approfondisce varie tecniche impiegate dai commercianti in questo campo. Discutono le tecniche spline e l'analisi dei componenti principali (PCA), che vengono utilizzate per identificare le discrepanze nel mercato e prendere decisioni di trading informate. Viene spiegato il concetto di obbligazioni, coprendo aspetti quali pagamenti periodici, scadenza, valore nominale, obbligazioni zero coupon e obbligazioni perpetue. Viene sottolineata l'importanza di costruire una curva dei rendimenti per prezzare un portafoglio di swap con scadenze diverse.

I tassi di interesse ei modelli di determinazione dei prezzi per obbligazioni e swap sono discussi in dettaglio. Il relatore riconosce i limiti dei modelli a numero singolo per la previsione delle variazioni di prezzo e introduce il concetto di swap e il modo in cui i trader quotano i livelli bid e offer per il tasso swap. Viene spiegata la costruzione di una curva dei rendimenti per la determinazione del prezzo degli swap, insieme alla selezione degli strumenti di input per la calibrazione e i tipi di spline. Il processo di calibrazione degli swap utilizzando una spline cubica e la garanzia che riprezzino alla pari è dimostrato utilizzando esempi pratici.

Il video esplora ulteriormente la curva dei tassi forward a tre mesi e la necessità di un prezzo equo che corrisponda agli osservabili di mercato. L'attenzione si sposta quindi sulla negoziazione degli spread e sulla determinazione degli strumenti più liquidi. Vengono discusse le sfide della creazione di una curva insensibile ai cambiamenti del mercato, evidenziando i costi significativi associati a tali strategie. Viene affrontata la necessità di migliorare i modelli di copertura, presentando una nuova formulazione generale per il rischio di portafoglio. L'analisi delle componenti principali viene utilizzata per analizzare le modalità e gli scenari di mercato, consentendo ai trader di coprirsi utilizzando swap liquidi e convenienti.

I modelli di prezzo e rischio regolarizzati vengono esplorati in profondità, sottolineando gli svantaggi del modello PCA, come l'instabilità e la sensibilità ai valori anomali. Vengono evidenziati i vantaggi di tradurre il rischio in numeri più gestibili e liquidi. Il video spiega come ulteriori vincoli e riflessioni sul comportamento delle matrici di rischio possono migliorare questi modelli. L'uso di B-spline, funzioni di penalità, matrici L1 e L2 e regolarizzazione di Tikhonov è discusso come mezzo per migliorare la stabilità e ridurre gli errori di prezzo.

Il relatore affronta le sfide della calibrazione di una superficie di volatilità, fornendo approfondimenti su problemi sottodeterminati e soluzioni instabili. Vengono spiegati la rappresentazione della superficie come vettore e l'uso di combinazioni lineari di funzioni di base. Il concetto di cattiva posizione viene rivisitato e viene sottolineata l'importanza di vincolare gli output utilizzando funzioni di base uniformi.

Vengono trattate varie tecniche e approcci, tra cui la decomposizione del valore singolare troncata (SVD) e le funzioni di adattamento utilizzando tecniche spline. Viene spiegata l'interpretazione dei grafici di interpolazione e la loro applicazione nella calibrazione e nell'arbitraggio delle discrepanze di mercato. Vengono discussi gli swaption e il loro ruolo nella modellazione della volatilità, insieme alle opportunità che presentano per i trader.

Il video si conclude evidenziando l'importanza dei prezzi regolarizzati e dei modelli di rischio nell'identificare le anomalie del mercato e facilitare decisioni di trading informate. Sottolinea la liquidità delle obbligazioni e l'uso di swap per costruire curve, pur riconoscendo la dipendenza dai modelli PCA in assenza di una curva stabile. Nel complesso, il video fornisce una comprensione completa dei prezzi regolarizzati e dei modelli di rischio per i prodotti sui tassi di interesse, fornendo agli spettatori preziose conoscenze in questo settore.

  • 00:00:00 In questa sezione, il dott. Ivan Masyukov, relatore ospite di Morgan Stanley, discute i modelli di pricing e rischio regolarizzati per i prodotti su tassi di interesse, che comporta l'aggiunta di ulteriori vincoli, noti anche come regolarizzatori, al modello. La conferenza inizia con una spiegazione delle obbligazioni, uno dei più semplici prodotti a tasso di interesse sul mercato, e copre i loro pagamenti periodici, la scadenza e il valore nominale. Vengono discusse anche le obbligazioni zero coupon, che non pagano nulla fino alla scadenza, e le obbligazioni perpetue, che offrono un pagamento infinito. La lezione si conclude con la spiegazione del diagramma di flusso di cassa utilizzato per l'analisi, con frecce verdi che indicano qualcosa ricevuto e frecce rosse che indicano qualcosa pagato.

  • 00:05:00 In questa sezione viene introdotto il concetto di valore temporale del denaro, in cui più un flusso di cassa è futuro, minore è il fattore di sconto, con conseguente deprezzamento. Un valore equo dei flussi di cassa calcolati può essere trovato se disponiamo di fattori di sconto, che possono essere rappresentati utilizzando un modello per l'attualizzazione. Viene discusso un semplice modello che utilizza un parametro, il rendimento alla scadenza. Il prezzo di un'obbligazione può essere rappresentato come una combinazione lineare di flussi di cassa futuri e il rendimento dell'obbligazione può essere trovato risolvendolo se il prezzo dell'obbligazione è noto o viceversa.

  • 00:10:00 In questa sezione viene discusso il concetto di prezzo delle obbligazioni rispetto al rendimento. Il valore economico delle obbligazioni è nel prezzo delle obbligazioni e nei flussi di cassa. Il rendimento correla i flussi di cassa futuri con il prezzo dell'obbligazione e presuppone uno sconto costante per tutti i punti temporali, tuttavia potrebbe non essere sempre ottimale. La sensibilità del prezzo dell'obbligazione al rendimento e il modo in cui cambia con il mercato è fondamentale per determinare la durata di un'obbligazione. La durata di un'obbligazione è una formula di somma ponderata del tempo e proporzionale ai valori attuali dei flussi di cassa futuri. La relazione tra rendimento e prezzo dell'obbligazione ha segno negativo e la durata di un'obbligazione zero coupon è uguale alla scadenza, mentre la durata delle obbligazioni a cedola regolare è inferiore alla scadenza. Il modello per la durata delle obbligazioni presuppone che tutti i tassi si muovano in modo parallelo.

  • 00:15:00 In questa sezione, il relatore discute i tassi di interesse e i modelli di prezzo per obbligazioni e swap. Riconoscono che un modello a numero singolo potrebbe non essere adeguato per prevedere le variazioni di prezzo e suggeriscono di utilizzare le derivate seconde per tenere conto delle perdite inspiegabili. Per quanto riguarda gli swap, il relatore spiega come i trader quotano i livelli denaro e lettera per la quantità più importante di uno swap, il tasso swap, utilizzando il valore attuale dei flussi di cassa fissi e variabili. Notano inoltre che la stipula di uno swap non richiede alcuno scambio di denaro e che il tasso fisso è fissato in modo tale che il valore attuale dei flussi di cassa fissi meno fluttuanti sia netto pari a zero.

  • 00:20:00 In questa sezione viene spiegato il concetto di tassi swap come somma ponderata di tassi a termine, con i pesi determinati da fattori di attualizzazione. Il video spiega la necessità di costruire una curva dei rendimenti per prezzare un intero portafoglio di swap con varie scadenze, nonché il processo di selezione degli strumenti di input per la calibrazione e il tipo di spline. Il passaggio finale consiste nell'adeguare i punti di controllo per garantire che quando gli strumenti vengono rivalutati utilizzando l'oggetto matematico, i risultati corrispondano ai prezzi di mercato.

  • 00:25:00 In questa sezione, Ivan Masyukov spiega come viene utilizzata una spline cubica per costruire una curva liscia, in cui la forma funzionale della forma della curva è un polinomio cubico, pur mantenendo il numero massimo di derivate per ogni nodo punto. Le B-spline vengono introdotte come un nuovo tipo di spline che può essere rappresentato come una combinazione lineare di funzioni di base, consentendo di rappresentare qualsiasi curva con quei punti nodali. Masyukov prosegue poi spiegando come calibrare gli swap utilizzando un risolutore per garantire che riprezzino alla pari. Ciò è dimostrato utilizzando l'esempio degli strumenti della curva dei rendimenti e degli IRS swap con scadenze da uno a 30 anni e quotazioni dallo 0,33% al 2,67%.

  • 00:30:00 In questa sezione, Ivan Masyukov spiega come la curva del tasso forward a tre mesi, che è guidata principalmente dal tasso LIBOR per la frequenza trimestrale dei pagamenti sulla gamba variabile dello swap USD su tasso di interesse standard, sia non piatto ed è ripido per i primi cinque anni e raggiunge un plateau in seguito con qualche caratteristica nella regione dei 20 anni. Poiché la curva non può essere ottenuta supponendo che ci sia un solo parametro di rendimento per tutto, hanno bisogno di un termine extra per ottenere un prezzo equo e corrispondere agli osservabili di mercato. Il termine extra sarà una piccola correzione della curva dei rendimenti piuttosto che un'ipotesi approssimativa che la curva sia piatta. Questo approccio è migliore per avere un modello coerente per le obbligazioni e gli swap nel nostro portafoglio e comprendere la liquidità delle obbligazioni e gli spread creditizi.

  • 00:35:00 In questa sezione, l'attenzione si sposta su come vengono scambiati gli spread e quali strumenti sono considerati i più liquidi. Si scopre che l'obbligazione è l'opzione più liquida, mentre lo spread tra lo swap decennale e l'obbligazione è la seconda opzione più liquida. Questo spostamento merita affidabilità quando si crea una curva poiché un piccolo cambiamento negli input può causare grandi variazioni negli output, il che è motivo di preoccupazione per i trader. Una situazione tipica è quella in cui un trader vorrebbe che il valore del proprio modello fosse insensibile ai cambiamenti del mercato, per questo avrebbe bisogno di acquistare tanti swap di un anno quanti più 200, tanti swap di due anni quanti meno 1.3 e così via. Tuttavia, potrebbe essere costoso, costando circa 3,6 milioni di dollari, e proporzionale al bid-offer di particolari strumenti.

  • 00:40:00 In questa sezione viene discussa la necessità di un migliore modello di copertura, in quanto l'attuale metodo di copertura per i trader non è efficace. Viene presentata una nuova formulazione generale per il rischio di portafoglio caratterizzata dai vettori del rischio di portafoglio, del portafoglio di copertura e dei pesi di tale portafoglio. L'analisi delle componenti principali viene utilizzata per affrontare il problema e analizzare le modalità e gli scenari tipici del mercato, in base ai quali i trader scelgono swap liquidi ed economici per proteggersi. Viene presentato un grafico delle componenti principali tipiche, con il comportamento principale del mercato che attualmente i tassi non si muovono, ma si sposteranno in futuro a causa della stimolazione della Federal Reserve.

  • 00:45:00 In questa sezione, il relatore discute i modelli di prezzo e rischio regolarizzati, in particolare gli svantaggi del modello PCA. Il modello PCA è formulato utilizzando strumenti di copertura per eliminare la necessità di minimizzare, ma i coefficienti non sono molto stabili, soprattutto per le modalità recenti sul mercato. Inoltre, il modello è sensibile ai valori anomali e può comportare un overfitting dei dati storici, rendendo rischioso presumere che funzioneranno per il futuro. I vantaggi del modello includono la possibilità di tradurre il rischio in numeri meno numerosi e più liquidi, ordini di grandezza inferiori rispetto a prima, consentendo ai trader di prendere decisioni informate.

  • 00:50:00 In questa sezione, il video parla della regolarizzazione dei prezzi e dei modelli di rischio e di come l'inserimento di ulteriori vincoli o riflessioni sul comportamento delle matrici di rischio può migliorare la situazione. Il relatore spiega l'interpretazione PCA della matrice di rischio e come si tratti di una combinazione lineare di componenti principali, che produce uno spostamento su uno strumento di copertura alla volta. Discutono anche di un approccio che va oltre i dati storici e costruisce curve dei rendimenti in termini di tassi a termine per ridurre al minimo la non uniformità penalizzando le equazioni in cui lo Jacobiano è una matrice che traduce gli spostamenti degli input della curva dei rendimenti. Il video evidenzia anche come funzionano il motore di determinazione dei prezzi e il processo di calibrazione utilizzando il modello HJM per valutare la volatilità.

  • 00:55:00 In questa sezione, il relatore spiega le equazioni di evoluzione dei tassi forward necessarie per la simulazione Monte Carlo, dove i tassi forward sono la quantità che viene assimilata. L'oratore discute la deriva dei tassi forward, che ha una certa dipendenza dai tassi forward rispetto al potere del beta. Viene introdotta la superficie di volatilità, che fornisce il numero di volatilità da utilizzare per il calendario e il tempo in avanti, e vengono brevemente menzionate la correlazione e la struttura dei fattori. Il relatore spiega che la superficie triangolare viene utilizzata per la volatilità della transizione per ogni freccia e mostra un esempio della superficie di volatilità. Il problema sta nel calcolo della matrice triangolare, che ha una dimensione di 240 per 240, necessari fino a 60 anni di dati, rendendolo un compito impegnativo.

  • 01:00:00 In questa sezione del video, il relatore spiega come affrontare il problema della calibrazione di una superficie di volatilità. Poiché il numero di elementi da calibrare è elevato, una soluzione formale che memorizza una matrice di 28K per 28K non è pratica. Inoltre, poiché ci sono meno strumenti di calibrazione rispetto agli elementi da calibrare, è un problema sottodeterminato che produce soluzioni instabili. Per risolvere questo problema, rappresentano la superficie come un vettore e utilizzano una combinazione lineare di funzioni di base che corrisponde a funzioni ragionevoli con lo stesso numero di funzioni di base degli strumenti di input. Mentre si calibra perfettamente, la superficie risultante sembra meno una superficie di volatilità e più simile allo skyline di Manhattan con il fiume Hudson e le forme degli edifici. Questo approccio è comunemente usato ma produce risultati instabili.

  • 01:05:00 In questa sezione del video, il relatore discute la questione della cattiva posizione nei modelli di pricing e di rischio, il che significa che piccoli cambiamenti negli input possono portare a drastici cambiamenti negli output. Per risolvere questo problema, suggeriscono di porre vincoli sugli output utilizzando funzioni di base che sono lisce all'inizio, come B-spline, e utilizzando funzioni di penalità per controllare il cambiamento e l'uniformità della superficie di volatilità. In questo modo, possono produrre risultati significativi senza dover calibrare esattamente ogni strumento in ingresso. Il relatore dimostra come le funzioni di base possono essere costruite in due dimensioni e combinate utilizzando combinazioni lineari.

  • 01:10:00 In questa sezione, il relatore discute il concetto di prezzi regolarizzati e modelli di rischio. Il relatore spiega che le matrici L1 e L2 costituite dai valori 1 e -1 possono essere utilizzate per penalizzare il gradiente di un vettore se si desidera un approccio di uniformità. Per risolvere un problema mal posto in cui piccoli rumori e modalità insignificanti possono causare cambiamenti sostanziali nell'output, è possibile utilizzare la tecnica di regolarizzazione di Tikhonov. La tecnica prevede l'aggiunta di una penalità all'ampiezza per ridurre l'impatto del rumore. Il relatore sottolinea che poiché c'è sempre incertezza nei numeri da calibrare e il modello non è sempre perfetto, la regolarizzazione è necessaria per ridurre al minimo gli errori di prezzo.

  • 01:15:00 In questa sezione viene discusso il concetto di prezzi regolarizzati e modelli di rischio. La regolarizzazione di Tikhonov viene introdotta come metodo per migliorare la stabilità in problemi mal condizionati. Penalizzando l'ampiezza o una combinazione lineare della soluzione, la regolarizzazione può fornire un risultato più significativo e realistico, anche se possibilmente con una soluzione distorta. SVD troncato è un altro approccio che può essere utilizzato per selezionare solo i valori singolari significativi, risultando in un modello più robusto. La chiave è identificare e penalizzare la quantità specifica che necessita di regolarizzazione, piuttosto che applicare ciecamente un approccio da manuale.

  • 01:20:00 In questa sezione, Ivan Masyukov risponde alle domande del pubblico sulle tecniche utilizzate per adattare le funzioni, in particolare le tecniche spline. Spiega che una spline o un'interpolazione viene utilizzata quando c'è un numero limitato di input e si desidera tracciare una via di mezzo. Discute anche dell'interpretazione del grafico di interpolazione e di come i trader lo usano per calibrare e arbitrare eventuali discrepanze che vedono. Inoltre, spiega come le swaption vengono utilizzate nella modellazione della volatilità e come i trader effettuano operazioni a partire da eventuali discrepanze che vedono.

  • 01:25:00 In questa sezione, il relatore discute i modelli di prezzo e rischio regolarizzati utilizzati dai trader di mercato per trovare anomalie nel mercato e trarne vantaggio attraverso le negoziazioni. Questi modelli possono incorporare input come ipotesi di regolarità sui tassi forward o combinazioni di analisi delle componenti principali (PCA). Sebbene le obbligazioni siano lo strumento più liquido sul mercato, non vengono scambiate continuamente, rendendo gli swap più adatti a costruire una curva. Una volta costruita la curva swap, i trader obbligazionari la utilizzano per la copertura perché le obbligazioni sono più liquide degli swap. Tuttavia, i trader che negoziano solo obbligazioni spesso si affidano a modelli PCA o ad altri metodi a causa della mancanza di una curva stabile.
10. Regularized Pricing and Risk Models
10. Regularized Pricing and Risk Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Ivan MasyukovThis...
 

11. Analisi delle serie storiche II


11. Analisi delle serie storiche II

Questo video approfondisce vari aspetti dell'analisi delle serie temporali, basandosi sulla discussione della lezione precedente sulla modellazione della volatilità. Il professore inizia introducendo i modelli GARCH, che offrono un approccio flessibile per misurare la volatilità nelle serie temporali finanziarie. Viene esplorato l'utilizzo della stima di massima verosimiglianza in combinazione con i modelli GARCH, insieme all'uso delle distribuzioni t come alternativa per modellare i dati delle serie temporali. Viene anche discussa l'approssimazione delle distribuzioni t con distribuzioni normali. Passando alle serie temporali multivariate, la lezione tratta i teoremi di cross-covarianza e decomposizione di Wold. Il relatore spiega come i processi autoregressivi vettoriali semplifichino i modelli di serie temporali di ordine superiore in modelli di primo ordine. Inoltre, viene discusso il calcolo della media per processi VAR stazionari e la loro rappresentazione come un sistema di equazioni di regressione.

La conferenza approfondisce quindi il modello di regressione multivariata per l'analisi delle serie temporali, sottolineando la sua specificazione attraverso modelli di regressione univariata separati per ciascuna serie di componenti. Viene introdotto il concetto di operatore di vettorizzazione, dimostrando la sua utilità nel trasformare il modello di regressione multivariata in una forma di regressione lineare. Viene spiegato anche il processo di stima, compresa la stima di massima verosimiglianza ei criteri di selezione del modello. La conferenza si conclude mostrando l'applicazione dei modelli di autoregressione vettoriale nell'analisi dei dati delle serie temporali relative a crescita, inflazione, disoccupazione e impatto delle politiche sui tassi di interesse. Le funzioni di risposta all'impulso vengono impiegate per comprendere gli effetti delle innovazioni in un componente delle serie temporali su altre variabili.

Inoltre, viene affrontata la continuazione della modellazione della volatilità dalla lezione precedente. Vengono definiti i modelli ARCH, che consentono la volatilità variabile nel tempo nelle serie temporali finanziarie. Il modello GARCH, un'estensione del modello ARCH con parametri aggiuntivi, è evidenziato per i suoi vantaggi rispetto al modello ARCH, offrendo una maggiore flessibilità nella modellizzazione della volatilità. Il docente sottolinea che i modelli GARCH assumono distribuzioni gaussiane per le innovazioni nella serie dei rendimenti.

Inoltre, viene esplorata l'implementazione di modelli GARCH utilizzando la stima di massima verosimiglianza. Il modello ARMA per i residui al quadrato può essere espresso come un ritardo polinomiale di innovazioni per misurare la varianza condizionale. La radice quadrata della varianza di lungo periodo è determinata assicurandosi che le radici dell'operatore si trovino al di fuori della circonferenza unitaria. La stima della massima verosimiglianza comporta la definizione della funzione di verosimiglianza basata sui dati e sui parametri sconosciuti, con la funzione di densità congiunta rappresentata come il prodotto di successive aspettative condizionali delle serie temporali. Queste densità condizionali seguono distribuzioni normali.

Vengono discusse le sfide associate alla stima dei modelli GARCH, dovute principalmente ai vincoli sui parametri sottostanti. Per ottimizzare una funzione convessa e trovarne il minimo è necessario trasformare i parametri in un intervallo senza limitazioni. Dopo aver adattato il modello, i residui vengono valutati utilizzando vari test per valutare la normalità e analizzare le irregolarità. Un pacchetto R chiamato rugarch viene utilizzato per adattare il modello GARCH per il tasso di cambio euro-dollaro, impiegando un normale termine GARCH dopo aver adattato il processo medio per i rendimenti del tasso di cambio. L'ordine del processo autoregressivo viene determinato utilizzando il criterio informativo di Akaike e viene prodotto un normale grafico quantile-quantile dei residui autoregressivi per valutare il modello.

Il docente evidenzia inoltre l'uso delle distribuzioni t, che offrono una distribuzione dalla coda più pesante rispetto alle distribuzioni gaussiane, per modellare i dati delle serie temporali. I modelli GARCH con distribuzioni t possono stimare efficacemente la volatilità e calcolare i limiti del valore a rischio. La distribuzione t funge da buona approssimazione a una distribuzione normale e il docente incoraggia a esplorare diverse distribuzioni per migliorare la modellazione delle serie temporali. Inoltre, viene discussa l'approssimazione delle distribuzioni t con distribuzioni normali. La distribuzione t può essere considerata un'approssimazione ragionevole di una distribuzione normale quando ha 25-40 gradi di libertà. Il docente presenta un grafico che confronta le funzioni di densità di probabilità di una distribuzione normale standard e di una distribuzione t standard con 30 gradi di libertà, dimostrando che le due distribuzioni sono simili ma differiscono nelle code.

Nella lezione, il professore continua a spiegare l'analisi dei dati delle serie temporali utilizzando i modelli di autoregressione vettoriale (VAR). Il focus è sulla comprensione della relazione tra le variabili e l'impatto delle innovazioni sulle variabili di interesse. Per analizzare le relazioni tra le variabili in un modello VAR, vengono utilizzate la funzione di autocorrelazione multivariata (ACF) e la funzione di autocorrelazione parziale (PACF). Queste funzioni catturano i ritardi incrociati tra le variabili e forniscono informazioni sulle interazioni dinamiche tra di esse. Esaminando l'ACF e il PACF, si possono identificare i ritardi significativi ei loro effetti sulle variabili. Inoltre, le funzioni di risposta all'impulso (IRF) vengono impiegate per comprendere gli effetti delle innovazioni sulle variabili nel tempo. Un'innovazione si riferisce a uno shock oa un cambiamento inaspettato in una delle variabili. Gli IRF illustrano come le variabili rispondono a un'innovazione in un componente delle serie temporali multivariate. Questa analisi aiuta a comprendere la propagazione e l'entità degli shock in tutto il sistema.

Ad esempio, se si verifica un'innovazione nel tasso di disoccupazione, gli IRF possono mostrare come questo shock influisca su altre variabili come il tasso sui fondi federali e l'indice dei prezzi al consumo (CPI). È possibile osservare l'entità e la durata della risposta, fornendo informazioni sulle interdipendenze e gli effetti di ricaduta all'interno del sistema. Oltre agli IRF, è possibile utilizzare altre misure statistiche come la decomposizione della varianza dell'errore di previsione (FEVD). FEVD scompone la varianza dell'errore di previsione di ciascuna variabile nei contributi dei propri shock e degli shock di altre variabili. Questa analisi consente di quantificare l'importanza relativa dei diversi shock nel determinare la variabilità di ciascuna variabile. Utilizzando modelli VAR e analizzando ACF, PACF, IRF e FEVD, i ricercatori possono ottenere una comprensione completa delle relazioni e delle dinamiche all'interno di una serie temporale multivariata. Queste intuizioni sono preziose per la previsione, l'analisi politica e la comprensione delle complesse interazioni tra le variabili economiche.

In sintesi, la conferenza pone l'accento sull'applicazione dei modelli VAR per l'analisi dei dati delle serie temporali. Evidenzia l'uso di ACF e PACF per catturare ritardi incrociati, IRF per esaminare l'impatto delle innovazioni e FEVD per quantificare i contributi di diversi shock. Queste tecniche consentono una comprensione più profonda delle relazioni e delle dinamiche all'interno di serie temporali multivariate, facilitando previsioni accurate e decisioni politiche.

  • 00:00:00 In questa sezione, il professore discute la continuazione della modellazione della volatilità nella lezione precedente affrontando la definizione di modelli ARCH che ammettono la volatilità variabile nel tempo nelle serie storiche finanziarie. Il modello GARCH, un'estensione del modello ARCH tramite parametri aggiuntivi, presenta molti più vantaggi rispetto al modello ARCH e ha meno parametri. Aggiungendo il parametro aggiuntivo che mette in relazione la volatilità attuale con il valore passato o ritardato, il modello GARCH può essere flessibile nella modellazione della volatilità. Il limite inferiore della volatilità è presente nel modello ARCH, facendo sì che questo modello abbia un limite inferiore rigido, mentre i modelli GARCH hanno un vantaggio molto più flessibile nella previsione dei livelli di volatilità. Va notato che in questi attacchi stiamo assumendo distribuzioni gaussiane per le innovazioni nella serie di ritorno.

  • 00:05:00 In questa sezione, l'argomento è i modelli GARCH e la loro implementazione utilizzando la stima di massima verosimiglianza. Con i modelli GARCH, possiamo misurare la volatilità ed esprimere il modello ARMA per i residui al quadrato come ritardo polinomiale delle innovazioni. Per la varianza condizionata, possiamo determinare la radice quadrata della varianza di lungo periodo richiedendo che le radici dell'operatore abbiano radici al di fuori della circonferenza unitaria. La stima di massima verosimiglianza richiede di determinare la funzione di verosimiglianza dei dati dati i parametri sconosciuti, e la funzione di densità congiunta può essere espressa come il prodotto di aspettative condizionali successive delle serie storiche. Queste densità condizionali sono normali variabili casuali.

  • 00:10:00 In questa sezione, il relatore discute la sfida della stima dei modelli GARCH a causa dei vincoli sui parametri sottostanti, che devono essere applicati. Per ottimizzare una funzione convessa e trovare il minimo di una funzione convessa, i metodi di ottimizzazione funzionano bene ed è necessario trasformare i parametri in una scala in cui sono illimitati. Dopo aver adattato il modello, i residui devono essere valutati con vari test per la normalità e analizzando l'entità delle irregolarità. Con il pacchetto R chiamato rugarch, il modello GARCH per il tasso di cambio euro-dollaro con un normale termine GARCH viene scelto e adattato dopo aver adattato il processo medio per i rendimenti del tasso di cambio. Per valutare il modello, il processo autoregressivo viene adattato utilizzando il criterio informativo di Akaike per scegliere l'ordine del processo autoregressivo e produrre un normale grafico qq di residui autoregressivi.

  • 00:15:00 In questa sezione, il relatore discute l'uso di una distribuzione dalla coda più pesante, in particolare la distribuzione t, per modellare i dati delle serie temporali. Rispetto a una distribuzione gaussiana, la distribuzione t si adatta meglio ai valori alti e bassi dei residui. Il presentatore mostra come i modelli GARCH con distribuzioni t possono stimare la volatilità in modo simile ai modelli GARCH con distribuzioni gaussiane e possono essere utilizzati per calcolare il valore ai limiti di rischio. Nel complesso, la distribuzione t può essere una buona approssimazione di una distribuzione normale e il relatore incoraggia a esplorare diverse distribuzioni per modellare meglio i dati delle serie temporali.

  • 00:20:00 In questa sezione, il professore discute l'approssimazione della distribuzione t con una distribuzione normale. Tipicamente, una distribuzione t può essere considerata una buona approssimazione di una distribuzione normale con 25-40 gradi di libertà. Il professore mostra un grafico che confronta le funzioni di densità di probabilità per una distribuzione normale standard e una distribuzione t standard con 30 gradi di libertà. Il grafico mostra che le due distribuzioni sono molto vicine ma differiscono nelle code della distribuzione. La distribuzione t ha distribuzioni di coda più pesanti rispetto a una distribuzione normale. Il professore discute anche del clustering della volatilità e della capacità del modello GARCH di gestirlo. Inoltre, il professore osserva che i rendimenti hanno code più pesanti rispetto alle distribuzioni gaussiane, e il compito a casa spiega come il modello GARCH può gestirlo.

  • 00:25:00 In questa sezione viene discusso il modello GARCH e la sua utilità per la modellazione di serie temporali finanziarie. Il modello GARCH è appropriato per modellare serie temporali stazionarie di covarianza, dove la misura della volatilità è una misura dell'extrarendimento al quadrato ed è essenzialmente un processo stazionario di covarianza con una media a lungo termine. I modelli GARCH sono ottimi nel descrivere la volatilità rispetto alla media a lungo termine e, in termini di utilità per la previsione, prevedono che la volatilità tornerà alla media a un certo ritmo. La velocità con cui la volatilità ritorna indietro è data dal parametro di persistenza, che può essere misurato da alpha_1 più beta_1. Più grande è alpha_1 più beta_1, più persistente è la volatilità. Esistono molte estensioni dei modelli GARCH e nel prossimo argomento, serie storiche multivariate, verrà discusso il teorema di rappresentazione di Wold multivariato.

  • 00:30:00 In questa sezione, apprendiamo le serie temporali multivariate, che comporta l'estensione delle serie temporali univariate per modellare più variabili che cambiano nel tempo. Estendiamo la definizione di stazionarietà della covarianza a momenti di primo e secondo ordine finiti e limitati, in cui una variabile casuale di valore M-dimensionale viene trattata come M diverse serie temporali. Per la matrice di varianza-covarianza dell'osservazione t-esima del processo multivariato, definiamo gamma_0, che è il valore atteso di X_t meno mu per X_t meno mu primo. La matrice di correlazione, r_0, viene quindi ottenuta pre e post-moltiplicando la matrice di covarianza gamma_0 per una matrice diagonale con le radici quadrate della diagonale di questa matrice.

  • 00:35:00 In questa sezione è stato introdotto il concetto di matrici di covarianza incrociata, che esamina come i valori correnti di una serie temporale multivariata covariano con il ritardo k-esimo di quei valori. Gamma_k, i valori del vettore del periodo corrente, è covariato con il ritardo k-esimo di quei valori. Sono state spiegate le proprietà di queste matrici, con la diagonale di gamma_0 che è la matrice di covarianza delle voci diagonali delle varianze. È stata anche menzionata l'esistenza del teorema di decomposizione di Wold, un teorema avanzato, che estende il teorema di decomposizione di Wold univariato. Questo teorema è utile per identificare giudizi di causalità tra variabili nelle serie storiche economiche.

  • 00:40:00 In questa sezione viene introdotto il concetto di rappresentazione della decomposizione di Wold per un processo stazionario di covarianza. Il processo è rappresentato come la somma di un processo deterministico e un processo a media mobile di un rumore bianco. In un caso multivariato, il processo deterministico potrebbe essere una tendenza lineare o esponenziale e il processo del rumore bianco è un vettore m-dimensionale con media 0 e una matrice di varianza/covarianza semidefinita positiva. L'innovazione è il disturbo del processo modellato che non può essere previsto dalle informazioni precedenti. La somma dei termini nella matrice di covarianza deve convergere affinché il processo sia stazionario di covarianza.

  • 00:45:00 In questa sezione, la decomposizione di Wold viene discussa come un modo per rappresentare i bit di informazione che influenzano il processo e che prima non erano disponibili. La sezione passa quindi a discutere i processi autoregressivi vettoriali, che modellano il modo in cui un dato componente della serie multivariata dipende da altre variabili o componenti della serie multivariata. Viene quindi spiegato il concetto di riesprimere un processo di ordine p-esimo come un processo di primo ordine con autoregressioni vettoriali, che è una potente tecnica utilizzata nei metodi di serie temporali per semplificare l'analisi di modelli complicati.

  • 00:50:00 In questa sezione, il relatore discute la rappresentazione di un processo stocastico multivariato utilizzando i vettori Z_t e Z_(t-1) e come può essere trasformato in un modello di serie temporali del primo ordine con una serie multivariata più grande. Il processo è stazionario se tutti gli autovalori della matrice compagna A hanno un modulo inferiore a 1, il che garantisce che il processo non abbia un comportamento esplosivo quando incrementa nel tempo. Questo requisito è lo stesso di tutte le radici dell'equazione polinomiale al di fuori del cerchio unitario. L'ordine del polinomio non è menzionato in questo estratto.

  • 00:55:00 In questa sezione, l'obiettivo è calcolare la media del processo VAR stazionario prendendo le aspettative su entrambi i lati dell'equazione. La media incondizionata del processo si ottiene risolvendo per mu dalla seconda alla terza riga. Il modello di autoregressione vettoriale è espresso come un sistema di equazioni di regressione, costituito da m modelli di regressione corrispondenti a ciascun componente della serie multivariata. Il modello di regressione m-esima modella la colonna j-esima della matrice come Z beta j e epsilon j, dove Z è un vettore di valori ritardati del processo multivariato. Il calcolo presuppone che siano disponibili p osservazioni pre-campione.

  • 01:00:00 In questa sezione, il relatore spiega il modello di regressione multivariata per l'analisi delle serie temporali. Il modello consiste in un modello di regressione lineare sui ritardi dell'intera serie multivariata fino a p ritardi con il loro parametro di regressione dato da βj, che corrisponde ai vari elementi delle matrici phi. Il relatore definisce il modello di regressione multivariata e spiega come specificarlo considerando separatamente il modello di regressione univariata per ciascuna serie di componenti. Ciò è correlato a regressioni apparentemente non correlate in econometria.

  • 01:05:00 In questa sezione della lezione il docente discute i metodi di stima dei parametri di una regressione lineare e come stimare le varianze e le covarianze dei termini di innovazione. Il processo prevede l'applicazione di semplici metodi di stima per il parametro di una regressione lineare e quindi la stima delle varianze/covarianze del termine di innovazione. Un risultato significativo è che queste regressioni per componenti sono la stima ottimale anche per la regressione multivariata. Gli operatori del prodotto Kronecker sono usati in questa teoria, che si applica agli operatori vec che prendono una matrice e impilano insieme le colonne.

  • 01:10:00 In questa sezione viene introdotto il concetto di operatore di vettorizzazione e viene spiegato il suo utilizzo nella manipolazione dei termini in una forma più conveniente. Il modello di regressione multivariata è impostato utilizzando una struttura a matrice ed è espresso in termini di forma di regressione lineare. Vettorizzando la matrice beta, epsilon e y, è possibile definire la funzione di verosimiglianza nella stima di massima verosimiglianza con questi modelli. I parametri incogniti beta star, sigma, che sono pari alla densità congiunta di questo modello di regressione lineare normale, corrispondono a quanto precedentemente utilizzato nell'analisi di regressione con una definizione più complicata della matrice delle variabili indipendenti X star e della matrice di varianza/covarianza sigma stella.

  • 01:15:00 In questa sezione viene discusso il concetto di verosimiglianza concentrata e viene rivelato che la stima del parametro di regressione beta è indipendente dalla matrice di covarianza sigma. Ciò consente la concentrazione della funzione di verosimiglianza, che deve essere massimizzata durante la stima della matrice di covarianza. La massimizzazione avviene attraverso il logaritmo di un determinante di una matrice meno n fratto 2 la traccia di quella matrice moltiplicata per una sua stima. Inoltre, è possibile applicare criteri di selezione del modello come Akaike Information Criterion, Bayes Information Criterion e Hannan-Quinn Criterion. Infine, viene mostrato un esempio di adattamento di autoregressioni vettoriali con variabili macroeconomiche, a dimostrazione dell'importanza di comprendere quali fattori influenzano l'economia in termini di crescita, inflazione, disoccupazione e impatto delle politiche dei tassi di interesse.

  • 01:20:00 In questa sezione, il relatore discute l'uso di modelli di autoregressione vettoriale per analizzare i dati delle serie temporali. Le variabili specifiche oggetto di studio sono il tasso di disoccupazione, i fondi federali e il CPI (una misura dell'inflazione). Le versioni multivariate della funzione di autocorrelazione e della funzione di autocorrelazione parziale vengono utilizzate per acquisire i ritardi incrociati tra le variabili in questi modelli. Le funzioni di risposta all'impulso vengono quindi utilizzate per comprendere l'impatto di un'innovazione in una delle componenti della serie temporale multivariata sulle altre variabili. Questo è importante per comprendere la connessione tra la rappresentazione della media mobile e questi modelli di serie temporali.
11. Time Series Analysis II
11. Time Series Analysis II
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

12. Analisi delle serie storiche III



12. Analisi delle serie temporali III

In questo video di YouTube sull'analisi delle serie temporali, il professore copre una gamma di modelli e le loro applicazioni a diversi scenari. Il video approfondisce argomenti come i modelli di autoregressione vettoriale (VAR), la cointegrazione e i modelli lineari dello spazio di stato. Questi modelli sono fondamentali per prevedere variabili come disoccupazione, inflazione e crescita economica esaminando l'autocorrelazione e i coefficienti di autocorrelazione parziale.

Il video inizia introducendo la modellazione lineare dello spazio degli stati e il filtro di Kalman, utilizzati per stimare e prevedere i modelli di serie temporali. La modellazione lineare dello spazio degli stati comporta l'impostazione di osservazioni ed equazioni di stato per facilitare il processo di stima del modello. Il filtro di Kalman, uno strumento potente, calcola la funzione di verosimiglianza e fornisce i termini essenziali per la stima e la previsione.

Il docente spiega poi come derivare le rappresentazioni dello spazio degli stati per i processi di media mobile autoregressiva (ARMA). Questo approccio consente una rappresentazione flessibile delle relazioni tra le variabili in una serie temporale. Il video evidenzia il significato del lavoro di Harvey nel 1993, che ha definito una particolare rappresentazione dello spazio degli stati per i processi ARMA.

Proseguendo, il video esplora l'applicazione dei modelli VAR alle variabili macroeconomiche per prevedere crescita, inflazione e disoccupazione. Analizzando i coefficienti di autocorrelazione e di autocorrelazione parziale, i ricercatori possono determinare le relazioni tra le variabili e identificare modelli e correlazioni. Il video fornisce un esempio di modello di regressione, illustrando come il tasso sui Fed funds può essere modellato in funzione del tasso di disoccupazione ritardato, del tasso dei Fed funds e del CPI. Questo esempio rivela che un aumento del tasso di disoccupazione tende a portare a una diminuzione del tasso sui Fed funds il mese successivo.

Viene quindi introdotto il concetto di cointegrazione, affrontando le serie temporali non stazionarie e le loro combinazioni lineari. La cointegrazione comporta la ricerca di un vettore beta che produce un processo stazionario quando combinato con le variabili di interesse. Il video discute esempi come la struttura a termine dei tassi di interesse, la parità del potere d'acquisto e le relazioni spot e futures. Un'illustrazione che utilizza futures sull'energia, in particolare contratti su petrolio greggio, benzina e olio combustibile, dimostra il concetto di cointegrazione.

Il video esplora ulteriormente la stima dei modelli VAR e l'analisi dei processi di autoregressione vettoriale cointegrati. Si fa riferimento al lavoro di Sims, Stock e Watson, che mostra come lo stimatore dei minimi quadrati può essere applicato a questi modelli. Vengono anche menzionate la stima della massima verosimiglianza e i test di rango per le relazioni di cointegrazione. Viene presentato un caso di studio sui dati di diffusione del crack, incluso il test per la non stazionarietà utilizzando un test Dickey-Fuller aumentato. Successivamente, il video si concentra sui dati dei future sul petrolio greggio e sulla determinazione della non stazionarietà e degli ordini di integrazione. La procedura di Johansen viene utilizzata per testare il rango del processo cointegrato. Gli autovettori corrispondenti alla relazione stazionaria forniscono informazioni sulle relazioni tra futures del petrolio greggio, benzina (RBOB) e olio da riscaldamento.

La conferenza introduce quindi i modelli lineari dello spazio degli stati come un modo per esprimere vari modelli di serie temporali utilizzati in economia e finanza. Vengono spiegate l'equazione di stato e l'equazione di osservazione, dimostrando la flessibilità di questo framework di modellazione. Il video illustra la rappresentazione di un modello di capital asset pricing con beta variabili nel tempo come un modello lineare stato-spazio. Incorporando la dipendenza dal tempo nei parametri di regressione, il modello cattura i cambiamenti dinamici. Inoltre, il docente discute il concetto di modifica dei parametri di regressione nel tempo, assumendo che seguano passeggiate aleatorie indipendenti. Vengono spiegate l'equazione dello spazio degli stati congiunto e la sua implementazione per l'aggiornamento ricorsivo delle regressioni man mano che vengono aggiunti nuovi dati. I modelli autoregressivi di ordine P ei modelli a media mobile di ordine Q sono espressi come modelli lineari nello spazio degli stati.

La conferenza approfondisce quindi l'equazione di stato e l'equazione di osservazione, sottolineando il loro ruolo nella transizione tra gli stati sottostanti. Viene esplorata la derivazione della rappresentazione dello spazio degli stati per i processi ARMA, evidenziando la flessibilità nella definizione degli stati e la matrice di trasformazione sottostante.
La conferenza fornisce una panoramica dell'applicazione dei modelli lineari stato-spazio all'analisi delle serie temporali. Il relatore spiega che questi modelli possono essere utilizzati per stimare e prevedere le variabili di interesse incorporando sia i dati osservati che gli stati sottostanti. Utilizzando il filtro di Kalman, che è un algoritmo ricorsivo, i modelli possono calcolare la distribuzione condizionale degli stati dati i dati osservati, nonché prevedere stati e osservazioni futuri.

La lezione sottolinea l'importanza di comprendere le componenti chiave dei modelli lineari dello spazio degli stati. L'equazione di stato rappresenta le dinamiche di transizione degli stati sottostanti nel tempo, mentre l'equazione di osservazione mette in relazione i dati osservati con gli stati sottostanti. Queste equazioni, insieme alla distribuzione dello stato iniziale, definiscono la struttura del modello.
Il docente procede a discutere il processo di stima per i modelli lineari dello spazio degli stati. La stima della massima verosimiglianza è comunemente usata per stimare i parametri sconosciuti del modello sulla base dei dati osservati. Il filtro di Kalman svolge un ruolo cruciale in questo processo calcolando la funzione di verosimiglianza, che misura la bontà dell'adattamento tra il modello e i dati.

Inoltre, la conferenza evidenzia che i modelli lineari dello spazio degli stati forniscono un quadro flessibile per modellare vari fenomeni economici e finanziari. Possono essere utilizzati per esprimere modelli autoregressivi, modelli a media mobile e modelli ancora più complessi come il modello di capital asset pricing con beta variabili nel tempo. Questa versatilità rende i modelli lineari stato-spazio uno strumento prezioso per ricercatori e professionisti in economia e finanza. Per illustrare ulteriormente le applicazioni pratiche dei modelli lineari dello spazio degli stati, la conferenza introduce un caso di studio sui contratti future sul petrolio greggio. Analizzando la relazione tra i prezzi di diversi contratti future, come petrolio greggio, benzina e olio da riscaldamento, il relatore dimostra come i modelli lineari dello spazio di stato possono essere utilizzati per identificare modelli, prevedere i prezzi e valutare il rischio nel mercato dell'energia.

In sintesi, il video fornisce una panoramica completa dei modelli lineari dello spazio degli stati e delle loro applicazioni nell'analisi delle serie temporali. Sfruttando il filtro di Kalman, questi modelli consentono ai ricercatori di stimare e prevedere le variabili di interesse, comprendere le dinamiche degli stati sottostanti e catturare le complesse relazioni tra le variabili. La conferenza sottolinea la flessibilità e l'utilità dei modelli lineari stato-spazio in vari contesti economici e finanziari, rendendoli uno strumento prezioso per l'analisi empirica e il processo decisionale.

  • 00:00:00 In questa sezione, il professore introduce le variabili macroeconomiche che possono essere utilizzate per prevedere la crescita, l'inflazione e la disoccupazione nell'economia e si concentra su un riepilogo del modello di adattamento dell'autoregressione vettoriale. Le radici del polinomio caratteristico nel modello si sono rivelate non stazionarie, indicando che dovrebbe essere utilizzata una serie diversa per modellarlo. Per eliminare questa non stazionarietà, il professore suggerisce di modellare le prime differenze, che possono essere fatte prendendo le differenze di tutte le serie ed eliminando i valori mancanti. Il grafico mostra le proprietà delle serie temporali delle serie delle differenze, comprese le funzioni di autocorrelazione diagonale e le correlazioni incrociate, che risultano essere statisticamente significative. Viene anche discussa la funzione di autocorrelazione parziale, che implica correlazioni tra variabili e il ritardo di un'altra dopo aver spiegato per tutti i ritardi di grado inferiore.

  • 00:05:00 In questa sezione, il video discute l'uso di modelli autoregressivi vettoriali, che consentono ai ricercatori di modellare le relazioni strutturali tra più variabili macroeconomiche. L'esempio si concentra su tre variabili: il tasso di disoccupazione, il tasso sui Fed funds e il CPI. Esaminando i coefficienti di autocorrelazione e di autocorrelazione parziale, i ricercatori possono determinare le relazioni tra queste variabili e identificare modelli e correlazioni. Il video fornisce anche un modello di regressione per il tasso sui Fed funds in funzione del tasso di disoccupazione ritardato, del tasso dei Fed funds e del CPI. Questo modello indica che se il tasso di disoccupazione sale, è probabile che il tasso della Fed scenda il mese successivo. Il video sottolinea l'importanza di comprendere il rapporto segnale-rumore quando si stimano i parametri autoregressivi e si interpretano i coefficienti.

  • 00:10:00 In questa sezione del video, il relatore introduce il concetto di cointegrazione, che è un argomento importante nell'analisi delle serie temporali che si occupa di serie temporali non stazionarie. La discussione inizia con il contesto in cui la cointegrazione è rilevante e si concentra sui processi stocastici che sono integrati di un certo ordine d, il che significa che la differenza d-esima è stazionaria. Pur prendendo le prime differenze come risultato della stazionarietà, il processo perde alcune informazioni e la cointegrazione fornisce un quadro per caratterizzare sistematicamente tutte le informazioni disponibili per la modellazione statistica. Un processo non stazionario può ancora avere una rappresentazione vettoriale autoregressiva, che può essere espressa come un ritardo polinomiale di x uguale a rumore bianco epsilon, e ridurlo alla stazionarietà richiede di prendere la differenza d-esimo ordine.

  • 00:15:00 In questa sezione del video, viene introdotto il concetto di cointegrazione come un modo per affrontare situazioni in cui le combinazioni lineari di serie temporali multivariate possono essere stazionarie, nel senso che rappresentano le caratteristiche stazionarie del processo. La cointegrazione comporta la ricerca di un vettore beta tale che i pesi lineari su x e beta prime X_t siano un processo stazionario. Il vettore di cointegrazione può essere ridimensionato arbitrariamente, ma è pratica comune impostare la prima serie di componenti del processo uguale a 1. Questa relazione si presenta in molti modi in economia e finanza, inclusa la struttura a termine dei tassi di interesse, la parità del potere d'acquisto, la domanda di moneta , parità dei tassi di interesse coperti, legge del prezzo unico, spot e futures. Viene fornito un esempio di futures sull'energia per illustrare il concetto.

  • 00:20:00 In questa sezione, il professore discute una serie storica di contratti future su petrolio greggio, benzina e olio combustibile scambiati al CME. Spiega come i prezzi dei futures per la benzina e il gasolio da riscaldamento dovrebbero dipendere dal costo dell'input, che è il petrolio greggio. Il professore mostra un grafico dei prezzi dei futures, che rappresentano le stesse unità di output rispetto all'input. Osserva che mentre i futures per la benzina e il gasolio da riscaldamento sono costantemente al di sopra dei futures sull'ingresso del petrolio greggio, variano a seconda di quale sia maggiore. La differenza tra il prezzo del future sull'olio combustibile e il future sul petrolio greggio rappresenta lo spread di valore dell'output meno l'input, che include il costo della raffinazione, domanda e offerta, effetti stagionali e profitto della raffineria.

  • 00:25:00 In questa sezione, la lezione discute il modello vettoriale autoregressivo di ordine p che estende il modello univariato. La conferenza spiega che l'autoregressività di una serie dipende da tutte le altre serie, che forma il rumore bianco multidimensionale con media 0 e una struttura di covarianza. Viene anche discusso il processo che viene integrato di ordine uno, insieme al processo di derivazione che si riferisce alle differenze con alcuni termini aggiuntivi. Alla fine, la lezione fornisce l'equazione per la differenza della serie, che è uguale a una costante più una matrice multipla della prima serie multivariata della differenza, più un'altra matrice moltiplicata per la seconda differenza, fino alla p-esima differenza.

  • 00:30:00 In questa sezione, il video illustra il processo di eliminazione della non stazionarietà nelle serie temporali utilizzando serie ritardate e differenziate. Il modello esprime il modello di processo stocastico per la serie differenza, che è stazionaria. Mentre i termini che sono multipli di ritardi di matrice sono stazionari, il termine pi X_t contiene i termini di cointegrazione che implicano l'identificazione della matrice pi. Poiché la serie originaria aveva radici unitarie, la matrice pi è di rango ridotto e definisce le relazioni di cointegrazione. Le colonne di beta definiscono vettori linearmente indipendenti che cointegrano x. La scomposizione di pi non è univoca, e definendo il sistema di coordinate nello spazio r-dimensionale in cui il processo è stazionario, la matrice pi può essere espressa come alfa beta primo.

  • 00:35:00 In questa sezione, il relatore discute la stima dei modelli di autoregressione vettoriale e il lavoro di Sims, Stock e Watson che mostra come lo stimatore dei minimi quadrati del modello originale può essere utilizzato per un'analisi dei processi di autoregressione vettoriale cointegrati . Il relatore cita anche la letteratura avanzata sui metodi di stima per questi modelli, inclusa la stima di massima verosimiglianza, che fornisce test per il rango della relazione di cointegrazione. Viene anche discusso un caso di studio sui dati di crack spread, che prevede il test per la non stazionarietà nelle serie sottostanti utilizzando un test Dickey-Fuller aumentato che produce un valore p di 0,164 per CLC1, il primo contratto più vicino.

  • 00:40:00 In questa sezione, il relatore discute la non stazionarietà e l'ordine di integrazione dei dati sui future del petrolio greggio, suggerendo che è necessario adattare la non stazionarietà quando si specificano i modelli. I risultati dell'esecuzione di una procedura di Johansen per testare il rango del processo cointegrato suggeriscono che non esiste una forte non stazionarietà e l'autovettore corrispondente alla relazione stazionaria è dato dai coefficienti di 1 sui futures del petrolio greggio, 1.3 su RBOB e -1,7 sul gasolio da riscaldamento. La combinazione di greggio più benzina meno gasolio sembra essere stazionaria nel tempo, il che potrebbe essere utile per le raffinerie che vogliono coprire i propri rischi di produzione.

  • 00:45:00 In questa sezione, il relatore introduce l'argomento dei modelli lineari stato-spazio, che possono essere utilizzati per esprimere molti modelli di serie temporali utilizzati in economia e finanza. Il modello coinvolge un vettore di osservazione all'istante t, un vettore di stato sottostante, un vettore di errore di osservazione all'istante t e un vettore di errore di innovazione della transizione di stato. L'oratore spiega l'equazione di stato e l'equazione di osservazione nel modello, che sono trasformazioni lineari degli stati e delle osservazioni più il rumore, e come possono essere scritte insieme in un'equazione congiunta. La notazione può sembrare complicata, ma offre molta flessibilità nello specificare le relazioni tra le variabili.

  • 00:50:00 In questa sezione, il relatore discute la rappresentazione di un modello di determinazione del prezzo delle attività di capitale con beta variabili nel tempo come un modello lineare dello spazio di stato. Il modello estende il precedente aggiungendo la dipendenza dal tempo ai parametri di regressione. L'alfa e il beta ora variano nel tempo, con l'alfa che è una passeggiata casuale gaussiana e anche la beta è una passeggiata casuale gaussiana. L'equazione di stato viene regolata aggiungendo termini di passeggiata casuale, rendendo s_(t+1) uguale a T_t s_t più R_t eta_t, con una rappresentazione complessa nel framework lineare dello spazio degli stati. L'equazione di osservazione è definita da una matrice Z_t, che è una matrice riga di elementi unitari di r_(m,t). La matrice di covarianza ha una struttura diagonale a blocchi, con la covarianza degli epsilon come H, e la covarianza di R_t eta_t come R_t Q_t R_t transpose. Infine, il relatore considera un secondo caso di modelli di regressione lineare in cui p variabili indipendenti potrebbero variare nel tempo.

  • 00:55:00 In questa sezione viene introdotto il concetto di modifica dei parametri di regressione nel tempo in una serie temporale, supponendo che seguano passeggiate aleatorie indipendenti. Viene spiegata l'equazione dello spazio degli stati congiunto e l'implementazione lineare dello spazio degli stati per l'aggiornamento ricorsivo delle regressioni man mano che vengono aggiunti nuovi dati. Vengono anche discussi i modelli autoregressivi di ordine P, delineando la struttura di come si evolve il modello lineare dello spazio degli stati. Infine, il modello a media mobile di ordine Q è espresso come un modello lineare nello spazio degli stati.

  • 01:00:00 In questa sezione, il docente discute l'equazione di stato e l'equazione di osservazione, che vengono utilizzate per fornire una transizione tra gli stati sottostanti. Usano un esempio di un modello a media mobile autoregressiva per dimostrare come l'impostazione per i modelli lineari nello spazio degli stati faciliti il processo di stima del modello. La conferenza prosegue spiegando come il lavoro di Harvey nel '93 abbia definito una particolare rappresentazione dello spazio degli stati per il processo ARMA e come ci siano molti diversi modelli lineari dello spazio degli stati equivalenti per un dato processo a seconda di come si definiscono gli stati e la trasformazione sottostante matrice T. Infine, la lezione passa a derivare la rappresentazione dello spazio degli stati per il processo ARMA.

  • 01:05:00 In questa sezione, il relatore spiega come elaborare un modello semplice per la matrice di transizione T nei modelli lineari dello spazio degli stati risolvendo iterativamente per il secondo stato utilizzando il valore di osservazione e riscrivendo l'equazione del modello. Questo processo sostituisce gli stati sottostanti con le osservazioni e porta a una matrice di transizione T che ha componenti autoregressive come prima colonna e un vettore di componenti a media mobile nella matrice R. L'efficacia della modellazione lineare dello spazio degli stati risiede nella specifica completa con il filtro di Kalman, che calcola ricorsivamente le funzioni di densità di probabilità per gli stati sottostanti a t+1 data l'informazione fino al tempo t, così come la densità congiunta dello stato futuro e l'osservazione a t+1, data l'informazione fino al tempo t, e la distribuzione marginale dell'osservazione successiva data l'informazione fino al tempo t. L'implementazione del filtro di Kalman richiede la notazione che coinvolge medie condizionali, covarianze ed errori quadratici medi determinati da omega.

  • 01:10:00 In questa sezione, la trascrizione discute il filtro di Kalman, che ha quattro passaggi che aiutano a prevedere il vettore di stato e l'osservazione in una serie temporale. La matrice di guadagno del filtro viene utilizzata per regolare la previsione dello stato sottostante a seconda di ciò che è accaduto e caratterizza la quantità di informazioni che otteniamo da ciascuna osservazione. L'incertezza nello stato al tempo t viene ridotta minimizzando la differenza tra ciò che abbiamo osservato e ciò che abbiamo previsto. Esiste anche una fase di previsione, che prevede lo stato un periodo in avanti e aggiorna la matrice di covarianza per gli stati futuri dato lo stato precedente. Infine, la fase di livellamento caratterizza l'aspettativa condizionale degli stati sottostanti date informazioni nell'intera serie temporale.

  • 01:15:00 In questa sezione, il relatore introduce il filtro di Kalman come strumento per il calcolo della funzione di verosimiglianza per modelli lineari nello spazio degli stati e per la previsione successiva di un processo. Spiegano che la funzione di verosimiglianza è il prodotto delle distribuzioni condizionate di ogni osservazione successiva data la storia dei dati. Il filtro di Kalman fornisce tutti i termini necessari per questa stima e, se i termini di errore sono distribuiti normalmente, le medie e le varianze di queste stime caratterizzano le distribuzioni esatte del processo. Inoltre, il filtro di Kalman aggiorna le medie e le matrici di covarianza per gli stati sottostanti e le distribuzioni delle osservazioni.
12. Time Series Analysis III
12. Time Series Analysis III
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

13. Modelli merceologici



13. Modelli merceologici

In questo video, l'oratore approfondisce l'intricato mondo dei modelli di materie prime, evidenziando le sfide affrontate dagli analisti quantitativi in questo dominio. Forniscono esempi perspicaci, come il profitto record di Trafigura nel 2009, ottenuto attraverso l'acquisto e lo stoccaggio strategici di petrolio greggio. Il relatore discute varie strategie per fare offerte sullo storage, problemi di ottimizzazione e il significato di stabilità e robustezza nei modelli di materie prime. Inoltre, esplorano le complessità della modellazione dei prezzi delle materie prime, concentrandosi sulle considerazioni uniche richieste per i prezzi dell'energia. Il relatore suggerisce una metodologia alternativa su misura per il panorama delle materie prime, distinguendola dagli approcci utilizzati nei mercati a reddito fisso, valutario e azionario.

Il video inizia facendo luce sui problemi specifici affrontati dagli analisti quantitativi nel regno delle materie prime. Viene presentato un esempio illustrativo, con Trafigura, una società che ha beneficiato immensamente del drammatico calo dei prezzi del petrolio nel 2009. Il relatore spiega come funzionano i contratti futures nei mercati delle materie prime, sottolineando i concetti di contango e backwardation. Contango si riferisce a uno scenario in cui il prezzo spot futuro supera il prezzo spot corrente, consentendo ai trader di generare profitti anche durante i periodi di calo dei prezzi.

Successivamente, l'oratore approfondisce la strategia di profitto di Trafigura tra febbraio 2009 e 2010, quando i prezzi del greggio sono saliti da $ 35 a $ 60 al barile. Prendendo in prestito a $ 35, acquistando e immagazzinando petrolio greggio e successivamente vendendolo al prezzo più alto di $ 60, Trafigura ha ottenuto un notevole profitto di $ 25 al barile. Questa strategia è stata impiegata su vasta scala, coinvolgendo milioni di barili di stoccaggio, con conseguenti guadagni significativi. Il relatore sottolinea la necessità di un'attenta strategia nelle aste di stoccaggio per recuperare i costi e generare profitti aggiuntivi in modo efficace.

Il video procede discutendo due strategie distinte per fare offerte sullo stoccaggio nei modelli di materie prime. La prima strategia prevede che i trader facciano offerte sui contratti futures per agosto e li vendano a dicembre senza la necessità di prendere in prestito. La seconda strategia, impiegata da quants, prevede la vendita dell'opzione spread tra i contratti di agosto e dicembre. Il valore di questa opzione è determinato dalla differenza di prezzo tra i due contratti, con differenze positive che producono profitti per il proprietario dell'opzione e differenze negative che non producono alcun profitto. Sebbene la seconda strategia sia più complessa, offre un valore aggiunto all'azienda.

I vantaggi della vendita di una produzione il 1° agosto utilizzando un modello di materie prime sono discussi nella sezione successiva. Vendendo l'opzione in quella data specifica, il venditore riceve un valore dell'opzione determinato dalla formula, in genere superiore al valore di mercato corrente. Ciò offre al venditore una posizione vantaggiosa durante l'offerta, consentendogli di guadagnare un margine di profitto a sua scelta. L'oratore chiarisce anche il calcolo del rischio di opzione e come le risorse reali o fisiche possono essere sfruttate per mitigare tale rischio.

Il video approfondisce quindi la complessità delle opzioni di spread all'interno dei modelli di materie prime, sottolineando la necessità di determinare i portafogli di opzioni più preziosi tenendo conto dei vincoli tecnici, contrattuali, legali e ambientali. Il relatore sottolinea l'importanza di vendere portafogli di opzioni in modo da garantire l'estrazione di valore alla scadenza dell'opzione, considerando le limitazioni sui tassi di immissione e prelievo.

Un problema di ottimizzazione che coinvolge i modelli di merci e lo stoccaggio è discusso in un'altra sezione. Il problema riguarda l'estrazione di valore da un'opzione su merce quando la capacità di stoccaggio è esaurita, nonché la vendita dallo stoccaggio quando diventa vuoto. Il relatore spiega le variabili ei vincoli coinvolti nel problema e dimostra come l'ottimizzazione del portafoglio attraverso una serie di opzioni possa portare alla massimizzazione del profitto. La complessità del problema richiede l'uso di variabili booleane e l'attenzione alla massimizzazione dei profitti.

Il video approfondisce ulteriormente le sfide dei modelli di materie prime, in particolare quelle relative ai tassi di immissione e prelievo, vincoli di capacità e variabili sconosciute come volumi e prezzi. Questi fattori contribuiscono alla natura non lineare del problema, rendendolo estremamente difficile da risolvere quando si ha a che fare con numerose variabili e vincoli. Diversi approcci, tra cui l'approssimazione, le simulazioni Monte Carlo e il controllo stocastico, possono essere impiegati per affrontare la complessità dei modelli di materie prime. Tuttavia, l'accuratezza dei risultati dipende fortemente dalla precisione dei parametri utilizzati. Anche la metodologia più meticolosa può portare a risultati errati se i parametri non sono corretti.

Il relatore procede quindi a discutere la metodologia scelta per la modellazione delle materie prime, che dà la priorità alla robustezza e alla stabilità rispetto all'acquisizione della ricchezza completa dei comportamenti dei prezzi. Mettono in guardia contro l'eccessiva parametrizzazione di un modello, poiché può introdurre instabilità, causando modifiche anche minime che incidono in modo significativo sul suo valore. Utilizzando un approccio diverso, danno la priorità alla stabilità e alla robustezza, consentendo alle autorità di regolamentazione esterne di verificare il modello. Inoltre, ogni componente del modello può essere scambiato sul mercato, il che riveste un'importanza sostanziale nell'attuale panorama di mercato. Viene inoltre spiegato il concetto di copertura dinamica, mostrando come può essere utilizzato per replicare il valore di un'opzione e soddisfare i pagamenti senza un mercato delle opzioni attivo, utilizzando una semplice funzione del giocatore.

L'oratore approfondisce il concetto di replicare il pagamento di un'opzione attraverso la copertura dinamica. Questa strategia consente ai trader di vendere portafogli anche quando non ci sono acquirenti. Sottolineano l'importanza di sviluppare una strategia per estrarre valore e collaborare con gli operatori degli impianti di stoccaggio per eseguire con successo il piano. Il relatore spiega come questo approccio può essere esteso per modellare asset fisici, come petroliere e centrali elettriche, per massimizzare i profitti prendendo decisioni informate basate sui prezzi dell'elettricità e del carburante. Mentre la natura di ogni risorsa può variare, l'approccio concettuale rimane lo stesso, richiedendo una comprensione completa delle complessità e dei vincoli unici associati a ciascuna risorsa.

In una sezione successiva, il video esplora il processo di calcolo del costo di produzione di un megawattora di energia in base all'efficienza della centrale elettrica. L'efficienza, quantificata come la velocità di riscaldamento misurata in mm BTU, indica la quantità di gas naturale necessaria per generare un megawattora di energia. La costante corrispondente a una centrale elettrica a gas naturale è tipicamente compresa tra 7 e 20, con valori inferiori che indicano una maggiore efficienza. Vengono inoltre considerati i costi aggiuntivi relativi alla produzione di un megawattora, come l'aria condizionata e la manodopera. Il video approfondisce ulteriormente la determinazione del valore di una centrale elettrica e la costruzione di distribuzioni di prezzi e costi del carburante per accertare un pagamento adeguato per l'acquisizione di una centrale elettrica.

Le sfide della modellazione dei prezzi delle materie prime, in particolare i prezzi dell'energia, sono discusse nella sezione successiva. La distribuzione dei prezzi dell'energia non può essere accuratamente modellata utilizzando il moto browniano a causa della presenza di code spesse e picchi nei dati. Inoltre, la volatilità dei prezzi dell'energia elettrica è significativamente più elevata rispetto ai mercati azionari. Il docente sottolinea che queste sfide sono comuni in tutte le regioni e sottolinea la necessità di catturare l'inversione media nei picchi per rappresentare accuratamente il comportamento del prezzo dell'energia. Anche altri fenomeni come l'alta curtosi, il cambio di regime e la non stazionarietà devono essere incorporati nei modelli.

Il video esplora le sfide associate alla modellazione dei prezzi delle materie prime, evidenziando vari approcci tra cui l'inversione della media, i salti e il cambio di regime. Tuttavia, questi modelli tendono ad essere complessi e difficili da gestire. Invece, il relatore propone una metodologia unica specificamente adattata al dominio delle materie prime, distinta dalle metodologie impiegate nei mercati a reddito fisso, valutario e azionario. Questo approccio è meglio in linea con le caratteristiche e le complessità dei mercati delle materie prime.

Il relatore sottolinea che i prezzi delle materie prime sono guidati principalmente dalle dinamiche della domanda e dell'offerta. Tuttavia, le metodologie tradizionali basate esclusivamente sui prezzi si sono dimostrate inadeguate nel cogliere le complessità del comportamento dei prezzi delle materie prime. Per affrontare questo problema, il relatore suggerisce di incorporare la modellazione fondamentale garantendo al contempo che il modello sia allineato con i dati di mercato disponibili. Spiegano come vengono modellati i prezzi dell'energia attraverso la vendita all'asta di offerte da centrali elettriche con diverse efficienze e come il prezzo finale viene determinato in base alla domanda. Il grafico a dispersione risultante che rappresenta la relazione tra domanda e prezzo dimostra una distribuzione diversa a causa dell'influenza di fattori casuali relativi al prezzo del carburante.

Inoltre, il relatore spiega che il prezzo dell'energia elettrica è determinato sia dalla domanda che dai prezzi del carburante, in quanto il costo di generazione dipende dai prezzi del carburante. Inoltre, il verificarsi di interruzioni deve essere modellato, poiché il mercato è limitato e il prezzo dell'energia può essere influenzato se alcune centrali elettriche subiscono tempi di inattività. Per incorporare questi fattori, il relatore suggerisce di costruire uno stack di generazione, che rappresenta il costo di generazione per ciascun partecipante al mercato. Considerando i prezzi del carburante e le interruzioni, lo stack di generazione può essere regolato per abbinare accuratamente i prezzi di mercato e i prezzi delle opzioni.

Il video prosegue discutendo su come modellare diversi prodotti per comprendere l'evoluzione dei prezzi dell'energia. Il relatore spiega il processo di modellazione del comportamento dei prezzi del carburante, delle interruzioni e della domanda. Successivamente, viene costruito uno stack di generazione, che rappresenta una curva determinata da fattori quali domanda, interruzioni, costi variabili e prezzi del carburante. I parametri sono accuratamente selezionati per corrispondere alla curva forward per i prezzi dell'energia e altri parametri di mercato rilevanti. Questo approccio consente di rilevare i picchi di prezzo nei mercati dell'energia con relativa facilità. Il relatore osserva che il gas naturale, l'olio combustibile e l'olio combustibile sono merci immagazzinabili, rendendo il loro comportamento più regolare e più facile da modellare.

Andando avanti, il relatore sottolinea come i modelli di materie prime possono essere sfruttati per prevedere il prezzo dell'elettricità sul mercato, tenendo conto di fattori come la temperatura, l'offerta e la domanda. Attraverso l'utilizzo delle simulazioni Monte Carlo e una comprensione completa della distribuzione dei prezzi del carburante, è possibile ottenere simulazioni accurate dei picchi di prezzo causati dalle fluttuazioni di temperatura. Il modello cattura anche accuratamente la struttura di correlazione del mercato senza richiederla come input. Tuttavia, si sottolinea che il mantenimento di un tale modello richiede una quantità significativa di informazioni e organizzazione, poiché ogni centrale elettrica e cambiamento del mercato devono essere monitorati.

Nella sezione finale del video, il relatore riconosce le sfide associate alla costruzione di modelli di merci per diversi mercati. Il processo è un'impresa enorme che richiede anni di sviluppo, il che lo rende uno sforzo costoso. Nonostante la complessità, il relatore ritiene che gli argomenti trattati siano un buon spunto per concludere la discussione e invita gli spettatori a porre eventuali domande rimanenti.

Nel complesso, il video fornisce preziose informazioni sulle sfide affrontate dagli analisti quantitativi durante la creazione di modelli di materie prime. Sottolinea l'importanza di dare priorità alla stabilità e alla robustezza negli approcci di modellazione, le complessità della modellazione dei prezzi delle materie prime e il ruolo di fattori fondamentali come l'offerta, la domanda e i prezzi del carburante nel plasmare i prezzi dell'energia. Il relatore sottolinea inoltre l'importanza della collaborazione con le parti interessate del settore e il continuo sforzo necessario per mantenere e aggiornare i modelli di prodotti per i diversi mercati.

  • 00:00:00 In questa sezione, il relatore discute i problemi che gli analisti quantitativi risolvono nel mondo delle materie prime, rispetto a quelli di altri mercati. Ha fornito un esempio di Trafigura, che ha realizzato un profitto record nel 2009, l'anno in cui i prezzi del petrolio sono scesi a un livello minimo storico. Parla anche dei contratti futures e di come funzionano nei mercati delle materie prime, discutendo in particolare i concetti di contango e backwardation. Contango significa che il prezzo spot futuro è più costoso del prezzo spot attuale, il che consente ai trader di realizzare un profitto anche nei periodi in cui i prezzi sono bassi.

  • 00:05:00 In questa sezione, il relatore spiega come Trafigura ha fatto soldi nel periodo tra febbraio 2009 e 2010, quando i prezzi del greggio sono aumentati da $ 35 a $ 60. La società ha preso in prestito $ 35, ha acquistato un barile di petrolio greggio e lo ha immagazzinato fino a quando non è stato possibile venderlo a un prezzo molto più alto a $ 60. Ciò ha permesso loro di realizzare un profitto di $ 25 al barile, che ha moltiplicato oltre 50-60 milioni di barili di scaffali di stoccaggio fino a una somma enorme. L'oratore sottolinea che per fare un'offerta per lo stoccaggio in un'asta, è necessario elaborare attentamente una strategia su come recuperare il denaro pagato per lo stoccaggio e ottenere un profitto aggiuntivo.

  • 00:10:00 In questa sezione, il video discute due strategie per fare offerte sullo stoccaggio nei modelli di materie prime. La prima è una strategia standard in cui un trader fa offerte su contratti futures per agosto e vende a dicembre, senza dover prendere in prestito denaro. La seconda strategia è quella utilizzata dai quant, dove vendono l'opzione spread agosto-dicembre, determinata dalla differenza tra i prezzi dei contratti di dicembre e agosto, con differenze positive che pagano il proprietario dell'opzione e negative che pagano zero. Quest'ultima strategia è più complicata ma offre un valore aggiunto all'azienda.

  • 00:15:00 In questa sezione, il relatore discute i vantaggi della vendita di una produzione il 1° agosto utilizzando un modello di merce. Spiega che vendendo l'opzione alla data specificata, il venditore ottiene un valore dell'opzione determinato dalla formula, che in genere è superiore al valore di mercato corrente. Ciò offre al venditore un vantaggio durante le offerte e può guadagnare un margine di profitto a sua scelta. Il relatore spiega anche come calcolare il rischio dell'opzione e come utilizzare asset reali o fisici per mitigare il rischio.

  • 00:20:00 In questa sezione, il relatore discute il concetto di un'opzione di diffusione e fa più luce sulla loro complessità nella realtà. Spiega che l'ottimizzazione del valore di un portafoglio di opzioni che possono essere vendute rispetto allo stoccaggio richiede la determinazione dei portafogli di opzioni più preziosi tenendo conto dei vincoli tecnici, contrattuali, legali e ambientali. Il relatore osserva inoltre che i portafogli di opzioni dovrebbero essere venduti in modo da garantire che il valore possa essere estratto ogni volta che l'opzione scade, e ci sono vincoli sul tasso di iniezione e prelievo.

  • 00:25:00 In questa sezione, il relatore discute un problema di ottimizzazione che coinvolge modelli di merci e stoccaggio. Il problema consiste nel trovare un modo per estrarre valore da un'opzione su merce quando non c'è più spazio in magazzino e, al contrario, trovare un modo per vendere dal magazzino quando è vuoto. Il relatore spiega le variabili ei vincoli del problema e mostra come sia possibile ottimizzare il portafoglio attraverso una serie di opzioni. Nel complesso, il problema dell'ottimizzazione è complesso ma può essere risolto con l'aiuto di variabili booleane e concentrandosi sulla massimizzazione dei profitti.

  • 00:30:00 In questa sezione, il relatore discute la natura complessa dei modelli di materie prime che coinvolgono tassi di immissione e prelievo, vincoli di capacità massima e minima e variabili sconosciute come volumi e prezzi. Il problema diventa non lineare e molto difficile da risolvere con un gran numero di variabili e vincoli. Diversi approcci, tra cui l'approssimazione, le simulazioni Monte Carlo e il controllo stocastico, possono essere utilizzati per risolvere i modelli delle materie prime, ma l'accuratezza dei risultati dipende dall'accuratezza dei parametri utilizzati. Anche la metodologia più precisa può essere errata se i parametri non sono corretti.

  • 00:35:00 In questa sezione, il relatore discute la metodologia scelta per la modellazione delle materie prime, progettata per dare priorità alla robustezza e alla stabilità piuttosto che catturare la ricchezza dei comportamenti dei prezzi. Spiegano che la parametrizzazione eccessiva di un modello può portare a instabilità e piccoli cambiamenti che possono modificare sostanzialmente il valore. Per dare priorità alla stabilità e alla robustezza, sacrificano parte del valore utilizzando un approccio diverso. Inoltre, il modello che utilizzano può essere verificato da regolatori esterni e ogni componente del modello può essere scambiato sul mercato, il che è cruciale al giorno d'oggi. Inoltre, spiegano il concetto di copertura dinamica e come può essere utilizzato per replicare il valore di un'opzione e soddisfare i pagamenti senza un mercato delle opzioni attivo utilizzando una semplice funzione del giocatore.

  • 00:40:00 In questa sezione, il relatore discute il concetto di replicare il pagamento di un'opzione utilizzando una strategia di copertura dinamica, consentendo ai trader di vendere portafogli anche se non ci sono acquirenti. Sottolinea l'importanza di produrre una strategia per estrarre valore, oltre a lavorare con coloro che gestiscono gli impianti di stoccaggio per eseguire con successo il piano. Il relatore spiega quindi come questo approccio può essere utilizzato per modellare asset fisici, come petroliere e centrali elettriche, per massimizzare i profitti prendendo decisioni informate basate sul prezzo dell'elettricità e del carburante. Mentre la natura di ogni risorsa è diversa, l'approccio concettuale rimane lo stesso, richiedendo una comprensione delle sfumature e dei vincoli di ciascuna risorsa.

  • 00:45:00 In questa sezione, il video illustra il processo di calcolo del costo di produzione di un megawattora di energia in base all'efficienza della centrale elettrica. L'efficienza, nota come velocità di riscaldamento, è misurata in mm BTU e ci dice quante unità di gas naturale devono essere bruciate per produrre un megawattora di energia. La costante corrispondente a una centrale elettrica a gas naturale è tipicamente compresa tra 7 e 20, dove 7 è la più efficiente. Vengono considerati anche altri costi associati alla produzione di un megawattora, come l'aria condizionata e la manodopera. Il video passa quindi a discutere il processo di determinazione del valore di una centrale elettrica e la costruzione di una distribuzione dei prezzi e dei costi del carburante al fine di calcolare quanto pagare per una centrale elettrica.

  • 00:50:00 In questa sezione, il docente discute le sfide dei modelli delle materie prime, in particolare nel caso dei prezzi dell'energia. La distribuzione dei prezzi dell'energia non può essere modellata utilizzando il moto browniano a causa della presenza di code spesse e picchi nei dati. La volatilità è anche molto più elevata rispetto ai mercati azionari. Il docente osserva che queste sfide sono comuni in tutte le regioni e che è necessaria un'inversione dei picchi per catturare l'andamento dei prezzi dell'energia. Altri fenomeni che devono essere catturati includono l'alta curtosi, il cambio di regime e la non stazionarietà.

  • 00:55:00 In questa sezione, il relatore discute le sfide della modellizzazione dei prezzi delle materie prime e di come sono stati utilizzati diversi modelli, tra cui l'inversione della media, i salti e il cambio di regime. Tuttavia, questi modelli sono troppo complessi e difficili da gestire. Il relatore suggerisce una metodologia completamente diversa dal mondo del reddito fisso, dei cambi e delle azioni, più adatta e comprensibile dal punto di vista delle materie prime.

  • 01:00:00 In questa sezione, il relatore discute di come i prezzi delle materie prime siano guidati principalmente dalla domanda e dall'offerta. Tuttavia, le metodologie standard per modellare i prezzi delle materie prime basate esclusivamente sui prezzi stessi si sono rivelate difficili. Il relatore suggerisce di introdurre alcuni modelli fondamentali per affrontare questo problema, assicurandosi anche che il suo modello corrisponda a tutti i dati di mercato disponibili. Il relatore prosegue spiegando come si formano i prezzi dell'energia attraverso la messa all'asta delle offerte di centrali elettriche con diversi livelli di efficienza e come il prezzo finale viene determinato in base alla domanda. Il grafico a dispersione risultante della domanda rispetto al prezzo mostra un grafico grosso a causa del fattore casuale dei prezzi del carburante.

  • 01:05:00 In questa sezione, il relatore spiega che il prezzo dell'energia è determinato sia dalla domanda che dai prezzi del carburante, poiché il costo di generazione dipende dai prezzi del carburante. Anche le interruzioni devono essere modellate perché il mercato è limitato e il prezzo dell'energia può essere influenzato se alcune centrali elettriche si guastano. Per modellare questi fattori, il relatore suggerisce di costruire uno stack di generazione, che è il costo di generazione per ciascun partecipante al mercato. Conoscendo i prezzi del carburante e le interruzioni, è possibile generare il beat stack, che seguirà lo stack di generazione e si adeguerà per corrispondere ai prezzi di mercato e ai prezzi delle opzioni.

  • 01:10:00 In questa sezione, il relatore spiega come diversi prodotti possono essere modellati e utilizzati per determinare l'evoluzione dei prezzi dell'energia. Iniziano modellando l'evoluzione dei prezzi del carburante, delle interruzioni e della domanda, quindi costruiscono lo stack di generazione, che è una curva determinata dalla domanda, dalle interruzioni, dai costi variabili e dal carburante. Scelgono i parametri per abbinare la curva forward per i prezzi dell'energia e altri parametri di mercato. Questo approccio consente di catturare i picchi dei prezzi dell'energia elettrica senza troppi sforzi e il gas naturale, l'olio combustibile e l'olio combustibile sono merci immagazzinabili, rendendo il loro comportamento più regolare e più facile da modellare.

  • 01:15:00 In questa sezione del video, il relatore spiega come utilizzare i modelli delle materie prime per prevedere il prezzo dell'elettricità sul mercato in base alla temperatura e ai fattori di domanda e offerta. Utilizzando le simulazioni Monte Carlo e comprendendo la distribuzione dei prezzi del carburante, sono in grado di catturare e simulare con precisione i picchi dei prezzi causati dai cambiamenti di temperatura. Inoltre, il modello cattura accuratamente la struttura di correlazione del mercato senza averne bisogno come input. Tuttavia, il lato negativo di questo approccio è che richiede molte informazioni e organizzazione da mantenere a causa della necessità di tenere traccia di ogni centrale elettrica e di eventuali cambiamenti che possono verificarsi nel mercato.

  • 01:20:00 In questa sezione, il relatore parla delle sfide della costruzione di modelli di merci per diversi mercati. Richiede un impegno enorme e impiega anni per svilupparsi, rendendolo un processo costoso. L'oratore ritiene che questo sia un buon punto per fermarsi, ma invita le domande degli spettatori.
13. Commodity Models
13. Commodity Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Alexander Eydelan...
 

14. Teoria del portafoglio



14. Teoria del portafoglio

La teoria del portafoglio è un concetto fondamentale in finanza che si concentra sulla performance e sulla costruzione ottimale dei portafogli di investimento. Implica l'analisi dei rendimenti attesi, delle volatilità e delle correlazioni di più asset per determinare l'allocazione di portafoglio più efficiente. La frontiera efficiente rappresenta una gamma di portafogli fattibili con diversi livelli di volatilità. Introducendo un'attività priva di rischio, l'insieme fattibile si espande per includere una combinazione dell'attività priva di rischio e di altre attività, formando una linea retta.

La stima accurata dei parametri è fondamentale per valutare i portafogli e risolvere il problema della programmazione quadratica per l'ottimizzazione del portafoglio. Le formule vengono utilizzate per calcolare le ponderazioni ottimali in base a vari vincoli, come portafogli long-only, vincoli di holding e vincoli di esposizione benchmark. Le funzioni di utilità sono impiegate per definire le preferenze per la ricchezza e massimizzare l'utilità attesa considerando l'avversione al rischio.

Il video approfondisce l'applicazione della teoria del portafoglio utilizzando fondi negoziati in borsa (ETF) e strategie neutrali rispetto al mercato. Diversi vincoli possono essere implementati per controllare i rischi e le variazioni in un portafoglio, compresi i limiti di esposizione a fattori di mercato e le dimensioni minime delle transazioni. Il relatore esplora l'allocazione ottimale di nove ETF investiti in vari settori industriali nel mercato statunitense, considerando gli strumenti di analisi del portafoglio e l'impatto dei vincoli di capitale sui portafogli ottimali. Vengono inoltre discusse le strategie market neutral impiegate dagli hedge fund, evidenziandone il potenziale di diversificazione e la ridotta correlazione.

La selezione di adeguate misure di rischio è cruciale nella valutazione dei portafogli. L'analisi media-varianza è comunemente utilizzata, ma misure di rischio alternative come la deviazione media assoluta, la semivarianza, il valore a rischio e il valore a rischio condizionale possono fornire ulteriori approfondimenti. L'uso di modelli fattoriali aiuta a stimare la matrice varianza-covarianza, migliorando l'accuratezza dell'ottimizzazione del portafoglio.

In tutto il video, il relatore sottolinea l'importanza di una stima accurata dei parametri, l'impatto dei vincoli sulla costruzione del portafoglio e l'importanza delle misure di rischio nella valutazione del portafoglio. La teoria del portafoglio fornisce un quadro per prendere decisioni di investimento razionali in condizioni di incertezza, considerando le preferenze per rendimenti più elevati, minore volatilità e avversione al rischio. Applicando questi concetti, gli investitori possono costruire portafogli ben bilanciati su misura per la loro tolleranza al rischio e obiettivi di investimento.

Nelle sezioni successive del video, il relatore esplora ulteriormente le complessità della teoria del portafoglio e le sue implicazioni pratiche. Ecco una sintesi dei punti chiave trattati:

  1. Teoria storica dell'ottimizzazione del portafoglio: il relatore inizia discutendo le basi storiche dell'ottimizzazione del portafoglio, concentrandosi sull'ottimizzazione media-varianza di Markowitz. Questo approccio analizza i portafogli in base al rendimento medio e alla volatilità. Fornisce un quadro per comprendere il trade-off tra rischio e rendimento e funge da base per la moderna teoria del portafoglio.

  2. Teoria dell'utilità e processo decisionale in condizioni di incertezza: la teoria dell'utilità, in particolare la teoria dell'utilità di von Neumann-Morgenstern, viene introdotta per guidare il processo decisionale razionale in condizioni di incertezza. Le funzioni di utilità vengono utilizzate per rappresentare le preferenze di un investitore per la ricchezza, considerando fattori come rendimenti più elevati e minore volatilità. Il relatore spiega varie funzioni di utilità comunemente impiegate nella teoria del portafoglio, comprese le funzioni lineari, quadratiche, esponenziali, di potenza e logaritmiche.

  3. Vincoli e misure di rischio alternative: il video esplora l'inclusione di vincoli nell'ottimizzazione del portafoglio. Questi vincoli possono essere implementati per garantire criteri di investimento specifici, come portafogli long-only, vincoli di rotazione e limiti di esposizione a determinati fattori di mercato. Inoltre, il relatore discute misure di rischio alternative oltre alla tradizionale analisi media-varianza, come misure che tengono conto dell'asimmetria, della curtosi e misure di rischio coerenti.

  4. Risolvere il problema dell'ottimizzazione del portafoglio: il relatore fornisce approfondimenti matematici per risolvere il problema dell'ottimizzazione del portafoglio. Formulandolo come un problema di programmazione quadratica, è possibile determinare i pesi ottimali per il portafoglio. Le condizioni Lagrangiana e del primo ordine sono utilizzate per risolvere questi pesi, con la derivata del secondo ordine che rappresenta la matrice di covarianza. La soluzione consente di massimizzare i rendimenti riducendo al minimo la volatilità, soggetta a vincoli specificati.

  5. Frontiera efficiente e Capital Market Line: viene introdotto il concetto di frontiera efficiente, che rappresenta un insieme di portafogli ottimali che ottengono il massimo rendimento per un dato livello di rischio. Il relatore spiega come prende forma la frontiera efficiente in base ai profili di rischio-rendimento dei vari portafogli. Inoltre, viene discussa la linea del mercato dei capitali, illustrando la relazione tra rischio e rendimento quando si combina l'asset privo di rischio con il portafoglio di mercato. Consente agli investitori di determinare il rendimento atteso per qualsiasi livello di rischio desiderato.

  6. Stima dei parametri e misure di rischio: viene evidenziata l'importanza di una stima accurata dei parametri, in quanto influenza in modo significativo l'analisi del portafoglio. Il relatore sottolinea l'uso di modelli fattoriali per stimare la matrice varianza-covarianza, fornendo input più precisi per l'ottimizzazione. Inoltre, vengono spiegate diverse misure di rischio come la deviazione media assoluta, la semivarianza, il valore a rischio e il valore a rischio condizionale, con la loro idoneità a seconda delle caratteristiche specifiche delle attività investite.

In tutto il video, il relatore sottolinea l'applicazione pratica della teoria del portafoglio utilizzando fondi negoziati in borsa (ETF) e strategie neutrali rispetto al mercato. L'uso di vincoli per gestire i rischi e le variazioni in un portafoglio, l'impatto dei vincoli di capitale sui portafogli ottimali e i vantaggi delle strategie market-neutral per la diversificazione sono discussi in dettaglio.

Nel complesso, il video fornisce una panoramica completa della teoria del portafoglio, coprendo vari aspetti, dai fondamenti storici all'implementazione pratica. Sottolinea l'importanza di una stima accurata, l'incorporazione di vincoli, la scelta delle misure di rischio e i potenziali benefici delle diverse strategie di investimento. Comprendendo questi concetti, gli investitori possono prendere decisioni informate per costruire portafogli in linea con le loro preferenze di rischio e obiettivi di investimento.

  • 00:00:00 In questa sezione del video, Peter Kempthorne tratta l'argomento della teoria del portafoglio, che è uno degli argomenti più importanti della finanza. Inizia discutendo la teoria storica dell'ottimizzazione del portafoglio, che coinvolge l'ottimizzazione media-varianza di Markowitz per analizzare le caratteristiche di performance dei portafogli in termini di rendimento medio e rendimenti di volatilità. L'analisi viene quindi estesa per includere l'investimento con un asset privo di rischio e viene introdotto l'argomento della teoria dell'utilità, la teoria dell'utilità di von Neumann-Morgenstern, per prendere decisioni in condizioni di incertezza in modo razionale. Inoltre, Kempthorne copre i vincoli di ottimizzazione del portafoglio e le misure di rischio alternative per estendere la semplice analisi media-varianza. Infine, spiega l'analisi a periodo singolo, come rappresentare un portafoglio e come calcolare il rendimento atteso e la varianza di un portafoglio.

  • 00:05:00 In questa sezione, il relatore introduce il problema dell'analisi del portafoglio e considera un'impostazione semplificata con due risorse. L'obiettivo è trovare portafogli ottimali che investono in questi due asset, considerando il loro rendimento atteso e la loro volatilità, e la possibile correlazione tra loro. L'analisi media-varianza viene utilizzata per analizzare l'insieme di portafogli fattibili e determinare i portafogli ottimali e sub-ottimali. Il relatore sottolinea poi l'importanza della teoria di Markowitz e delle sue estensioni nel fornire risposte eleganti a queste domande. Infine, viene condotta una simulazione per esaminare i rendimenti cumulativi di ciascun asset in diversi portafogli.

  • 00:10:00 In questa sezione viene discusso un asset simulato con un rendimento medio del 15% e una volatilità del 25%. Il grafico a dispersione dei rendimenti settimanali non mostra alcuna correlazione apparente, sebbene esista una correlazione campionaria. L'insieme fattibile di portafogli è mostrato nel grafico a destra e l'allocazione verso l'asset 2 migliora il rendimento del portafoglio senza compromettere la volatilità. Viene anche discusso il portafoglio a varianza minima, con una ponderazione sui diversi asset inversamente proporzionale alla loro volatilità al quadrato. Il grafico blu è leggermente più vicino all'asset 1, indicando un peso leggermente superiore per l'asset 1.

  • 00:15:00 In questa sezione viene esaminato il concetto di portafogli subottimali, con la conclusione che tutti i punti sul grafico a dispersione sono portafogli subottimali e che deve essere effettuato un compromesso tra rendimento e volatilità. Viene discusso il vantaggio della diversificazione quando due attività completamente non correlate vengono raggruppate insieme e viene esaminato l'effetto delle correlazioni negative sugli insiemi possibili e la riduzione della volatilità. Una correlazione di -1 tra due asset può portare a un portafoglio a volatilità zero, cosa rara nei mercati, ma nella teoria dei prezzi, il rendimento di questo portafoglio dovrebbe essere uguale al tasso privo di rischio.

  • 00:20:00 In questa sezione del video, il relatore discute la relazione tra correlazione e diversificazione nella teoria del portafoglio. La simulazione mostra che l'aumento della correlazione tra le attività comporta un minore beneficio dalla diversificazione, il che significa che la varianza del portafoglio non può essere ridotta tanto. Il relatore sottolinea l'importanza di utilizzare stime accurate per i rendimenti medi, le volatilità e le correlazioni durante la valutazione dei portafogli, poiché le stime del campione possono differire dai parametri della popolazione e avere una certa variabilità. Il problema di programmazione quadratica per l'ottimizzazione del portafoglio comporta la minimizzazione della volatilità al quadrato del portafoglio soggetta a vincoli sulla media del portafoglio e sull'investimento completo, che possono essere risolti utilizzando una lagrangiana e condizioni del primo ordine.

  • 00:25:00 In questa sezione, il relatore spiega come risolvere i pesi e la varianza minima. La condizione del primo ordine è una soluzione perché la derivata del secondo ordine della lagrangiana è uguale alla matrice di covarianza, che può risolvere il problema. Sostituendo un dato alfa nelle soluzioni, si può risolvere anche la varianza del portafoglio ottimale. Il problema può essere visto in altri due modi, uno per massimizzare il rendimento soggetto a un vincolo sulla volatilità, e l'altro per massimizzare il rendimento soggetto a multipli negativi sulla varianza. Questi sono problemi equivalenti risolti dalla stessa lagrangiana.

  • 00:30:00 In questa sezione impariamo a conoscere la frontiera efficiente, che è la raccolta di tutte le possibili soluzioni dato un intervallo di rendimenti obiettivo fattibili e valori di volatilità. In un caso di due asset, la frontiera efficiente è una parabola e l'aggiunta di un altro asset crea diverse parabole, che definiscono l'insieme ammissibile. La frontiera efficiente è il lato superiore della curva. L'aggiunta di un'attività priva di rischio espande l'insieme fattibile in una linea retta tra il punto dell'attività priva di rischio e qualsiasi punto sulla frontiera efficiente, consentendo investimenti in una combinazione dell'attività priva di rischio e di altre attività.

  • 00:35:00 In questa sezione, il docente discute la matematica per risolvere un problema in cui l'obiettivo è ridurre al minimo la volatilità garantendo al tempo stesso che il rendimento sia pari a
    un valore specifico. Investendo in un asset privo di rischio, gli investitori possono ottenere un rendimento più elevato con una varianza inferiore ed espandere le proprie opportunità di investimento. Il docente fornisce formule per determinare un portafoglio ottimale, che investe proporzionalmente in attività rischiose ma differisce nell'allocazione del peso, a seconda del rendimento target. Queste formule forniscono anche espressioni in forma chiusa per la varianza del portafoglio, che aumenta all'aumentare del rendimento target a causa del trade-off quando si utilizzano portafogli ottimali. Il portafoglio ottimale completamente investito è chiamato portafoglio di mercato.

  • 00:40:00 In questa sezione, il relatore spiega il concetto di portafoglio ottimale, ovvero il portafoglio che massimizza il rendimento medio di tutti i portafogli. Dicono che ogni portafoglio ottimale investe in una combinazione di asset privo di rischio e portafoglio di mercato, indipendentemente dal rischio che un investitore vuole assumere. Il relatore presenta le espressioni per il rendimento atteso e la varianza del portafoglio di mercato e mostra la formula per i pesi del portafoglio ottimale. Ciò porta alla definizione della linea del mercato dei capitali, che consente agli investitori di determinare il rendimento atteso per un determinato livello di rischio.

  • 00:45:00 In questa sezione viene discussa la linea del mercato dei capitali per l'ottimizzazione del portafoglio. La linea rappresenta il rendimento atteso di qualsiasi portafoglio ottimale, che è uguale al tasso privo di rischio più un multiplo del rendimento per rischio del portafoglio di mercato. Assegnando pesi aggiuntivi al portafoglio di mercato e prendendo in prestito denaro al tasso privo di rischio, è possibile ottenere rendimenti e volatilità più elevati oltre il portafoglio di mercato, portando a una frontiera efficiente estesa. La sezione si conclude con una discussione sulla teoria dell'utilità di von Neumann-Morgenstern, che considera il processo decisionale per l'ottimizzazione del portafoglio basato sul rendimento atteso e sulla volatilità.

  • 00:50:00 In questa sezione viene introdotto il concetto di teoria del portafoglio. La teoria del portafoglio implica prendere decisioni di investimento in condizioni di incertezza sulla base di una specifica funzione di utilità per la ricchezza, con l'obiettivo di massimizzare l'utilità attesa della ricchezza. La teoria è potente nel fornire decisioni razionali in condizioni di incertezza che tengono conto delle preferenze in merito a rendimenti più elevati, minore volatilità e altri fattori definiti dalla funzione di utilità utilizzata. Vengono discusse le proprietà di base delle funzioni di utilità, compresi i concetti di avversione al rischio e avversione al rischio assoluta e relativa. Le funzioni di utilità utilizzate nella teoria del portafoglio includono funzioni lineari, quadratiche, esponenziali, di potenza e logaritmiche.

  • 00:55:00 In questa sezione, il relatore discute la teoria del portafoglio sotto la funzione di utilità quadratica e le ipotesi di rendimenti distribuiti gaussiani. Sotto questi presupposti, l'analisi media-varianza è l'approccio ottimale all'ottimizzazione del portafoglio. Tuttavia, con diverse funzioni di utilità, come quelle che considerano le penalità per l'asimmetria o la curtosi, potrebbero essere necessarie estensioni al modello di base. Il relatore osserva inoltre che i problemi pratici di ottimizzazione del portafoglio implicano vincoli come portafogli long-only, vincoli di holding, vincoli lineari semplici, vincoli di turnover e vincoli di esposizione al benchmark. Questi vincoli sono necessari da considerare quando si adeguano i portafogli da un periodo all'altro.

  • 01:00:00 In questa sezione, il relatore discute diversi tipi di vincoli che possono essere applicati nell'ottimizzazione del portafoglio per controllare i rischi e le variazioni in un portafoglio. Questi includono il controllo del tracking error tra un portafoglio e il suo benchmark, la limitazione dell'esposizione a diversi fattori di mercato e l'applicazione di dimensioni minime di transazioni e partecipazioni e vincoli interi. Questi vincoli possono essere espressi come vincoli lineari e quadratici sui pesi e possono essere implementati insieme al problema di ottimizzazione del portafoglio. L'esempio fornito riguarda i fondi negoziati in borsa del settore statunitense.

  • 01:05:00 In questa sezione, il relatore discute il potenziale dei fondi negoziati in borsa come mezzo per investire nei mercati azionari. Analizzano nove diversi ETF investiti in vari settori industriali nel mercato statunitense. Questi ETF si sono comportati in modo diverso tra il 2009 e la scorsa settimana, il che evidenzia il loro valore per un portafoglio diversificato. Il relatore esamina l'allocazione ottimale di questi ETF in questo periodo attraverso strumenti di analisi del portafoglio. I risultati rivelano che l'ETF giallo che rappresenta i beni di prima necessità ha ricevuto un peso elevato, seguito dal verde che rappresenta l'energia e dall'arancione per la salute, il che implica che questi settori sono promettenti per gli investimenti. Inoltre, viene applicata un'ottimizzazione della varianza media limitando un investimento massimo del 30% per asset. Il grafico illustra che questo vincolo inizia ad essere attivo quando i rendimenti sono superiori al tasso privo di rischio, il che significa assegnare più peso ad altri ETF per aumentare il portafoglio discrezionale dei consumatori.

  • 01:10:00 In questa sezione, il docente discute in che modo i vincoli di capitale influiscono sui portafogli ottimali. Presentano un grafico della frontiera efficiente e dimostrano come cambiano i portafogli quando vengono colpiti i vincoli. Quando si considera un rendimento target del 10% con un vincolo di capitale del 30%, viene mostrato il portafoglio ottimale con una volatilità del 10%. Tuttavia, quando il vincolo di capitale viene ridotto al 15%, la frontiera efficiente diminuisce e i portafogli devono allocare ad altri fondi negoziati in borsa poiché i vincoli colpiscono prima. La conferenza evidenzia che i vincoli di capitale sono realistici in determinate circostanze e come incidono sulle politiche di investimento.

  • 01:15:00 In questa sezione, il relatore discute l'ottimizzazione del portafoglio utilizzando fondi negoziati in borsa (ETF) e strategie neutrali rispetto al mercato. L'esempio degli ETF mostra come le performance passate possano definire i portafogli, ma non è realisticamente affidabile. Il relatore spiega quindi come gli hedge fund possono investire in modelli settoriali utilizzando strategie neutrali rispetto al mercato, che tendono ad essere meno correlate e offrono notevoli vantaggi di diversificazione. Il grafico mostra che le allocazioni ottimali tra questi modelli settoriali neutrali al mercato possono aiutare a raggiungere una volatilità target del 10% e la combinazione di diversi modelli ha un'ottimizzazione del portafoglio vantaggiosa a causa della loro minore correlazione.

  • 01:20:00 In questa sezione, il relatore evidenzia che i risultati dei rendimenti stimati, delle volatilità stimate e delle correlazioni possono essere influenzati dalle scelte del periodo di stima, dell'errore di stima e delle diverse tecniche che possono modulare questi problemi. L'uso di modelli fattoriali per stimare la matrice di varianza-covarianza si traduce in input più precisi per l'ottimizzazione. Il relatore discute anche diverse misure di rischio come la deviazione assoluta media, la semivarianza e le misure del valore a rischio, che ora sono standard nella gestione del portafoglio e nella gestione delle attività rischiose. Esiste anche un'estensione del valore a rischio chiamato valore condizionale a rischio. Le misure di rischio appropriate dipendono dalle attività investite e c'è un'intera discussione su misure di rischio coerenti per l'analisi del rischio.
14. Portfolio Theory
14. Portfolio Theory
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

15. Modellazione fattoriale



15. Modellazione fattoriale

In questa sezione, il video approfondisce gli aspetti pratici della modellazione fattoriale, inclusa la stima dei parametri sottostanti e l'interpretazione dei modelli fattoriali. Il relatore sottolinea l'importanza di adattare i modelli a periodi di dati specifici e riconosce che modellare le dinamiche e le relazioni tra i fattori è cruciale.

Il video spiega che i metodi di stima della massima verosimiglianza possono essere impiegati per stimare i parametri dei modelli fattoriali, inclusi i fattori di caricamento e alfa. Il processo di stima comporta l'utilizzo di formule di regressione con i caricamenti fattoriali stimati ei valori alfa per stimare le realizzazioni fattoriali. L'algoritmo EM (Expectation-Maximization) è evidenziato come una potente metodologia di stima per funzioni di verosimiglianza complesse, in quanto stima in modo iterativo le variabili nascoste assumendo variabili nascoste note.

Viene discussa l'applicazione della modellazione fattoriale nei mercati delle materie prime, sottolineando l'identificazione dei fattori sottostanti che guidano i rendimenti e le covarianze. Questi fattori stimati possono servire come input per altri modelli, consentendo una migliore comprensione del passato e delle variazioni del mercato. Il relatore menziona anche la flessibilità di considerare diverse trasformazioni di fattori stimati utilizzando la matrice di trasformazione H.

I test del rapporto di verosimiglianza vengono introdotti come mezzo per testare la dimensionalità del modello fattoriale. Confrontando la verosimiglianza del modello fattoriale stimato con la verosimiglianza di un modello ridotto, è possibile valutare l'importanza e la rilevanza di fattori aggiuntivi. Questo approccio di test consente di determinare il numero appropriato di fattori da includere nel modello.

La sezione si conclude evidenziando l'importanza di modellare la dinamica dei fattori e le loro relazioni strutturali. I modelli fattoriali forniscono un quadro per comprendere l'interazione tra i fattori e il loro impatto sui rendimenti degli asset e sulle covarianze. Considerando le dinamiche e le relazioni strutturali, gli investitori e gli analisti possono ottenere preziose informazioni sui driver sottostanti dei mercati finanziari.

Nel complesso, questa sezione approfondisce l'argomento della modellazione fattoriale, esplorando la stima dei parametri, l'interpretazione dei modelli fattoriali e l'applicazione della modellazione fattoriale nei mercati delle materie prime. La sezione sottolinea la necessità di adeguate tecniche di modellazione e la comprensione delle dinamiche e delle relazioni tra i fattori per ottenere informazioni significative sui mercati finanziari.

  • 00:00:00 In questa sezione, l'argomento discusso è la modellazione fattoriale, che mira a utilizzare l'analisi multivariata per modellare i mercati finanziari utilizzando i fattori per spiegare i rendimenti e le covarianze. Esistono due tipi di modelli fattoriali in cui i fattori possono essere osservabili o nascosti e vengono utilizzati modelli fattoriali statistici per specificare questi modelli. Il modello fattoriale lineare utilizza i fattori da f1 a fk, che è un modello nello spazio degli stati per il valore del processo stocastico che dipende dai coefficienti da beta_1 a beta_k. L'impostazione sembra un modello di regressione standard ei vettori beta_i sono chiamati i fattori di caricamento con fattori specifici definiti come l'epsilon dell'asset i, periodo t. L'obiettivo è quello di caratterizzare rendimenti e covarianze utilizzando un numero modesto di fattori sottostanti rispetto al gran numero di titoli, semplificando notevolmente il problema.

  • 00:05:00 In questa sezione, il video discute un modello fattoriale per spiegare i rendimenti delle attività sulla base di fattori sottostanti. Il termine residuo è considerato casuale e si presume sia rumore bianco con media 0. Questo modello presuppone che i rendimenti delle attività dipendano dai fattori sottostanti con una media, mu_f, e una matrice di covarianza, omega_f. La matrice psi rappresenta una matrice diagonale con le varianze specifiche delle attività sottostanti. La matrice di covarianza per il vettore complessivo del processo stocastico m-variato può essere ottenuta utilizzando le aspettative e le covarianze condizionali e incondizionate. La covarianza incondizionata di x è uguale all'aspettativa della covarianza del termine residuo più il doppio della covarianza tra il valore atteso di x e il termine residuo. Il numero di parametri per la matrice di covarianza è m volte m più 1 fratto 2.

  • 00:10:00 In questa sezione viene introdotto il concetto di modello fattoriale come mezzo per ridurre il numero di parametri coinvolti in una regressione multivariata, con particolare attenzione all'interpretazione del modello fattoriale come una serie di regressioni di serie temporali. L'obiettivo è raggruppare tutto insieme per tutte le risorse contemporaneamente, il che è efficiente dal punto di vista computazionale nell'adattarle. Viene presentato il modello fattoriale più semplice, il modello a fattore singolo di Sharpe, in cui l'extrarendimento delle azioni può essere modellato come una regressione lineare sull'extrarendimento del mercato, ridimensionando il rischio in base al beta_i di diverse attività.

  • 00:15:00 In questa sezione, il video discute la matrice di covarianza degli asset nella modellazione fattoriale e come può essere semplificata utilizzando un modello per modellare la covarianza, che può essere utile nella gestione del portafoglio e nella gestione del rischio. Viene anche spiegato il processo di stima per il modello a indice singolo di Sharpe, insieme al concetto di variabili a fattori comuni che possono essere osservate come potenziali candidati per essere un fattore rilevante in un modello a fattori lineari. L'efficacia di un fattore potenziale è determinata adattando il modello e vedendo quanto contribuisce alla matrice di covarianza complessiva.

  • 00:20:00 In questa sezione, il video descrive la modellazione fattoriale e l'approccio alla trasformazione dei fattori in fattori sorpresa per modellare le variabili macroeconomiche. Viene discusso il potere di incorporare cambiamenti imprevisti in questi fattori e questo approccio è ampiamente applicato ora. Il video spiega anche come stimare i parametri sottostanti utilizzando semplici metodi di regressione e le ipotesi di Gauss-Markov. Viene inoltre fornito un esempio dell'approccio BARRA, che utilizza variabili fattoriali comuni basate su attributi fondamentali o specifici dell'asset.

  • 00:25:00 In questa sezione viene discusso l'approccio Fama-French alla modellazione fattoriale e all'analisi del rischio, che prevede la classificazione delle azioni in base a fattori comuni come la capitalizzazione di mercato e il valore rispetto alla crescita e la loro divisione in quintili per le medie ponderate . Anche il modello fattoriale industriale BARRA, che suddivide le scorte in diversi gruppi industriali, è citato come un semplice caso di modellazione fattoriale. Le realizzazioni dei fattori non sono osservate ma stimate nell'applicazione di questi modelli, consentendo di calcolare la correlazione con i rendimenti delle singole attività. Nel complesso, questi approcci continuano ad essere ampiamente utilizzati oggi nella modellazione fattoriale.

  • 00:30:00 In questa sezione viene introdotto il concetto di modelli a fattori di settore. Nello specifico, i modelli fattoriali di settore consentono l'associazione di caricamenti fattoriali, che vengono utilizzati per caricare ogni asset in termini di gruppo di settore a cui appartiene. Il problema con i modelli fattoriali di settore è come specificare la realizzazione dei fattori sottostanti, che possono essere stimati con un modello di regressione. La stima delle realizzazioni fattoriali presuppone che la variabilità delle componenti di x abbia la stessa varianza ma in questi modelli c'è effettivamente eteroschedasticità. Nel complesso, questa sezione fornisce una panoramica della stima delle matrici di covarianza e delle stime di regressione per i modelli fattoriali di settore.

  • 00:35:00 In questa sezione del video, l'attenzione è rivolta all'eteroschedasticità nella stima dei parametri di regressione e al suo impatto sull'ottimizzazione del portafoglio, dove gli asset sono ponderati in base ai rendimenti attesi e penalizzati dall'elevata varianza. I portafogli che imitano i fattori vengono utilizzati per determinare il valore reale del trading con fattori come nel modello Fama-French e la realizzazione di ciascun fattore è una somma ponderata dei rendimenti delle attività sottostanti. Normalizzando i pesi delle righe delle realizzazioni k-dimensionali, è possibile definire i portafogli che imitano i fattori che interpretano i potenziali investimenti per l'asset allocation.

  • 00:40:00 In questa sezione, il relatore discute i modelli fattoriali statistici per l'analisi delle serie temporali dei rendimenti degli asset per m asset su T unità temporali, dove i fattori sottostanti sono sconosciuti. Il relatore spiega l'analisi fattoriale e l'analisi delle componenti principali come metodi per scoprire quei fattori sottostanti, che possono essere definiti in termini di dati stessi. Il relatore osserva che esiste flessibilità nella definizione del modello fattoriale e che qualsiasi data specificazione della matrice B o dei fattori f può essere trasformata da ak per k matrice invertibile H.

  • 00:45:00 In questa sezione viene discusso il concetto di modellazione fattoriale e trasformazioni, evidenziando come la funzione lineare rimanga la stessa in termini di matrice di covarianza dei fattori sottostanti. La discussione si sposta sulla definizione di una matrice H che diagonalizza i fattori, che consente di considerare modelli fattoriali con componenti fattoriali non correlate. Fare alcune ipotesi come i fattori ortonormali ea media zero semplifica il modello alla matrice di covarianza sigma_x come i fattori di caricamento B moltiplicati per la sua trasposizione, più una matrice diagonale. La stima della massima verosimiglianza è discussa anche nel contesto dei normali modelli fattoriali lineari con variabili casuali sottostanti normalmente distribuite, che portano alla funzione di densità congiunta dei dati.

  • 00:50:00 In questa sezione, il video illustra la modellazione fattoriale e come applicare i metodi di stima della massima verosimiglianza per specificare tutti i parametri delle matrici B e psi utilizzando l'algoritmo EM. Le realizzazioni dei fattori possono essere stimate utilizzando la formula di regressione con stime per i fattori di caricamento e alfa. L'algoritmo EM è una potente metodologia di stima che può semplificare complesse funzioni di verosimiglianza stimando le variabili nascoste, assumendo che le variabili nascoste siano note e iterando tale processo. Le realizzazioni dei fattori possono essere utilizzate per la modellazione del rischio.

  • 00:55:00 In questa sezione, il relatore discute l'uso dell'analisi fattoriale statistica nei mercati delle materie prime e l'identificazione dei fattori sottostanti che guidano i rendimenti e le covarianze. I fattori sottostanti stimati possono anche essere utilizzati come input per altri modelli, il che è utile per comprendere il passato e come variano. Il relatore menziona anche la flessibilità di considerare diverse trasformazioni di un dato insieme di fattori stimati dalla matrice H per la trasformazione. Inoltre, viene menzionato l'uso dell'analisi fattoriale statistica per interpretare i fattori sottostanti, con applicazioni nella misurazione del QI e nella ricerca di rotazioni dei caricamenti fattoriali che rendono i fattori più interpretabili. Infine, la sezione copre i test del rapporto di verosimiglianza e il test per la dimensionalità del modello fattoriale.

  • 01:00:00 In questa sezione viene introdotto il concetto di analisi delle componenti principali (PCA), che è un quadro teorico che utilizza autovalori e autovettori della matrice di covarianza per ridurre la struttura multivariata in uno spazio dimensionale più piccolo. PCA crea un nuovo sistema di coordinate che non modifica la posizione relativa dei dati, ma ruota solo gli assi delle coordinate e semplifica
    la trasformazione affine della variabile originale x. Le variabili componenti principali hanno una media di 0 e una matrice di covarianza data dalla matrice diagonale degli autovalori, e rappresentano un modello fattoriale lineare con caricamenti fattoriali dati da gamma_1 e un termine residuo dato da gamma_2 p_2. Tuttavia, il vettore gamma_2 p_2 potrebbe non avere una matrice di covarianza diagonale.

  • 01:05:00 In questa sezione, il video spiega le differenze tra i modelli a fattori lineari e l'analisi delle componenti principali. Con un modello fattoriale lineare, si presume che il vettore residuo abbia una matrice di covarianza uguale a una diagonale, mentre l'analisi delle componenti principali può o non può essere vera. Il video passa quindi a discutere l'analisi empirica delle componenti principali, in cui i dati campione vengono utilizzati per ottenere stime di medie e matrici di covarianza. Viene inoltre introdotto il concetto di variabilità, in cui la prima variabile componente principale è definita come la dimensione in corrispondenza della quale l'asse delle coordinate presenta la massima variabilità. La seconda variabile componente principale è quindi la direzione ortogonale alla prima con la massima varianza, e questo processo è continuato per definire tutte le m variabili componente principale.

  • 01:10:00 In questa sezione, il relatore spiega come l'analisi delle componenti principali può essere utilizzata per scomporre la variabilità delle diverse variabili delle componenti principali di una matrice di covarianza σ, che rappresenta la varianza totale di un set di dati multivariato. Le voci fuori diagonale della matrice sono zero, indicando che le variabili componenti principali non sono correlate e hanno il proprio livello di variabilità, come rappresentato dagli autovalori. Come caso di studio, il relatore utilizza l'esempio dei rendimenti dei Treasury statunitensi tra il 2000 e il 2013, esaminando in particolare le variazioni dei rendimenti. L'attenzione si concentra su un periodo di cinque anni compreso tra il 2001 e il 2005 e l'analisi consiste nella volatilità giornaliera dei rendimenti e nei livelli negativi in quel periodo.

  • 01:15:00 In questa sezione, il relatore discute la modellazione fattoriale delle variazioni di rendimento utilizzando l'analisi delle componenti principali. La matrice di correlazione delle variazioni di rendimento mostra correlazioni elevate per scadenze più brevi e correlazioni che diminuiscono man mano che ci si allontana dalla diagonale. Il presentatore utilizza grafici per rappresentare visivamente le correlazioni e mostra che la prima variabile componente principale spiega l'85% della variabilità totale. Uno scree plot conferma che le prime componenti principali spiegano una quantità significativa di variabilità. Infine, il relatore confronta le deviazioni standard delle variazioni del rendimento originale con quelle delle variabili componenti principali.

  • 01:20:00 In questa sezione è stato presentato un grafico dei caricamenti sulle diverse variazioni di resa per le prime variabili della componente principale, che dà un'idea dell'interpretazione delle variabili della componente principale. La prima variabile della componente principale misura la variazione del rendimento medio nell'intero intervallo e dà maggior peso al quinquennale, che cattura una misura dello spostamento di livello nella curva dei rendimenti, mentre la seconda variabile della componente principale esamina la differenza tra il rendimento cambiamenti sui tenori lunghi rispetto ai tenori brevi. Inoltre, la terza variabile componente principale fornisce una misura della curvatura della struttura del termine e di come cambia nel tempo. Le variabili dei componenti principali hanno zero correlazioni tra loro e le variabili cumulative dei componenti principali nel tempo indicano come questi fattori sottostanti si sono evoluti nel periodo di tempo.

  • 01:25:00 In questa sezione, il relatore discute l'adattamento di un modello di analisi fattoriale statistica ai dati e il confronto dei risultati su un periodo di cinque anni. Il relatore sottolinea l'importanza di specificare i modelli in un periodo specifico e osserva che l'adattamento dei modelli è solo un punto di partenza. In definitiva, è necessario modellare le dinamiche di questi fattori e le loro relazioni strutturali.
15. Factor Modeling
15. Factor Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
Motivazione: