Commercio quantitativo - pagina 10

 

Utilizzo di R nel trading sui mercati finanziari in tempo reale



Utilizzo di R nel trading sui mercati finanziari in tempo reale

In questo video informativo, il presentatore approfondisce l'applicazione pratica dell'utilizzo del linguaggio di programmazione R nel trading in tempo reale sui mercati finanziari, concentrandosi in particolare sul trading di valute estere. Iniziano discutendo l'attrattiva del trading di valute, evidenziando la loro gestibilità e il predominio di alcune coppie chiave nel commercio di valute globali. Si sottolinea che la negoziazione di valute estere avviene nel mercato over-the-counter, invece che nelle borse regolamentate. Il relatore riconosce le difficoltà nell'identificare le anomalie nei movimenti valutari dovute alla liquidità e alla casualità del mercato.

Viene spiegato il concetto di trading over-the-counter, osservando che differisce da altri tipi di trading in quanto dà la priorità a fattori come la controparte e il prezzo quotato rispetto all'esecuzione e alla latenza. Il video copre quindi la terminologia standard del mercato finanziario, compreso l'uso di candele per la visualizzazione dei dati e la distinzione tra negoziazione lunga (acquisto basso e vendita alta) e negoziazione breve (vendita di azioni prese in prestito a un prezzo più alto e riacquisto a un prezzo inferiore per profitto). ).

Per dimostrare l'analisi in tempo reale del trading sui mercati finanziari utilizzando R, il presentatore illustra due esempi. Il primo esempio si concentra sul testare la probabilità della direzione della candela successiva sulla base di candele rialziste o ribassiste consecutive. Questa ipotesi viene esaminata utilizzando la conoscenza dei pattern delle candele e il loro potenziale impatto sulle tendenze del mercato.

Il video esplora ulteriormente la metodologia di verifica delle ipotesi nel trading sui mercati finanziari in tempo reale utilizzando R. Viene presentato un esempio in cui i dati vengono pre-elaborati e viene creata una tabella di candele consecutive per valutare la probabilità di un cambiamento nella direzione della candela. I costi di negoziazione sono inizialmente impostati su zero e viene stabilito e testato un saldo dei profitti su una data modello. Tuttavia, viene evidenziata l'importanza di testare rigorosamente le entrate e le uscite in un ambiente di trading, poiché l'impostazione dei costi di negoziazione su due punti comporta una perdita di denaro e il raggiungimento della neutralità del mercato.

Vengono affrontate considerazioni come lo slippage e i costi di negoziazione, con l'oratore che sottolinea la necessità di tenere conto di questi fattori e suggerendo l'incorporazione di un margine di errore. Viene introdotto un esempio più complesso che coinvolge la natura ciclica dell'eurodollaro, con particolare attenzione alla misurazione della ciclicità basata sui punti di svolta e sul movimento dei prezzi. Il relatore sottolinea l'importanza di mantenere un asse x uniforme nell'analisi dei mercati finanziari per evitare distorcere i movimenti del mercato durante i fine settimana.

Il video approfondisce una strategia di trading di inversione media, che prevede l'identificazione di casi in cui un mercato ha registrato un rapido movimento al rialzo e l'anticipazione di un'inversione di tendenza a breve termine. La distribuzione dei prezzi e i movimenti delle candele vengono analizzati per determinare i parametri adeguati per l'attuazione di questa strategia. I test vengono condotti inizialmente con costi di negoziazione pari a zero, seguiti da un piccolo costo di negoziazione di 2 pub. I risultati sono cautamente ottimistici, ma il relatore riconosce la presenza di potenziali problemi statistici che richiedono ulteriori indagini e test di mercato reali.

L'analisi di regressione viene introdotta come metodo per livellare i punti dati, ma si notano le difficoltà di prevedere le tendenze future quando la linea di regressione cambia con dati aggiuntivi. Vengono discussi i test retrospettivi di base e i test avanzati utilizzando R, evidenziando i limiti del test con un solo strumento e la necessità di un approccio più completo.

Il presentatore condivide quindi approfondimenti sull'incorporazione del codice R negli ambienti di trading in tempo reale. Sottolineano l'importanza di ricalcolare frequentemente i valori di regressione per adattarsi ai cambiamenti del mercato piuttosto che fare affidamento su modelli di overfitting per il successo a lungo termine. Il codice include parametri decisionali per l'acquisto o la vendita basati su differenze di candele e variazioni di prezzo, nonché una strategia di uscita basata sul raggiungimento di una determinata soglia di profitto. Il relatore dimostra il processo di backtesting ed esprime fiducia nell'ottenere risultati positivi.

Viene evidenziata l'importanza di utilizzare una curva Mark-to-Market Equity piuttosto che una curva Trade Equity per valutare i sistemi di negoziazione. Vengono discussi i limiti della curva Trade Equity nel riflettere la posizione di cassa di un sistema mentre le negoziazioni sono attive. Il presentatore mostra due grafici che confrontano i due tipi di curve, rivelando periodi di guasto del sistema e calo significativo. Viene sottolineata la necessità di una strategia di stop-loss per mitigare le perdite e viene condiviso il codice necessario per implementare tale strategia. Il presentatore riconosce che un difetto nella strategia di uscita ha portato a mantenere posizioni troppo a lungo, con conseguenti perdite sostanziali.

Il video approfondisce quindi l'integrazione del codice R nell'esecuzione degli algoritmi e l'utilizzo di un pacchetto Windows sul lato della modellazione. Il presentatore spiega che il loro scambio di denaro reale avviene su server Linux, che sono perfettamente connessi alla piattaforma CIRA attraverso uno spazio di memoria condiviso. Questa configurazione consente lo scambio di dati, inclusi FIX, scambi e candele, tra il loro sistema e la piattaforma. L'oratore rivela che gestiscono il rischio negoziando simultaneamente tra quattro e otto strumenti diversi. Tuttavia, mettono in guardia contro l'affidarsi esclusivamente alla probabilità nel trading del mondo reale, in quanto potrebbe far perdere ai trader preziose opportunità durante il giorno.

In conclusione, questo video fornisce preziose informazioni sull'implementazione pratica di R nel trading sui mercati finanziari in tempo reale, concentrandosi in particolare sul trading di valute estere. Il presentatore copre vari aspetti, tra cui il trading over-the-counter, la terminologia standard del mercato finanziario, le ipotesi di test, le strategie di trading con inversione media, considerazioni come lo slippage e i costi di trading e l'integrazione del codice R negli algoritmi di esecuzione. Pur evidenziando i potenziali vantaggi del trading algoritmico, il video riconosce anche la necessità di test rigorosi, un'attenta considerazione dei problemi statistici e l'importanza delle strategie di gestione del rischio negli scenari di trading del mondo reale.

  • 00:00:00 Ellen parla di come usa la R nel trading di valute estere. Spiega perché ha scelto di scambiare valute, affermando che sono strumenti gestibili da analizzare, con circa sette o otto coppie che eseguono il 97-98% del commercio di valute mondiale. Ellen osserva inoltre che poiché le valute estere sono strumenti over-the-counter, non possono essere negoziate in borsa. Riconosce che trovare anomalie nei movimenti valutari può essere estremamente difficile a causa della liquidità e della casualità del mercato.

  • 00:05:00 Il relatore spiega il concetto di trading over-the-counter, sottolineando che si tratta di un exchange non regolamentato, a differenza di altri tipi di trading. Il relatore spiega che questo tipo di negoziazione enfatizza meno l'esecuzione e la latenza e più altri fattori come la controparte e il prezzo quotato. L'oratore passa quindi a spiegare parte della terminologia standard utilizzata nel mercato finanziario, come le candele e il trading lungo rispetto al trading corto. Le candele sono utilizzate come un comodo strumento per visualizzare una serie di dati, mentre il trading long significa comprare basso e vendere alto, e il trading short significa vendere azioni prese in prestito a un prezzo più alto e poi riacquistarle quando il prezzo scende per realizzare un profitto.

  • 00:10:00 L'oratore discute il concetto di trading al rialzo o al ribasso nel mercato forex, dove i trader scambiano sempre uno strumento per ottenere qualche xq. Ha anche detto che non mostrerà agli spettatori come prevedere il mercato o fornire una salsa segreta, ma invece li guiderà attraverso due esempi del tipo di cose che lui e il suo team analizzano. Il primo esempio è una semplice domanda su quale sia la probabilità che la prossima candela sia su o giù quando si hanno X candele rialziste o ribassiste consecutive. L'oratore fa leva sulla conoscenza delle candele up e down per testare la sua ipotesi e valutare se ci sono dinamiche nel mercato per prevedere le tendenze del mercato.

  • 00:15:00 Il relatore spiega il loro approccio alla verifica delle ipotesi nel trading sui mercati finanziari in tempo reale utilizzando R. Dimostrano un esempio di pre-elaborazione dei dati e creazione di una tabella di candele consecutive, che mostra la probabilità di un cambiamento nella direzione della candela . L'oratore quindi imposta i propri costi di negoziazione su zero e crea un saldo dei profitti, che testano su una data modello. Tuttavia, notano che l'impostazione dei costi di negoziazione su due punti porta a perdere denaro e ad essere neutrali rispetto al mercato, rendendo importante testare rigorosamente le entrate e le uscite in un ambiente di negoziazione.

  • 00:20:00 L'oratore discute l'importanza di considerare lo slippage nel mercato durante il trading e di costruire un margine di errore per tenerne conto. Menzionano anche la differenza nei costi di negoziazione a seconda del broker e del volume degli scambi. L'oratore passa quindi a un esempio più complesso di verifica della natura ciclica dell'eurodollaro e spiega come misurano la ciclicità in base al tempo tra i punti di svolta e il movimento dei prezzi. Sottolineano l'importanza di utilizzare un asse x uniforme nell'analisi dei mercati finanziari per evitare distorcere i movimenti del mercato durante i fine settimana. L'oratore si offre di condividere codice e dati per questo esempio con gli spettatori.

  • 00:25:00 L'oratore spiega come normalizza le serie di dati del mercato finanziario aggiungendo i numeri di riga come asse x invece di utilizzare la data e l'ora. Quindi esegue una regressione del kernel per appianare la curva e trova i picchi e le cadute usando del codice. Testa la ciclicità dei picchi e li raggruppa nel quadrante inferiore per dimostrare che i significativi punti di svolta dell'eurodollaro si verificano entro 30 ore. L'oratore discute diversi modi di fare trading, inclusa la previsione del prossimo punto di svolta e rendendolo un problema leggermente più impegnativo.

  • 00:30:00 L'oratore spiega una strategia di trading di mean reversion, che prevede la ricerca di opportunità in cui un mercato è salito troppo e troppo velocemente, portando a un'inversione di tendenza a breve termine. Il relatore analizza la distribuzione dei prezzi e i movimenti delle candele per determinare dove tracciare la linea per questa strategia, quindi la testa impostando operazioni a costo zero e successivamente con un piccolo costo di negoziazione di 2 pub. I risultati sono cautamente ottimistici e il relatore suggerisce ulteriori test in condizioni di mercato reali. Tuttavia, il relatore osserva che potrebbero esserci problemi statistici con questa strategia che richiedono ulteriori indagini.

  • 00:35:00 Il relatore discute l'utilizzo della regressione per smussare i punti dati, ma avverte che la linea di regressione cambia all'indietro man mano che vengono aggiunti più punti dati alla serie, rendendo difficile prevedere le tendenze future. Spiega inoltre che i test retrospettivi e avanzati di base con R sono limitati a uno strumento alla volta e non sono ideali per più strumenti o parametri finanziari specifici del mercato. Per risolvere questo problema, utilizza una piattaforma di trading che gli consente di copiare e incollare il suo codice R direttamente nella piattaforma ed evitare lunghi processi di codifica e debug.

  • 00:40:00 Il relatore discute il codice di base utilizzato per incorporare R negli ambienti di trading in tempo reale. Dicono che il codice è in gran parte una copia e incolla del codice che avevano nel loro studio R, concentrandosi sul ricalcolo frequente dei valori di regressione per adattarsi ai cambiamenti piuttosto che sovradimensionare il modello e aspettarsi che funzioni a lungo termine. Il codice include una decisione di acquisto o vendita basata su determinati parametri, come differenze di candela e variazioni di prezzo, e una strategia per uscire dalla posizione quando il profitto raggiunge un certo importo. L'oratore poi mostra come hanno eseguito un backtest con il codice e si aspetta buoni risultati.

  • 00:45:00 Il relatore discute l'importanza di utilizzare una curva Mark-to-Market Equity su una curva Trade Equity durante la valutazione dei sistemi di trading. Spiega che una curva di Trade Equity non rivela la posizione di cassa di un sistema mentre l'operazione è in corso, quindi è difficile modellarla in R. Mostra due grafici, uno con la curva di Trade Equity e l'altro con il Mark- curva to-Market Equity, che riflette il modo in cui il sistema ha vacillato durante alcuni periodi, portando a un calo significativo. Conclude che l'applicazione di una strategia di stop-loss avrebbe aiutato a uscire dalle perdite in tempo e mostra il codice che consentirebbe di apportare tale modifica. Il collaudo finale del modello è fallito a causa di una strategia di uscita inadeguata che ha portato a resistere troppo a lungo, creando pesanti perdite.

  • 00:50:00 L'oratore parla di come incorporano il loro codice nell'esecuzione di algoritmi e utilizzano un pacchetto Windows sul lato di modellazione. I loro soldi veri girano su server Linux e sono racchiusi in questo pacchetto. Utilizzano uno spazio di memoria condiviso tra il proprio sistema e la piattaforma CIRA per l'interscambio dei dati. Possono prendere FIX, scambi e candele e passarli al loro sistema per l'analisi, suddividere i risultati in CIRA e prendere decisioni di trading. Possono utilizzare questo sistema per gestire il rischio negoziando tra quattro e otto diversi strumenti contemporaneamente. Avvertono che mentre la probabilità è importante, fare affidamento su di essa per il trading nel mondo reale può far perdere opportunità ai trader durante il giorno.
Using R in real time financial market trading
Using R in real time financial market trading
  • 2015.05.28
  • www.youtube.com
Autochartist CEO, Ilan Azbel explains how R can be used in real-time market analysis to build automated trading systems - recorded at a live presentation a t...
 

Introduzione al Trading Quantitativo - Lezione 1/8


Introduzione al Trading Quantitativo - Lezione 1/8

Questo corso completo funge da introduzione approfondita all'affascinante mondo del trading quantitativo, fornendo agli studenti le conoscenze e le competenze necessarie per eccellere in questo campo dinamico. Il trading quantitativo ruota attorno all'utilizzo di modelli matematici e programmi per computer per trasformare le idee di trading in strategie di investimento redditizie. Tutto inizia con un gestore di portafoglio o trader che inizia con un'intuizione iniziale o un vago concetto di trading. Attraverso l'applicazione di tecniche matematiche, queste intuizioni si trasformano in precisi e robusti modelli matematici di trading.

Il processo di negoziazione quantitativa comporta il sottoporre questi modelli a rigorose analisi, test retrospettivi e perfezionamento. Vengono impiegati test statistici e simulazioni per valutarne le prestazioni e garantirne l'affidabilità. Questa meticolosa fase di test è fondamentale per identificare e affrontare eventuali difetti o debolezze nei modelli prima che vengano messi in atto.

Una volta che un modello di investimento quantitativo ha dimostrato la sua potenziale redditività, viene implementato su un sistema informatico, consentendo l'esecuzione automatizzata delle negoziazioni. Questa integrazione di modelli matematici nei programmi per computer è al centro del trading quantitativo, combinando il potere della matematica con l'efficienza dell'informatica. Durante il corso, gli studenti esplorano varie strategie di investimento tratte dalla letteratura accademica popolare, acquisendo approfondimenti sui loro principi matematici sottostanti e imparando come tradurli in modelli di trading attuabili.

Il curriculum di questo corso comprende una vasta gamma di argomenti, fornendo agli studenti le competenze quantitative, informatiche e di programmazione essenziali per il successo nel campo del trading quantitativo. Gli studenti approfondiscono le complessità della modellazione matematica, dell'analisi statistica e del trading algoritmico. Acquisiscono inoltre competenza nei linguaggi di programmazione comunemente utilizzati nella finanza quantitativa, come Python e R, consentendo loro di implementare e testare i loro modelli di trading in modo efficace.

Completando questo corso, gli studenti non solo ottengono una panoramica olistica del panorama del trading quantitativo, ma sviluppano anche le competenze necessarie per navigare con sicurezza. Diventano abili nel trasformare le idee di trading in modelli matematici, testando e perfezionando rigorosamente questi modelli e infine implementandoli in scenari di trading reali. Con le loro solide basi nelle tecniche quantitative e computazionali, gli studenti sono ben preparati a intraprendere una carriera nel trading quantitativo, nel trading algoritmico o in altri campi correlati in cui la fusione di matematica e tecnologia guida il successo.

Introduction to Quantitative Trading - Lecture 1/8
Introduction to Quantitative Trading - Lecture 1/8
  • 2013.10.01
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Introduzione al Trading Quantitativo - Lezione 2/8


Introduzione al Trading Quantitativo - Lezione 2/8

In questa conferenza, il relatore sottolinea l'importanza della tecnologia e della programmazione nel trading quantitativo. Discutono di come la tecnologia e le capacità di programmazione siano essenziali per cooptare strategie di trading quantitativo e condurre test retrospettivi. Il relatore sottolinea l'importanza della matematica e della programmazione informatica in questo campo. Introducono la programmazione Java di base e la programmazione matematica utilizzando Java e sottolineano la necessità di competenze di programmazione nel trading quantitativo a causa del requisito del backtesting.

Il relatore discute le sfide coinvolte nella simulazione e nell'analisi delle prestazioni future di una strategia. Dicono che i profitti e le perdite storici (PNL) non sono un indicatore affidabile per la formazione o per decidere se cambiare una strategia. Suggeriscono invece di utilizzare la simulazione e la calibrazione dei parametri, che richiedono una programmazione pesante, per trovare parametri ottimali e testare la sensibilità di una strategia nei loro confronti. Sottolineano inoltre l'importanza di utilizzare lo stesso software per la ricerca e il trading dal vivo per evitare errori di traduzione.

Il relatore discute le responsabilità di un commerciante quantitativo e sottolinea la necessità di una prototipazione efficiente delle idee di trading. Suggeriscono di dedicare la maggior parte del tempo al brainstorming e alla ricerca di idee, riducendo al minimo il tempo dedicato ai test e alla programmazione. Menzionano l'importanza di disporre di una cassetta degli attrezzi di elementi costitutivi per prototipare rapidamente nuove strategie.

Il relatore affronta le sfide dell'utilizzo di strumenti popolari come Excel, MATLAB e R nel trading quantitativo, affermando che non sono progettati per sofisticate strategie matematiche. Raccomandano di utilizzare altri linguaggi di programmazione come Java, C-sharp e C++ che dispongono di librerie per costruire e implementare strategie di trading.

L'oratore discute specificamente i limiti dell'utilizzo di R per il trading quantitativo. Dicono che R è lento, ha una memoria limitata e possibilità limitate di parallelizzazione. Sottolineano inoltre la mancanza di strumenti di debug e di interfacce standard per la comunicazione tra diversi programmi.

Il relatore sottolinea l'importanza della tecnologia e dell'utilizzo di strumenti adeguati nel trading quantitativo. Dicono che strumenti come R e MATLAB possono migliorare significativamente la programmazione matematica e fornire l'accesso alle librerie per calcoli più veloci. Sottolineano la necessità di una buona cassetta degli attrezzi per la ricerca commerciale che consenta una facile combinazione di moduli, programmazione parallela e pulizia automatica dei dati e calibrazione dei parametri.

Il relatore discute i vantaggi dell'utilizzo di nuove tecnologie come Java e C# per il trading quantitativo. Dicono che questi linguaggi eliminano la necessità di eseguire il debug per problemi come perdite di memoria ed errori di segmentazione, il che migliora la produttività. Dimostrano la programmazione Java e forniscono sessioni di laboratorio pratiche per i partecipanti.

Il relatore spiega come correggere l'input per un programma Java correggendo le importazioni e dimostra la programmazione matematica utilizzando la libreria algo quant. Guidano i partecipanti copiando e incollando il codice dal sito Web ai loro computer per l'esecuzione.

Il relatore risponde alle domande tecniche del pubblico relative al download e all'esecuzione del codice utilizzato nella conferenza. Dimostrano la versione classica di una catena di Markov nascosta utilizzando la funzione webinar.

Il relatore spiega il concetto di catena di Markov e dimostra un semplice modello a due stati con probabilità di transizione. Spiegano come le catene di Markov vengono utilizzate come generatori di numeri casuali per simulare osservazioni e stimare i parametri del modello. Incoraggiano il pubblico a sperimentare la creazione dei propri modelli di catena di Markov.

Il relatore discute l'importanza della comunicazione e della collaborazione nel trading quantitativo e incoraggia i membri del team a confrontarsi tra loro e fornire aggiornamenti sui loro progressi. Menzionano la possibilità di utilizzare modelli di Markov di ordine superiore e invitano a porre domande e condividere lo schermo durante le discussioni dal vivo.

Il docente discute le sfide della stima dei parametri nei modelli di trading quantitativi con osservazioni limitate. Spiegano che sono necessari più dati per una stima accurata e raccomandano di utilizzare modelli di stato più grandi o di aumentare il numero di osservazioni. Discutono dell'algoritmo Baum-Welch per l'addestramento dei modelli Markov nascosti e introducono il concetto di backtesting.

Il relatore dimostra una semplice strategia di crossover della media mobile in AlgoQuant e spiega il processo di creazione di strategie, simulatori e simulazioni in esecuzione. Sottolineano l'importanza del test e dell'analisi delle prestazioni utilizzando misure come profitti e perdite, rapporto di informazioni, prelievo massimo e altro ancora.

Il relatore spiega esplorare diverse strategie di trading e testare le loro prestazioni attraverso la simulazione. Il relatore spiega che la simulazione consente ai trader di valutare la potenziale redditività e i rischi associati a una strategia prima di implementarla nel trading dal vivo. Simulando diverse condizioni e scenari di mercato, i trader possono ottenere informazioni sulla performance della strategia e prendere decisioni informate.

Il relatore sottolinea anche l'importanza dei costi di transazione nelle strategie di trading. I costi di transazione, come le commissioni di intermediazione e lo slippage, possono avere un impatto sostanziale sulla redditività complessiva di una strategia. Pertanto, è fondamentale tenere conto dei costi di transazione durante la simulazione e il backtesting per ottenere una valutazione realistica della performance di una strategia.

Inoltre, il docente introduce il concetto di gestione del rischio nel trading quantitativo. Spiegano che la gestione del rischio implica l'implementazione di strategie per controllare e mitigare potenziali perdite. Le tecniche di gestione del rischio possono includere l'impostazione di ordini stop-loss, il dimensionamento delle posizioni e la diversificazione. È essenziale incorporare i principi di gestione del rischio nelle strategie di trading per proteggersi da perdite finanziarie significative.

Il relatore conclude ribadendo l'importanza dell'apprendimento continuo e del miglioramento nel trading quantitativo. Incoraggiano i partecipanti a esplorare diverse strategie, analizzare le loro prestazioni e iterare in base ai risultati. Sfruttando la tecnologia, le capacità di programmazione e un approccio sistematico allo sviluppo della strategia, i trader possono migliorare la loro redditività e il loro successo nei mercati finanziari.

Nel complesso, la conferenza si concentra sul significato della tecnologia, della programmazione, della simulazione e della gestione del rischio nel trading quantitativo. Sottolinea la necessità di sperimentazione, apprendimento continuo e l'uso di strumenti specializzati per sviluppare e perfezionare strategie di trading.

Parte 1

  • 00:00:00 Il relatore inizia affrontando potenziali domande della lezione precedente e dove trovare i materiali del corso. Il focus di questa conferenza è sull'importanza della tecnologia e della programmazione nel trading quantitativo, in quanto è essenziale per cooptare strategie di trading quantitativo e condurre test retrospettivi. L'oratore sottolinea l'importanza sia della matematica che della programmazione informatica e procede con l'introduzione della programmazione Java di base e della programmazione matematica utilizzando Java. La sessione pratica include strategie di cooptazione per il backtest e l'oratore chiede se tutti hanno installato bin e algo quant sui propri computer e hanno superato il test Maven. Tradizionalmente, per altri tipi di trading, come l'investimento di valore o il trading basato su sentimenti istintivi, non è necessaria molta programmazione, ma è essenziale nel trading quantitativo a causa del requisito del backtesting.

  • 00:05:00 Il relatore discute l'importanza della programmazione informatica nel trading quantitativo, in particolare nella simulazione e nell'analisi delle prestazioni future di una strategia. Dicono che la PNL storica non è un indicatore affidabile per la formazione o per decidere se cambiare o meno una strategia. Suggeriscono invece di utilizzare la simulazione e la calibrazione dei parametri, che richiedono una programmazione pesante, per trovare parametri ottimali e testare la sensibilità di una strategia nei loro confronti. Sottolineano inoltre l'importanza di utilizzare lo stesso software per la ricerca e il trading dal vivo per evitare possibili errori di traduzione. Infine, il relatore sottolinea che le capacità di programmazione informatica sono fondamentali nel settore del trading finanziario e possono avere un notevole impatto sui profitti.

  • 00:10:00 Il docente discute le responsabilità ideali di un commerciante quantitativo, che implicano l'ideazione di idee di trading e la loro prototipazione rapida, lasciando le attività meccaniche, come il test di calcolo, le proprietà PNL e la calibrazione dei parametri, a un sistema informatico . Idealmente, un trader spenderebbe solo circa il 10% del proprio tempo a codificare le proprie strategie e farebbe affidamento su elementi costitutivi o modelli per prototipare strategie in modo rapido ed efficiente, senza dover codificare tutto da zero. Il docente sottolinea l'importanza di dedicare la maggior parte del tempo al brainstorming e allo scambio di idee, riducendo al minimo il tempo dedicato ai test e alla programmazione.

  • 00:15:00 Il relatore sottolinea l'importanza di disporre di una cassetta degli attrezzi di elementi costitutivi che i ricercatori possono utilizzare per prototipare rapidamente nuove strategie. Accenna al fatto che Algocron offre diversi elementi costitutivi come gli indicatori del mercato ribassista basati su probabilità condizionali e la cointegrazione per controllare i panieri. Sottolinea l'idea che la creazione di strategie dovrebbe essere come giocare con i Lego, dove i ricercatori possono mettere insieme i mattoni per costruire una nuova strategia. Il relatore spiega che nonostante trascorrano la maggior parte del loro tempo a trovare idee, i trader devono fare backtest e pulizia dei dati, il che può essere impegnativo. Devono elaborare grandi quantità di dati da fonti diverse e devono estrarre informazioni utili, come i rapporti di guadagno dei prezzi, mentre gestiscono dati mancanti o errati. Il processo richiede una programmazione significativa e, se le strategie sono guidate dagli eventi, i ricercatori potrebbero aver bisogno di un database del programma di notizie e annunci.

  • 00:20:00 Il relatore discute le complicazioni legate alla simulazione di una strategia di trading con un portafoglio ordini. Un problema è lo slippage, il che significa che solo perché qualcuno vuole acquistare qualcosa a un certo prezzo non significa che possa effettivamente acquistarlo a quel prezzo a causa del movimento del mercato. Un altro problema sono le ipotesi di esecuzione nella modellazione del portafoglio ordini. Il processo di simulazione è macchinoso e richiede molto tempo, soprattutto se si utilizzano linguaggi di script come MATLAB o R. La calibrazione e la simulazione dei parametri possono richiedere fino a centinaia di ore e i bug nel codice del software possono prolungare ulteriormente il processo. Il processo di debug del codice è lungo e frustrante e può portare a rinunciare allo scambio, non a causa di un codice errato ma a causa dell'esaurimento del tempo o della frustrazione.

  • 00:25:00 Il relatore discute la realtà del trading quantitativo e gli strumenti utilizzati dai trader. Spiegano che molti commercianti di monete sono analisti quantistici che trascorrono quasi il 90% del loro tempo a programmare e eseguire il debug, il che non è quello che dovrebbe essere il lavoro. La ragione di ciò è che gli strumenti di ricerca utilizzati dai trader sono primitivi e quelli popolari includono Excel, MATLAB, R e software commerciale. Tuttavia, il relatore sostiene che questi strumenti non sono costruiti per il trading quantitativo e non sono utili per costruire sofisticate strategie matematiche. Suggeriscono che altri linguaggi di programmazione come Java, C-sharp e C++ abbiano librerie da mettere insieme e costruire strategie di cambiamento che i trader possono invece utilizzare.

  • 00:30:00 Il relatore discute gli svantaggi dell'utilizzo di R per il trading quantitativo. Uno dei problemi principali è che R è molto lento in quanto è un linguaggio interpretato, il che significa che l'interprete esegue riga per riga. Inoltre, la quantità di memoria disponibile è limitata, il che rende impossibile caricare una quantità significativa di dati nella memoria per l'analisi. Inoltre, la possibilità di parallelizzazione è molto limitata, rendendo difficile l'esecuzione di simulazioni su migliaia di CPU. L'oratore afferma che l'utilizzo di R per il calcolo parallelo è difficile e il suo IDE non è avanzato come altri linguaggi come Java e C-sharp. Inoltre, non sono disponibili strumenti di debug, il che rende difficile l'identificazione dei problemi e non esiste un'interfaccia standard per la comunicazione tra programmi diversi.

  • 00:35:00 Il relatore discute i vantaggi e gli svantaggi dell'utilizzo di R come strumento di strategia di trading quantitativa. Sottolinea che R ha un supporto limitato alla programmazione orientata agli oggetti e la maggior parte del codice è scritto utilizzando un linguaggio procedurale, ma presenta vantaggi significativi rispetto ai linguaggi generici. La sfida più grande con R è che non c'è modo di garantire che il codice sorgente sia privo di errori e questo può essere frustrante durante il debug del codice. Il relatore sottolinea l'importanza della tecnologia, spiegando che fare affidamento sulle armi (strumenti e ricerca) è fondamentale nella guerra commerciale. Una persona intelligente senza tecnologia non può aspettarsi di competere con qualcuno che utilizza la tecnologia, come il calcolo parallelo e l'apprendimento automatico, per cercare strategie di trading redditizie.

  • 00:40:00 Il relatore discute l'importanza della tecnologia nel trading quantitativo. L'utilizzo di strumenti come R e MATLAB può migliorare significativamente la programmazione matematica e fornire l'accesso a un'ampia gamma di librerie che consentono calcoli matematici più veloci. Avere una buona cassetta degli attrezzi per la ricerca sul trading è essenziale per costruire e testare rapidamente le strategie per cogliere le opportunità di mercato. La cassetta degli attrezzi ideale dovrebbe consentire ai trader di combinare facilmente i moduli, eseguire la programmazione parallela e generare statistiche sulle prestazioni senza dover dedicare molto tempo alla programmazione. Anche la pulizia dei dati dovrebbe essere automatizzata e la calibrazione dei parametri dovrebbe essere eseguita automaticamente. L'attenzione dovrebbe essere focalizzata sulla codifica delle strategie piuttosto che dedicare tempo alle attività di programmazione meccanica.

  • 00:45:00 Viene discussa l'importanza di utilizzare un buon strumento per la programmazione. Il relatore afferma che l'utilizzo di tecnologie più recenti come Java e C# elimina la necessità di eseguire il debug per problemi come perdite di memoria ed errori di segmentazione, il che accelera notevolmente la produttività. Inoltre, la classe avvia una sessione di laboratorio pratica in cui esplorano un esperimento sul modello di Markov e il relatore guida i partecipanti attraverso il processo di copia e incolla del codice dal sito Web ai loro contenitori portatili per la corsa. La classe include partecipanti con esperienza di programmazione, quindi saltano le basi della programmazione Java.

  • 00:50:00 Il relatore spiega come correggere l'input per un programma Java correggendo le importazioni utilizzando il comando ctrl shift i. Procede quindi a dimostrare come la programmazione matematica può essere eseguita in Java utilizzando la libreria algo quant e mostra un semplice modello di catena di markov che può essere eseguito in un nuovo pacchetto e classe. L'oratore incoraggia i partecipanti a porre domande e si assicura che tutti siano in grado di seguire la dimostrazione.

  • 00:55:00 Il relatore risponde ad alcune domande tecniche del pubblico su come scaricare ed eseguire il codice utilizzato nella conferenza. Procede a dimostrare la versione classica di Hidden Markov Chain utilizzando la funzione webinar, per la quale mantiene solo pi a1 e b1, ed elimina l'altro codice.

Parte 2

  • 01:00:00 Il relatore spiega il modello a due stati con probabilità di transizione, che è un semplice esempio di catena di Markov. Illustra le probabilità di transizione in un diagramma visivo e spiega la probabilità di osservare determinati valori in ogni stato. L'oratore prosegue poi spiegando come una catena di Markov sia essenzialmente un generatore di numeri casuali e dimostra come simulare questa particolare catena di Markov per generare osservazioni.

  • 01:05:00 Il relatore spiega il concetto di catena di Markov e come viene utilizzata come generatore di numeri casuali per generare osservazioni sui prezzi delle azioni. Le probabilità dello stato iniziale e le probabilità di transizione di una catena di Markov a due stati sono fornite come esempio, ma in situazioni di vita reale, questi parametri devono essere stimati sulla base delle osservazioni. Il relatore dimostra come stimare questi parametri utilizzando l'algoritmo della catena di Markov nascosta di Webinar Models per la stima dei parametri. Il modello stimato può quindi essere confrontato con il modello effettivo per la precisione.

  • 01:10:00 Il relatore discute l'importanza della stima dei parametri nel trading quantitativo. Osserva che in realtà si osservano solo prezzi o rendimenti e il vero modello è sconosciuto, quindi l'opzione migliore è stimare i parametri del modello. Cita un buon algoritmo per la stima dei parametri, l'algoritmo del webinar, che si avvicina molto ai modelli reali ed è utile per il trading. Il relatore incoraggia il pubblico a sperimentare la creazione dei propri modelli di catena di Markov modificando i parametri, generando diverse osservazioni ed eseguendo varie stime per capire come corrispondono ai valori reali in condizioni diverse.

  • 01:15:00 Il relatore discute un'imminente discussione dal vivo sulla modellazione e programmazione markoviana, invitando domande e condividendo lo schermo durante la discussione. Il compito a portata di mano è generare diverse osservazioni utilizzando un modello di markov personale e stimare diversi parametri per verificare se il modello stimato corrisponde al modello reale. L'obiettivo è determinare quanto è buono il modello del mercato poiché alla fine i trader fanno affidamento su di esso. L'oratore incoraggia ad aggiungere valori estremi e scenari di stress per vedere come si comporta la catena di markov.

  • 01:35:00 L'istruttore e gli studenti del corso discutono i dettagli tecnici relativi alle licenze e agli esperimenti. L'istruttore consiglia a uno studente di sostituire la propria licenza a lungo termine con una appena scaricata e suggerisce di sperimentare diversi parametri per determinare il punto in cui i modelli stimati sono utili per scopi di formazione nel trading quantitativo. Altri studenti segnalano problemi con esperimenti e licenze, che vengono affrontati in dettaglio.

  • 01:40:00 L'oratore incoraggia il pubblico a creare la propria catena di Markov e sperimentare le probabilità di transizione. Suggeriscono di utilizzare un modello a due stati per un modello a tre stati e di utilizzare la creatività e l'immaginazione per creare probabilità di transizione insolite come zero o uno "stato di sincronizzazione" in cui non è possibile uscire una volta entrati. Il relatore sottolinea l'importanza della creatività e dell'immaginazione nel trading quantitativo e suggerisce di utilizzarle per vedere come si comporta la procedura di stima con catene di Markov a cambiamento di fase uniche.

  • 01:45:00 Il relatore discute l'importanza della comunicazione e della collaborazione nel trading quantitativo, in particolare quando si eseguono esperimenti e si analizzano i dati. Sottolineano la necessità che i membri del team si controllino costantemente tra loro e forniscano aggiornamenti sui loro progressi, rilevando che le persone possono avere approcci o idee diversi per lo stesso problema. Il relatore menziona anche la possibilità di utilizzare modelli di Markov di ordine superiore nei loro esperimenti e chiede se qualcuno ha esplorato questa opzione.

  • 01:50:00 Il docente discute l'importanza di generare casi di test per verificare se il modello stimato corrisponde al modello reale. Il modello reale è quello utilizzato per generare osservazioni mentre il modello stimato viene creato utilizzando le osservazioni. L'esperimento mira a determinare se il modello stimato è abbastanza vicino al modello reale. Il docente suggerisce di generare diversi casi di test per vedere come si comporta la stima e sottolinea l'importanza del test con un numero minore di osservazioni.

  • 01:55:00 Il relatore discute le sfide legate alla stima accurata dei modelli di trading quantitativo con osservazioni limitate. Si noti che in statistica gli algoritmi sono incentrati sulla convergenza, il che significa che la stima diventa più accurata all'aumentare del numero di osservazioni. Tuttavia, l'oratore sottolinea che è difficile determinare quanto un modello sia vicino alla realtà poiché si dispone solo del modello stimato e non dei valori reali. Inoltre, viene introdotto il concetto di calcolo della probabilità di generare valori osservati con un dato modello, che è un aspetto cruciale della stima di massima verosimiglianza.

Parte 3

  • 02:00:00 Il docente discute le sfide della stima delle probabilità in un modello a due stati con dati limitati. La stima delle probabilità di transizione è imprecisa quando ci sono solo 100 osservazioni. Tuttavia, con 10.000 osservazioni, l'accuratezza aumenta, ma il problema rimane perché la maggior parte delle risorse non dura 40 anni, che è la quantità di dati necessaria per così tante osservazioni. Il modello a due stati ha 12 parametri e, con l'aumentare del numero di parametri, sono necessari più dati per una stima accurata. Pertanto, è essenziale disporre di una grande quantità di dati per stimare le probabilità in modo accurato, il che non è pratico nel trading, soprattutto quando si costruiscono modelli complessi. Il docente consiglia di costruire 3 o 4 modelli di stato o aumentare il numero di osservazioni per superare questa sfida.

  • 02:05:00 Il relatore discute la difficoltà di stimare per i modelli a catena di Markov nel trading quantitativo. L'aumento del numero di variabili rende il processo di stima ancora più difficile e l'utilizzo di una famiglia parametrica di distribuzioni invece di specificare operazioni come questa può ridurre significativamente il numero di parametri. Tuttavia, l'algoritmo di Baum-Welch, utilizzato per addestrare un modello di Markov nascosto continuo (HMM), può essere impegnativo. L'oratore passa quindi a discutere il prossimo esperimento: il backtesting.

  • 02:10:00 La demo mostrata simula un semplice crossover di media mobile sul titolo XOM e il programma è impostato per scaricare i dati sul titolo da Yahoo e simulare il trading dal 1990 al 2012. La struttura di come impostare il viene spiegata l'origine dei dati, con il plug-in dell'origine dati di Yahoo che è il più facile e semplice da utilizzare per coloro che non hanno accesso a fonti di dati professionali. Questa demo fornisce un utile esempio di come programmare e testare le strategie di trading.

  • 02:15:00 Il relatore spiega il processo di creazione di strategie, simulatori e tutti i libri necessari per eseguire una simulazione. L'esempio fornito è una strategia di crossover della media mobile che implica il calcolo della media mobile più veloce utilizzando gli ultimi 20 giorni di dati e la media mobile più lenta utilizzando gli ultimi 250 giorni di dati. Il relatore osserva che è possibile esaminare il codice sorgente per l'implementazione della strategia, del simulatore e dei plotter commerciali in AlgoQuant, che è un software open source. Inoltre, l'oratore spiega che l'accessibilità aperta del software consente agli utenti di verificarne in modo indipendente il codice e apportare modifiche per la personalizzazione. Infine, il relatore spiega che esistono varie misure che possono essere utilizzate per l'analisi delle prestazioni, tra cui profitti e perdite, rapporto di informazioni, rapporto di Sharpe, prelievo massimo, esposizione di massa e omega.

  • 02:20:00 Il relatore mostra come utilizzare diversi analizzatori di performance in Lwan per calcolare diverse misure, come il drawdown, e generare un report sulla performance della strategia. Il codice ascolta gli eventi a cui tiene, come gli aggiornamenti dei prezzi, e genera nuovi ordini in base alle informazioni più recenti. Il relatore suggerisce di utilizzare il debugger per comprendere meglio il comportamento del codice e vedere come risponde agli aggiornamenti dei prezzi e genera ordini.

  • 02:25:00 L'oratore dimostra come utilizzare un debugger per monitorare una strategia di trading e osservare i segnali di crossover. Spiega come posizionare un punto di interruzione e fermarsi quando si verifica un vero segnale di crossover, mostrando un esempio in cui la media mobile più veloce supera la media mobile più lenta. La strategia entra quindi in una posizione lunga, acquistando un'unità del prodotto XOM al prezzo di mercato. Successivamente, quando la media mobile più veloce supera la media mobile più lenta, la strategia entra in una posizione corta, vendendo due unità di XOM al prezzo di mercato. L'oratore mostra un grafico dell'ordine di acquisto e spiega la differenza tra l'acquisto all'ordine di mercato e l'immissione di un ordine limite attivato da un prezzo desiderato.

  • 02:30:00 L'oratore ripercorre una simulazione di una semplice strategia di crossover a media mobile in AlgoQuant. Dimostrano come utilizzare i dati storici per generare segnali di acquisto e vendita e calcolare gli ordini per mantenere una posizione desiderata. La strategia ascolta i segnali di aggiornamento dello sviluppatore e sottoscrive il segnale del libro degli ordini per questa attività. Il relatore osserva che sebbene i test storici non siano sufficienti, è un buon punto di partenza e il semplice crossover della media mobile può essere generalizzato in altri scenari. Menzionano anche che una strategia è solo una funzione e mostrano la matematica per calcolare l'ordine.

  • 02:35:00 Il relatore discute l'importanza della simulazione e della sperimentazione quando si tenta di creare una strategia di trading utilizzando l'analisi matematica. Dimostra l'uso di una strategia GMA21, che è stata precedentemente dimostrata matematicamente, ma produce risultati sfavorevoli quando testata attraverso la simulazione a causa dei costi di transazione. Il relatore sottolinea l'importanza del software e della programmazione nella sperimentazione e messa a punto delle strategie di trading per evitare perdite negli scenari di trading del mondo reale, sottolineando che diversi parametri possono essere testati per diversi titoli per trovare la strategia più efficace.

  • 02:40:00 Il docente discute l'importanza della sperimentazione per confermare le previsioni teoriche nel trading quantitativo. Gli studenti sono incoraggiati a utilizzare il software fornito per sperimentare numeri diversi e creare le proprie strategie di trading. Il docente guida gli studenti attraverso l'implementazione di una strategia gma21, che acquista quando il prezzo corrente è superiore all'ultimo prezzo e vende quando il prezzo corrente è inferiore all'ultimo prezzo, illustrando come calcolare gli ordini e inviarli ai broker per l'esecuzione. Gli studenti hanno quindi il compito di creare le proprie strategie e sperimentarle sui dati storici.

  • 02:45:00 Il relatore presenta la strategia di trading più semplice che può essere facilmente implementata, rendendola una soluzione plug-and-play. L'oratore invita le domande del pubblico e li incoraggia a contattare se hanno bisogno di ulteriori chiarimenti.

  • 02:55:00 L'oratore discute un caso speciale della media mobile geometrica, ovvero quando M è uguale a uno. Questo caso semplifica la strategia per confrontare solo i rendimenti correnti con zero e, sebbene questa strategia non sia necessariamente redditizia, funge da buon esempio per scopi educativi. L'oratore incoraggia il pubblico a terminare l'esercizio per questa strategia offline in modo che possano sentirsi a proprio agio con la codifica e il test utilizzando il sistema algocoin per i prossimi esercizi di matematica e programmazione.
Introduction to Quantitative Trading - Lecture 2/8
Introduction to Quantitative Trading - Lecture 2/8
  • 2013.10.03
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Parco giochi di ingegneria finanziaria: elaborazione del segnale, stima robusta, Kalman, ottimizzazione



Parco giochi di ingegneria finanziaria: elaborazione del segnale, stima robusta, Kalman, ottimizzazione

In questo accattivante video, Daniel Palomar, professore presso il dipartimento di ingegneria elettrica, elettronica e informatica presso HKUST, fa luce sulle applicazioni ad ampio raggio dell'elaborazione dei segnali nel campo dell'ingegneria finanziaria. Palomar dissipa l'idea sbagliata che circonda l'ingegneria finanziaria e sottolinea l'ubiquità delle tecniche di elaborazione del segnale all'interno di questo campo. Sottolinea la rilevanza di vari argomenti come la teoria della matrice casuale, i filtri particellari, i filtri di Kalman, gli algoritmi di ottimizzazione, l'apprendimento automatico, l'apprendimento profondo, l'ottimizzazione stocastica e i vincoli casuali.

Palomar approfondisce le proprietà distintive dei dati finanziari, noti come fatti stilizzati, che rimangono coerenti nei diversi mercati. Spiega come gli ingegneri finanziari utilizzano i rendimenti piuttosto che i prezzi per modellare il mercato azionario. I rendimenti lineari e logaritmici, nonostante le loro differenze minori, sono ampiamente utilizzati a causa della piccola entità dei rendimenti. Questi rendimenti vengono analizzati per determinarne la stazionarietà, essendo la non stazionarietà una caratteristica importante dei dati finanziari. L'oratore affronta anche altri fatti stilizzati come le distribuzioni a coda pesante, l'asimmetria nei rendimenti a bassa frequenza e il fenomeno del clustering della volatilità.

Viene sottolineata l'importanza della modellazione dei rendimenti azionari nella finanza, con particolare attenzione alla volatilità. Palomar traccia parallelismi tra il segnale di ritorno e un segnale vocale, esplorando potenziali collaborazioni tra la modellazione finanziaria e l'elaborazione del segnale vocale. Vengono discussi diversi regimi di frequenza nella modellazione, inclusa la modellazione ad alta frequenza, evidenziando le sfide poste dalla necessità di dati in tempo reale e potenti risorse di calcolo.

Vengono inoltre esaminati i limiti dei modelli che si concentrano esclusivamente sulla modellazione dei rendimenti senza considerare la covarianza o la varianza dei rendimenti. Il relatore sottolinea l'importanza di catturare le informazioni e la struttura fornite dai modelli di covarianza e varianza, che possono consentire un processo decisionale più redditizio. Palomar introduce il concetto di modellare la varianza e la covarianza dei rendimenti utilizzando un residuo composto da un termine casuale normalizzato e un termine di inviluppo che cattura la covarianza dei residui. Tuttavia, la modellazione di un residuo multivariato con una matrice di coefficienti elevata richiede modelli più sofisticati.

Il video esplora le sfide della stima dei parametri a fronte di dati limitati e un'abbondanza di parametri, che possono portare all'overfitting. Per risolvere questo problema, viene introdotta la scarsità di rango basso come mezzo per analizzare il modello Vega e formulare vincoli. Palomar discute il concetto di robustezza e l'inadeguatezza di assumere una distribuzione gaussiana per l'ingegneria finanziaria a causa di code pesanti e regimi di campioni piccoli. Spiega che gli stimatori campionari tradizionali basati sulla distribuzione gaussiana producono risultati scadenti, richiedendo una riformulazione senza tali ipotesi. Tecniche come il restringimento e la regolarizzazione sono presentate come mezzi efficaci per affrontare code pesanti, con la loro implementazione di successo nella finanza e nelle comunicazioni.

Viene esplorata la stima robusta, uno strumento utilizzato in finanza per migliorare l'accuratezza nonostante i valori anomali. Il relatore introduce le distribuzioni ellittiche per modellare le distribuzioni a coda pesante e spiega come è possibile calcolare i pesi per ciascun campione utilizzando un metodo iterativo. Lo stimatore Tyler, che normalizza i campioni e stima la funzione di densità di probabilità (PDF) del campione normalizzato, viene discusso come mezzo per rimuovere la forma della coda. Lo stimatore di Tyler, in combinazione con stimatori robusti, migliora l'accuratezza della stima della matrice di covarianza. L'inclusione di termini di regolarizzazione e lo sviluppo di algoritmi contribuiscono ulteriormente a migliorare le osservazioni e la stima delle matrici di covarianza.

Palomar approfondisce concetti finanziari come la stima di Wolfe, la stima di Tyler e la cointegrazione. Sebbene la stima di Wolfe rappresenti un miglioramento significativo, si basa ancora sull'ipotesi di una distribuzione gaussiana. La stima di Tyler, un'alternativa interessante, richiede un numero sufficiente di campioni per modelli con dimensioni multiple. La cointegrazione, un concetto cruciale in finanza, suggerisce che prevedere il prezzo relativo di due azioni può essere più facile che prevedere i prezzi individuali, aprendo opportunità per il trading di coppie. Viene esplorata la distinzione tra correlazione e cointegrazione, con la correlazione incentrata sulle variazioni a breve termine e la cointegrazione relativa al comportamento a lungo termine.

Il video svela il concetto di tendenza comune e la sua relazione con lo spread trading. La tendenza comune è descritta come una passeggiata casuale condivisa da due azioni che hanno una componente comune. Sottraendo la tendenza comune dallo spread tra i prezzi delle azioni, i trader ottengono un residuo con media zero, che funge da indicatore affidabile per l'inversione della media. Questa proprietà diventa strumentale nelle strategie di spread trading. Il relatore spiega che ponendo delle soglie sullo spread, i trader possono individuare situazioni sottovalutate e capitalizzare il recupero del prezzo, approfittando così della differenza di prezzo. La stima del parametro gamma e l'identificazione degli stock cointegrati sono passaggi essenziali in questo processo, che può essere realizzato utilizzando tecniche come i minimi quadrati.

Il relatore approfondisce il ruolo del filtro di Kalman in scenari in cui un cambiamento nel regime porta alla perdita di cointegrazione dovuta al variare della gamma. L'adattabilità del filtro di Kalman a queste variazioni è evidenziata attraverso un confronto con i metodi dei minimi quadrati e dei minimi quadrati rotolanti. È dimostrato che il filtro di Kalman supera le altre tecniche, poiché mantiene un tracciamento costante intorno allo zero, mentre i minimi quadrati mostrano fluttuazioni che si traducono in perdite nel tempo. Pertanto, l'oratore raccomanda di utilizzare il filtro di Kalman per una stima affidabile nell'ingegneria finanziaria.

Viene presentato un confronto tra le prestazioni dei modelli dei minimi quadrati e dei filtri di Kalman, a conferma dell'efficacia del metodo di Kalman nell'ingegneria finanziaria. Il relatore approfondisce quindi l'applicazione dei modelli di Markov nascosti per rilevare i regimi di mercato, consentendo ai trader di adattare le proprie strategie di investimento in base alle condizioni di mercato prevalenti. L'ottimizzazione del portafoglio viene introdotta come concetto fondamentale, coinvolgendo la progettazione di portafogli che bilanciano il rendimento atteso e la varianza del rendimento del portafoglio. L'oratore traccia parallelismi tra l'ottimizzazione del portafoglio e i modelli di beamforming e di filtraggio lineare, poiché condividono modelli di segnale simili.

Il video illustra come le tecniche di comunicazione e di elaborazione del segnale possono essere applicate alla finanza. Il concetto di rapporto segnale-rumore nella comunicazione viene confrontato con l'indice di Sharpe in finanza, che misura il rapporto tra il rendimento del portafoglio e la volatilità. Il relatore introduce il portafoglio Markowitz, che cerca di massimizzare il rendimento atteso riducendo al minimo la varianza. Tuttavia, a causa della sua sensibilità agli errori di stima e alla dipendenza dalla varianza come misura del rischio, il portafoglio di Markowitz non è ampiamente utilizzato nella pratica. Per risolvere questo problema, è possibile impiegare tecniche di scarsità dall'elaborazione del segnale, in particolare nel tracciamento dell'indice, in cui viene utilizzato solo un sottoinsieme di titoli per tracciare un indice, piuttosto che investire in tutti i titoli costituenti. Il relatore propone miglioramenti alle tecniche di scarsità per ridurre gli errori di tracciamento.

Il video approfondisce il concetto di "purse trading" e mette in evidenza il ruolo dei portafogli nel trading. Utilizzando il modello Value at Risk (VaR), il relatore spiega come si può ottenere il trading di portafoglio costruendo un portafoglio di due azioni con pesi specifici. La matrice PI e la matrice beta vengono introdotte come strumenti che forniscono un sottospazio di spread di ritorno alla media, consentendo l'arbitraggio statistico. L'incorporazione della matrice beta nell'ottimizzazione facilita l'identificazione della direzione ottimale all'interno del sottospazio, con risultati superiori rispetto all'utilizzo del solo beta. L'oratore cita anche il suo libro, "A Signal Processing Perspective on Financial Engineering", che funge da punto di ingresso per i professionisti dell'elaborazione dei segnali interessati al campo della finanza.

Verso la conclusione del video, vengono esplorati diversi approcci al trading nell'ingegneria finanziaria. Il relatore distingue tra strategie che sfruttano piccole variazioni e tendenze e quelle che si concentrano sullo sfruttamento del rumore. Queste due famiglie di strategie di investimento offrono percorsi distinti per generare profitti. Il relatore tocca anche le sfide poste dalla mancanza di dati per l'applicazione delle tecniche di deep learning nella finanza, poiché il deep learning in genere richiede notevoli quantità di dati, che possono essere limitate in contesti finanziari. Inoltre, viene discusso il concetto di stimare le dimensioni del vettore per più di due azioni, con il relatore che fornisce approfondimenti su vari approcci.

Nel segmento finale, il relatore affronta la questione del dominio del mercato da parte delle grandi aziende e il suo impatto sul mercato finanziario. Il relatore sottolinea la potenziale influenza che possono avere le grandi aziende con notevoli risorse finanziarie quando effettuano investimenti sostanziali. Questa concentrazione di potere solleva considerazioni importanti per le dinamiche di mercato e il comportamento degli altri partecipanti al mercato.

Il video tocca brevemente il tema dell'esecuzione degli ordini in finanza. Spiega che quando si tratta di ordini di grandi dimensioni, è pratica comune suddividerli in pezzi più piccoli ed eseguirli gradualmente per evitare di interrompere il mercato. Questo aspetto della finanza comporta complesse tecniche di ottimizzazione e spesso attinge ai principi della teoria del controllo. Il relatore sottolinea la natura matematica dell'esecuzione degli ordini e menziona l'esistenza di numerosi articoli accademici sull'argomento.

Mentre il video volge al termine, il relatore invita il pubblico a porre ulteriori domande durante la pausa caffè, dando atto della loro presenza e partecipazione. Il video funge da risorsa preziosa, fornendo approfondimenti sull'applicazione dell'elaborazione del segnale nell'ingegneria finanziaria. Offre prospettive su come migliorare le stime, ottimizzare i portafogli e rilevare i regimi di mercato attraverso la lente delle tecniche di elaborazione del segnale.

Nel complesso, il video fornisce una panoramica completa delle varie applicazioni dell'elaborazione del segnale nell'ingegneria finanziaria. Sottolinea l'importanza di modellare i rendimenti azionari, la varianza e la covarianza nella finanza, affrontando al contempo le sfide della stima dei parametri, dell'overfitting e dei limiti dei modelli finanziari tradizionali. I concetti di stima robusta, cointegrazione, ottimizzazione del portafoglio e tecniche di sparsità sono discussi in dettaglio. Evidenziando i parallelismi tra la comunicazione e l'elaborazione dei segnali nella finanza, il relatore sottolinea la rilevanza e il potenziale di collaborazione tra questi due domini. Il video si conclude facendo luce sulle strategie di trading, sull'apprendimento automatico nella finanza e sull'importanza delle dinamiche di mercato influenzate dalle grandi aziende.

  • 00:00:00 Daniel Palomar, professore presso il dipartimento di ingegneria elettrica, elettronica e informatica presso HKUST, discute l'argomento dell'ingegneria finanziaria e come ci sia un malinteso su cosa sia. Palomar spiega che l'elaborazione del segnale è ovunque all'interno dell'ingegneria finanziaria e vari argomenti come la teoria della matrice casuale, il filtro particellare, il filtro di Kalman, gli algoritmi di ottimizzazione, l'apprendimento automatico, l'apprendimento profondo, l'ottimizzazione stocastica e i vincoli casuali sono rilevanti. Tocca anche fatti stilizzati sui dati finanziari e spiega che i dati finanziari hanno proprietà speciali che sono coerenti tra i diversi mercati.

  • 00:05:00 Il video spiega come gli ingegneri finanziari modellano il mercato azionario utilizzando i rendimenti anziché i prezzi. Esistono due tipi di rendimenti: rendimenti lineari e logaritmici, ma sono quasi gli stessi poiché i rendimenti sono solitamente numeri piccoli. I rendimenti possono essere tracciati per vedere se sono stazionari o meno, e il fatto stilizzato della finanza è la sua non stazionarietà. Altri fatti stilizzati includono code pesanti, il che significa che le code dell'istogramma storico dei rendimenti sono pesanti, non sottili come una distribuzione gaussiana. Gli ingegneri finanziari devono anche modellare l'asimmetria, specialmente nelle basse frequenze dei rendimenti. Infine, il video spiega il concetto di clustering della volatilità e la sua importanza nella modellazione finanziaria.

  • 00:10:00 Il relatore discute l'importanza di modellare i rendimenti azionari nella finanza. Spiegano che la volatilità gioca un ruolo cruciale nella modellazione, in particolare nella modellazione della deviazione standard, o inviluppo, del segnale dei rendimenti. L'oratore osserva che il segnale di ritorno è simile a un segnale vocale e riflette se esiste una sovrapposizione sufficiente tra la modellazione finanziaria e l'elaborazione del segnale vocale per ispirare la collaborazione. Esistono diversi regimi di frequenza nella modellazione e la modellazione ad alta frequenza, in particolare, richiede abbonamenti costosi e computer potenti a causa della grande quantità di dati critici in termini di tempo. La sezione si conclude menzionando diversi modelli di modellazione finanziaria, come il modello IID e il modello fattoriale, e tocca l'importanza di comprendere le correlazioni nel tempo nella modellazione.

  • 00:15:00 Il relatore discute i limiti dei modelli finanziari che si concentrano solo sulla modellazione dei rendimenti e non sulla covarianza o varianza dei rendimenti. Spiegano che guardando solo i rendimenti, potresti perdere informazioni e struttura che altri possono acquisire per fare soldi. Il relatore introduce quindi l'idea di modellare la varianza e la covarianza dei rendimenti utilizzando un residuo composto da due fattori: un termine casuale normalizzato con varianza unitaria e un termine di inviluppo che cattura la covarianza dei residui. Notano che i modelli per il residuo scalare sono ben consolidati, ma la modellazione di un residuo multivariato con un coefficiente di matrice 500 per 500 richiede modelli molto più complessi.

  • 00:20:00 Il relatore spiega le sfide della stima dei parametri con dati insufficienti e troppi parametri, che portano all'overfitting. Per risolvere questo problema è necessario imporre una sparsità di basso rango per analizzare il modello di Vega e formulare alcuni vincoli. Il relatore introduce il concetto di robustezza, in cui consideriamo che la distribuzione gaussiana non è adeguata per l'ingegneria finanziaria a causa delle code pesanti e dei piccoli regimi campionari. Gli stimatori campionari tradizionali basati sulla distribuzione gaussiana danno come risultato stimatori poco performanti. Per affrontare questo problema, dobbiamo riformulare tutto senza assumere una distribuzione gaussiana e le code pesanti possono essere affrontate con metodi di riduzione o regolarizzazione, che sono stati utilizzati in vari settori, tra cui finanza e comunicazioni.

  • 00:25:00 Il relatore discute la stima robusta, che è uno strumento utilizzato in finanza per effettuare stime più accurate nonostante i vari valori anomali nei dati. Il relatore spiega che le distribuzioni ellittiche possono essere utilizzate per modellare distribuzioni a coda pesante e che i pesi di ciascun campione possono essere calcolati attraverso un metodo iterativo. Inoltre, l'oratore spiega lo stimatore Tyler, che normalizza i campioni e stima il PDF del campione normalizzato in modo da rimuovere la forma della coda. Questo stimatore può essere utilizzato insieme a stimatori robusti per fornire una stima più accurata delle matrici di covarianza. Il relatore spiega quindi come includere i termini di regolarizzazione e sviluppare algoritmi per ottenere una migliore comprensione delle osservazioni, con un grafico raffigurato per mostrare l'errore nella stima delle matrici di covarianza rispetto al numero di campioni.

  • 00:30:00 Il relatore discute concetti finanziari come la stima di Wolfe, la stima di Tyler e la cointegrazione. La stima di Wolfe è un grande miglioramento, ma presuppone ancora una distribuzione gaussiana. La stima di Tyler è una buona alternativa ma richiede almeno 40 campioni per un modello a 14 dimensioni. La cointegrazione, un concetto specifico in finanza, è l'idea che il prezzo relativo di due azioni possa essere più facile da prevedere rispetto ai singoli prezzi, consentendo ai trader di fare soldi attraverso il trading di coppie. La differenza tra correlazione e cointegrazione è che la correlazione riguarda le variazioni a breve termine mentre la cointegrazione riguarda più il comportamento a lungo termine. Il relatore illustra questi concetti con vari grafici e trame.

  • 00:35:00 Il relatore spiega il concetto di tendenza comune e come si collega allo spread trading. La tendenza comune è una passeggiata casuale condivisa da due azioni con una componente comune. Sottraendo la tendenza comune dallo spread tra i prezzi delle azioni, il trader rimane con un residuo che è media zero, rendendolo un buon indicatore per l'inversione media, una proprietà che può essere utilizzata per lo spread trading. Il trader fissa due soglie sullo spread e compra quando è sottovalutato e vende quando si riprende, guadagnando sulla differenza. I minimi quadrati possono essere utilizzati per stimare la gamma, ma richiede di trovare i due stock che sono co-integrati e il valore di gamma. Il relatore mostra un esempio di uno scenario reale di spread trading.

  • 00:40:00 L'oratore spiega come interviene Kalman quando c'è un cambiamento nel regime e la cointegrazione viene persa a causa del cambiamento della gamma, e come si adatta a queste variazioni. L'oratore utilizza due azioni come esempio per confrontare il tracciamento di MU e gamma utilizzando i minimi quadrati, Kalman e i minimi quadrati rotanti, e conclude che Kalman funziona meglio. La linea verde per il tracciamento di Kalman rimane intorno allo zero, mentre la linea nera per i minimi quadrati va su e giù, causando perdite di denaro per un periodo di due anni. Pertanto, l'oratore suggerisce di utilizzare Kalman per una stima affidabile nell'ingegneria finanziaria.

  • 00:45:00 Il relatore confronta le prestazioni dei modelli di addestramento dei minimi quadrati e di Kalman e conclude che il metodo di Kalman funziona bene nell'ingegneria finanziaria, mentre il modello dei minimi quadrati si assottiglia dopo un certo punto. Discute l'uso di modelli di Markov nascosti per rilevare i regimi di mercato, che aiutano a cambiare le strategie di investimento a seconda che il mercato sia in uno stato buono o cattivo. Inoltre, esplora il concetto di ottimizzazione del portafoglio e spiega che i portafogli sono vettori con pesi che indicano agli investitori quanti soldi investire in un'azione. Anche il rendimento atteso e la varianza del rendimento del portafoglio sono fattori chiave utilizzati per progettare i portafogli. Il relatore fa un confronto con i modelli di beamforming e di filtraggio lineare, che utilizzano modelli di segnale simili all'ottimizzazione del portafoglio.

  • 00:50:00 Il relatore discute di come le tecniche di comunicazione e di elaborazione del segnale possono essere applicate alla finanza. Il concetto di rapporto segnale/rumore nelle comunicazioni è simile all'indice di Sharpe nella finanza, che è un rapporto tra il rendimento del portafoglio e la volatilità. L'ottimizzazione del portafoglio, in particolare il portafoglio di Markowitz, che comporta la massimizzazione del rendimento atteso e la minimizzazione della varianza, viene presentata come un semplice problema convesso. Il relatore osserva inoltre che il portafoglio di Markowitz non viene spesso utilizzato nella pratica a causa della sua sensibilità agli errori di stima e alla dipendenza dalla varianza come misura del rischio. Tuttavia, le tecniche di scarsità dell'elaborazione del segnale possono essere applicate al tracciamento dell'indice, dove invece di acquistare centinaia di titoli per tracciare un indice, viene utilizzato solo un sottoinsieme di titoli. Infine, il relatore propone un miglioramento delle tecniche di scarsità negli errori di tracciamento.

  • 00:55:00 L'oratore discute del "borse trading" e dell'uso dei portafogli nel trading. Utilizzando il modello VaR (value at risk), il relatore spiega come si può fare trading di portafoglio con due azioni e un portafoglio di due componenti con peso uno e meno gamma. L'oratore introduce quindi la matrice PI e la matrice beta, che fornisce un sottospazio di spread di ritorno alla media che possono essere utilizzati per l'arbitraggio statistico. L'uso della matrice beta nell'ottimizzazione aiuta a trovare la direzione migliore all'interno del sottospazio e produce risultati migliori rispetto al semplice utilizzo della sola beta magica. L'oratore promuove anche il suo libro, "A Signal Processing Perspective on Financial Engineering", che è un punto di ingresso per le persone che elaborano segnali interessate al campo della finanza.

  • 01:00:00 Il relatore discute diversi approcci al trading nell'ingegneria finanziaria, incluso il trading sullo spread utilizzando la fine del trend di prezzo e piccole variazioni. Spiega che esistono due famiglie di strategie di investimento: quelle che fanno soldi basandosi sul trend e su piccole variazioni, e quelle che fanno soldi con il rumore, ignorando il trend quando si forma uno spread. Il relatore discute anche dell'apprendimento automatico nella finanza e spiega che la mancanza di dati pone un problema per l'utilizzo del deep learning nella finanza, poiché il deep learning richiede una grande quantità di dati, che spesso è limitata nella finanza. Infine, discute la nozione di cointegrazione e spiega diversi approcci alla stima delle dimensioni del vettore per più di due stock.

  • 01:05:00 Il relatore discute la questione delle grandi aziende che hanno troppi soldi, che possono guidare il mercato quando investono. Menzionano anche il tema dell'esecuzione degli ordini nel settore finanziario, in cui gli ordini di grandi dimensioni vengono tagliati in piccoli pezzi e inviati lentamente per evitare di sconvolgere il mercato. Questo ramo della finanza comporta molta ottimizzazione e può diventare molto matematico, con molti documenti sull'argomento nella teoria del controllo. L'oratore suggerisce di porre ulteriori domande durante la pausa caffè e ringrazia il pubblico per la partecipazione.
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
  • 2019.10.31
  • www.youtube.com
Plenary Talk by Prof. Daniel P Palomar on "Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, HMM, Optimization, et Cetera"Plen...
 

"Kalman Filtering with Applications in Finance" di Shengjie Xiu, tutorial del corso 2021



"Kalman Filtering with Applications in Finance" di Shengjie Xiu, tutorial del corso 2021

Nel video intitolato "Kalman Filtering with Applications in Finance", viene esplorato il concetto di modelli basati sullo stato e la loro applicazione nella finanza. Il relatore introduce il filtro di Kalman come una tecnica versatile per prevedere lo stato di un sistema sulla base di osservazioni precedenti e correggere la previsione utilizzando le osservazioni correnti. Il video copre anche il Common Smoother e l'algoritmo EM, che vengono utilizzati per analizzare i dati storici e apprendere i parametri di un modello statale per la finanza.

Il video inizia illustrando il concetto di modelli basati sullo stato utilizzando l'esempio di un'auto che percorre un asse con posizioni nascoste. Il relatore spiega come i modelli basati sullo stato consistono in matrici di transizione e osservazione che mappano lo stato nello spazio osservato. Questi modelli possono gestire più stati o sensori che registrano le posizioni contemporaneamente. Lo stato nascosto segue una proprietà di Markov, portando a un'elegante forma di probabilità.

Il relatore approfondisce quindi l'algoritmo del filtro di Kalman e la sua applicazione in finanza. L'algoritmo prevede passaggi di previsione e correzione, in cui l'incertezza è rappresentata dalla varianza di una funzione gaussiana. Il guadagno comune, che determina il peso tra la previsione e l'osservazione, viene evidenziato come un fattore cruciale. La semplicità e l'efficienza computazionale del filtro di Kalman sono enfatizzate.

Viene discusso un esperimento che confronta l'affidabilità dei dati del GPS e del contachilometri nella previsione della posizione di un'auto, dimostrando l'efficacia del filtro di Kalman anche quando alcune fonti di dati sono inaffidabili. Tuttavia, si noti che il filtro di Kalman è progettato per modelli stabilizzati gaussiani lineari, il che ne limita l'applicabilità.

Il video introduce anche il Common Smoother, che fornisce prestazioni più fluide rispetto al Common Filter e risolve il problema della tendenza al ribasso del filtro. Vengono discussi la necessità di addestrare i parametri in finanza e il concetto di parametri variabili nel tempo. L'algoritmo Expectation-Maximization (EM) viene presentato come un mezzo per apprendere i parametri quando gli stati nascosti sono sconosciuti.

Il relatore spiega l'algoritmo EM, che consiste nel passo E e nel passo M, per calcolare le distribuzioni a posteriori degli stati latenti e ottimizzare la funzione obiettivo per la stima dei parametri. Viene evidenziata l'applicazione del modello statale in finanza, in particolare per la decomposizione del volume degli scambi infragiornalieri.

Varie varianti del filtro Kalman, come il filtro Kalman esteso e il filtro Kalman non profumato, sono menzionate come soluzioni per gestire la funzionalità non lineare e il rumore. I filtri antiparticolato vengono introdotti come metodo computazionale per modelli complessi che non possono essere risolti analiticamente.

Il video si conclude discutendo i limiti delle soluzioni analitiche e la necessità di metodi computazionali come i metodi Monte Carlo. Il relatore riconosce la natura impegnativa di questi processi, ma sottolinea gli aspetti affascinanti del filtraggio di Kalman.

Nel complesso, il video fornisce un'esplorazione approfondita dei modelli basati sullo stato, del filtro di Kalman e delle loro applicazioni in ambito finanziario. Copre i concetti fondamentali, i passaggi algoritmici e le considerazioni pratiche, menzionando anche varianti avanzate e metodi computazionali. Il relatore sottolinea la rilevanza e il potere dei modelli basati sullo stato nel rivelare informazioni nascoste e sottolinea i continui progressi nel campo.

  • 00:00:00 Il presentatore del video introduce il concetto di modelli basati sullo stato utilizzando un semplice esempio di un'auto che percorre un asse con posizioni nascoste denotate come "asse z". Gli stati nascosti, indicati come "jt" nel tempo t, sono sconosciuti all'osservatore, proprio come nel mercato azionario dove lo stato del mercato è nascosto. Il relatore descrive due modelli relativi ai modelli basati sullo stato, il filtro comune e il comune smoother, e come apprendere automaticamente i parametri all'interno del modello basato sullo stato. Infine, il video discute le applicazioni dei modelli statali nella finanza. Vengono introdotte l'equazione di stato e l'equazione di osservazione, in cui lo stato dipende solo dal nodo precedente e ogni osservazione si basa su stati nascosti rilevanti.

  • 00:05:00 Il relatore spiega i modelli basati sullo stato e come sono costituiti da matrici di transizione e osservazione che mappano lo stato nello spazio osservato, che può essere diverso. Lo stato e l'osservazione possono essere vettori con più stati o sensori che registrano la posizione simultaneamente, il che consente una forma più generica. Lo stato nascosto segue una proprietà di Markov, che porta a un'elegante forma di probabilità. Il relatore chiarisce i concetti di previsione, filtraggio e livellamento e come si combinano per creare l'algoritmo forward nel filtro di Kalman. Il filtro di Kalman è composto da due componenti: previsione e correzione, ed è stato progettato per la prima volta da Kalman e utilizzato nel progetto Apollo per tracciare veicoli spaziali. Ora è ampiamente utilizzato in molte aree, inclusa la previsione di serie temporali nella finanza.

  • 00:10:00 Viene introdotto l'algoritmo di Kalman Filtering e viene discussa la sua applicazione in ambito finanziario. L'algoritmo prevede la previsione dello stato di un sistema sulla base di osservazioni precedenti e quindi la correzione della previsione utilizzando le osservazioni correnti. L'incertezza nella previsione è rappresentata dalla varianza di una funzione gaussiana e la correzione viene effettuata moltiplicando le distribuzioni gaussiane di previsione e osservazione. Viene sottolineata l'importanza del guadagno comune, che determina il peso tra la previsione e l'osservazione. L'algoritmo si rivela abbastanza semplice e coinvolge solo poche righe di codice.

  • 00:15:00 Il docente discute un esperimento in cui l'affidabilità del GPS e del contachilometri sono stati confrontati in un'equazione di stato. I risultati hanno mostrato che l'approccio del filtro Kalman ha avuto successo nel prevedere la posizione di un'auto, anche quando il GPS non era affidabile durante tratti specifici del viaggio. Il relatore ha anche discusso i pro ei contro del filtro di Kalman e ha notato la sua efficienza computazionale e il fatto che è ampiamente utilizzato nelle applicazioni in tempo reale. Tuttavia, uno dei suoi limiti è che è progettato per modelli stabilizzati gaussiani lineari. Il docente ha anche discusso brevemente del Common Smoother e del suo utilizzo nell'analisi dei dati storici.

  • 00:20:00 La performance del comune smoother in finanza viene presentata usando l'esempio di un'auto che attraversa un tunnel. Lo smoother comune fornisce prestazioni molto più fluide rispetto al filtro comune e risolve il problema della tendenza al ribasso del filtro, fornendo una migliore approssimazione. Prima di eseguire lo smoother comune, è necessario implementare la funzione di filtro comune in avanti. La sezione copre anche il concetto di parametri in finanza, la necessità di addestrarli e come possono variare nel tempo. Viene introdotta la teoria dell'apprendimento, inclusa la stima della massima verosimiglianza e l'algoritmo di massimizzazione delle aspettative per trovare parametri quando gli stati nascosti sono sconosciuti. L'algoritmo EM consiste in due fasi, la fase di aspettativa e la fase di massimizzazione, per calcolare le distribuzioni a posteriori degli stati latenti e il valore atteso dell'ipotesi.

  • 00:25:00 Il relatore discute l'algoritmo EM e come può essere utilizzato per apprendere i parametri di un modello statale per la finanza. L'algoritmo è costituito da due fasi: la fase E, in cui la probabilità a posteriori viene calcolata utilizzando il filtro comune e lo smoother, e la fase M, in cui la funzione obiettivo viene massimizzata per trovare i nuovi parametri di stima. I parametri vengono continuamente ripetuti e ottimizzati finché non convergono. Il relatore spiega anche come questo modello può essere applicato alla finanza, in particolare per quanto riguarda la scomposizione del volume di trading infragiornaliero, dove le componenti giornaliere e periodiche sono separate utilizzando il modello. Il relatore osserva che l'implementazione del modello è semplice utilizzando i pacchetti esistenti come i marchi in R.

  • 00:30:00 Il relatore discute il modello di stato utilizzato in finanza, che consiste in uno stato nascosto con componenti sia giornaliere che periodiche, e un modello di osservazione che combina i termini giornalieri e periodici per formare il volume degli scambi. Il modello viene analizzato utilizzando un filtro di Kalman e uno smoother e l'algoritmo EM viene utilizzato per apprendere i parametri in modo efficiente. Il modello può essere utilizzato anche per la previsione di serie temporali prevedendo il futuro termine giornaliero e mantenendo lo stesso termine stagionale. Il modello basato sullo stato è utile per trovare informazioni nascoste e può essere applicato anche ad altre applicazioni finanziarie.

  • 00:35:00 Il relatore discute il potere dei modelli basati sullo stato e come possono rivelare informazioni nascoste nelle osservazioni. Il filtro di Kalman è una tecnica versatile e utile che può essere applicata praticamente in qualsiasi area, compresa la finanza. Mentre il filtro Kalman è progettato per casi più semplici, altre varianti possono essere utilizzate per modelli più complicati. Il filtro Kalman esteso e il filtro Kalman non profumato sono due esempi di varianti in grado di gestire la funzionalità non lineare e il rumore. Inoltre, i filtri antiparticolato vengono utilizzati quando il modello è troppo complicato per soluzioni analitiche. Sebbene il filtro di Kalman sia stato sviluppato negli anni '60, rimane una soluzione ottimale per il modello basato sullo stato in un caso molto specifico, con funzioni di transizione lineare e rumore gaussiano.

  • 00:40:00 Il relatore discute i limiti della risoluzione analitica degli integrali e la necessità di metodi computazionali pesanti come i metodi Monte Carlo per determinati compiti come il filtraggio delle particelle. Osserva che questo non era possibile in passato, ma lo è ora grazie allo stato attuale della tecnologia. L'oratore menziona anche che mentre è un processo impegnativo, è un argomento affascinante, riferendosi al filtraggio di Kalman.
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
  • 2021.05.20
  • www.youtube.com
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, tutorial in course IEDA3180 - Data-Driven Portfolio Optimization, Spring 2020/21.This talk g...
 

"Thrifting Alpha: utilizzo dell'apprendimento d'insieme per rivitalizzare i fattori Alpha stanchi" di Max Margenot


"Thrifting Alpha: utilizzo dell'apprendimento d'insieme per rivitalizzare i fattori Alpha stanchi" di Max Margenot

Nel video intitolato "Thrifting Alpha: Using Ensemble Learning To Enhance Alpha Factors", Max Margenot, data scientist presso Quantopian, condivide le sue intuizioni sull'utilizzo dell'ensemble learning per migliorare le prestazioni dei fattori alfa. Margenot sottolinea l'importanza di costruire un portafoglio combinando segnali indipendenti, con risultati migliori e nuovi. Introduce il concetto di modellazione fattoriale, affronta le complessità della valutazione delle prestazioni del modello ed esplora l'utilizzo creativo dell'apprendimento dell'insieme per un'allocazione efficiente delle risorse.

Margenot inizia introducendo il concetto di "alfa parsimonioso", che mira a rivitalizzare i fattori alfa stanchi utilizzando l'apprendimento d'insieme. I fattori alfa rappresentano rendimenti unici e interessanti nella finanza, differenziandoli da fattori di rischio come i rendimenti di mercato. L'obiettivo è creare un portafoglio combinando segnali indipendenti per generare risultati nuovi e migliori. Fornisce inoltre una breve panoramica del Capital Asset Pricing Model e spiega come Quantopian funge da piattaforma gratuita per la ricerca quantitativa.

La modellazione fattoriale è un obiettivo chiave della presentazione di Margenot. Sottolinea come i rendimenti di un portafoglio consistono in rendimenti di mercato e altri fattori inspiegabili. Incorporando fattori classici come small-big (piccola capitalizzazione di mercato rispetto a società con grande capitalizzazione di mercato) e alto meno basso per il rapporto libro/prezzo, il modello può valutare il rischio di mercato ed espandere la sua analisi ad altri flussi di rendimento. Gli obiettivi della modellazione fattoriale includono la diversificazione dei segnali non correlati, la riduzione della volatilità complessiva del portafoglio e l'aumento dei rendimenti.

Il relatore discute la crescente popolarità della modellazione fattoriale nei processi di costruzione del portafoglio, citando un sondaggio di Blackrock che indica che l'87% degli investitori istituzionali incorpora fattori nelle proprie strategie di investimento. Margenot delinea i cinque tipi principali di fattori attorno ai quali ruotano i portafogli: valore, momentum, qualità, volatilità e crescita. Spiega anche il concetto di equità lunga/corta, in cui vengono assunte posizioni sia lunghe che corte sulla base dei valori dei fattori. L'obiettivo è quello di utilizzare queste esposizioni per creare un portafoglio ben bilanciato.

Margenot approfondisce l'universo in cui viene applicato l'algoritmo, sottolineando l'importanza di allineare il modello statistico con l'esecuzione degli scambi. Se le negoziazioni non possono essere eseguite a causa di vincoli, come le limitazioni allo shorting, il mandato della strategia viene violato. Margenot favorisce strategie neutrali rispetto al dollaro che alla fine finiscono per essere neutrali rispetto al mercato. Costruisce portafogli in cui contano solo i valori più alti e più bassi, con l'obiettivo di catturare i rendimenti attesi più alti. La combinazione di più fattori comporta una composizione di un rango combinato, fornendo flessibilità all'interno del portafoglio.

La valutazione delle prestazioni del modello e la gestione di rendimenti inspiegabili pongono sfide, come spiega Margenot. Discute l'importanza di un universo affidabile con liquidità sufficiente e introduce l'universo Q 1500, progettato per filtrare gli elementi indesiderati. Invece di prevedere i prezzi, Margenot sottolinea l'importanza di capire quali azioni sono migliori di altre e di cogliere il valore relativo. Dimostra l'uso dell'API della pipeline all'interno del loro framework per calcolare lo slancio, fornendo esempi di calcoli vettoriali.

L'oratore si concentra sulla creazione di un fattore di slancio che consideri le tendenze sia a lungo che a breve termine. Margenot standardizza i rendimenti e penalizza l'aspetto a lungo termine per affrontare il rischio di inversioni a breve termine. Utilizza un pacchetto chiamato Alpha Ones per valutare il segnale su diverse scale temporali e costruisce un portafoglio utilizzando il fattore momentum. Margenot sottolinea l'importanza di determinare una scala temporale ragionevole e discute i fattori con cui lavora. Sottolinea il flusso di lavoro per la definizione di un universo, i fattori alfa e la combinazione di alfa per costruire un portafoglio azionario long/short.

Margenot discute la combinazione di diversi fattori alfa e la loro costruzione del portafoglio, sottolineando che la combinazione di segnali indipendenti dovrebbe idealmente tradursi in un segnale complessivo più forte. Presenta metodi di aggregazione dinamici e statici per combinare i fattori e costruire un portafoglio. L'aggregazione statica comporta un portafoglio ponderato uguale di diversi fattori, mentre l'aggregazione dinamica regola i pesi dei fattori in base alla loro performance. La standardizzazione dei fattori è essenziale per garantire la comparabilità all'interno di ogni singolo fattore.

L'apprendimento d'insieme è un argomento chiave discusso da Margenot. Spiega che trovare un algoritmo di addestramento costantemente al rialzo può essere difficile, poiché dovrebbe andare oltre la semplice beta. Per superare questa limitazione, utilizza l'apprendimento d'insieme per aggregare più segnali individuali. Margenot utilizza in particolare AdaBoost, una tecnica ben nota nell'apprendimento d'insieme, per addestrare alberi decisionali basati su sei caratteristiche. Questi alberi decisionali prevedono se un asset salirà o scenderà e la previsione finale è determinata dall'output della maggioranza di mille alberi decisionali. Questo approccio consente previsioni più accurate e robuste.

Margenot approfondisce ulteriormente la valutazione del segnale alfa rivitalizzando i fattori alfa stanchi attraverso l'apprendimento dell'insieme. Allena gli alberi decisionali per un mese e tenta di prevedere i rendimenti o se il mercato salirà o scenderà in futuro. Aggregando le prestazioni dei classificatori, estrae l'importanza delle caratteristiche dalla somma ponderata degli alberi decisionali e valuta la lente alfa del segnale. Tuttavia, Margenot riconosce la necessità di incorporare le commissioni e lo slittamento nel processo di valutazione, in quanto possono avere un impatto significativo sui risultati finali.

Incorporare negli algoritmi le considerazioni su commissione e slippage è un aspetto essenziale evidenziato da Margenot. Sottolinea che i costi di trading del mondo reale dovrebbero essere presi in considerazione per garantire la fattibilità dei segnali. Dimostra i potenziali rendimenti e prelievi negativi in un backtester a causa della finestra di addestramento limitata per un classificatore di machine learning e dell'elevato tasso di turnover. Margenot suggerisce di esplorare metodi alternativi di apprendimento dell'insieme o implementazioni della piattaforma per migliorare potenzialmente le prestazioni in futuro. Cita anche gli strumenti che ha utilizzato per l'analisi del fattore alfa e l'analisi del portafoglio.

In tutto il video, Margenot introduce vari strumenti e risorse che possono aiutare a implementare tecniche di apprendimento d'insieme. Raccomanda di controllare il motore di backtesting zipline e di utilizzare la piattaforma Quantiopian, che fornisce l'accesso ad esso. Margenot suggerisce di utilizzare Scikit-learn e il pacchetto Ensembles, che sono preziosi per l'apprendimento automatico, le statistiche e i classificatori. Afferma inoltre di condividere lezioni, algoritmi e soluzioni di modelli sul suo GitHub, fornendo accesso gratuito alla sua esperienza a data scientist e trader.

Verso la fine della presentazione, Margenot discute il processo di rinnovamento dei fattori alfa esistenti utilizzando l'apprendimento d'insieme. Sottolinea che anche se un fattore alfa inizialmente non produce risultati positivi, può essere migliorato. Sottolinea l'importanza della pipeline nella definizione dei calcoli e spiega come l'addestramento dei componenti sui dati storici consente di prevedere i movimenti del mercato con 20 giorni di anticipo. Sebbene la convalida incrociata possa essere difficile con i dati storici, Margenot suggerisce di allenarsi in avanti e prevedere il set di dati successivo come soluzione alternativa.

Margenot conclude discutendo gli aspetti pratici dell'implementazione dell'apprendimento d'insieme per migliorare i fattori alfa. Consiglia di addestrare il classificatore d'insieme per un periodo più lungo e anche di prevedere per un periodo più lungo. Suggerisce di utilizzare uno schema di ponderazione dei fattori e altri vincoli per allocare le risorse tra diverse strategie. Margenot sostiene l'addestramento di un unico modello su tutti gli interpreti all'interno della pipeline, trattando ogni fattore come parte di un modello unificato. Menziona anche ironicamente la possibilità che i fattori facciano l'opposto del loro scopo previsto aggiungendo un segno negativo, sottolineando che si verifica raramente.

In sintesi, il video di Max Margenot fornisce preziose informazioni sul regno dell'apprendimento d'insieme e sulla sua applicazione per migliorare i fattori alfa. Combinando segnali indipendenti e utilizzando tecniche di apprendimento d'insieme, data scientist e trader possono ottimizzare le loro strategie di investimento attraverso approcci avanzati di apprendimento automatico. I consigli pratici, le dimostrazioni e gli strumenti consigliati di Margenot offrono una guida a coloro che cercano di sfruttare l'apprendimento dell'insieme per un processo decisionale più accurato e redditizio nelle strategie di trading.

  • 00:00:00 In questa sezione, Max Margenot, uno scienziato di dati presso Quantopian, introduce il concetto di "alfa alla deriva" che mira a rivitalizzare i fattori alfa stanchi utilizzando l'apprendimento d'insieme. Spiega che i fattori alfa si riferiscono a rendimenti nuovi e interessanti nella finanza, mentre i fattori di rischio sono i soliti rendimenti che tutti conoscono, come il mercato. L'obiettivo è creare un portafoglio combinando segnali indipendenti per ottenere qualcosa di nuovo e risultati migliori. Spiega anche brevemente il Capital Asset Pricing Model e come Quantopian opera come piattaforma gratuita per la ricerca quantitativa.

  • 00:05:00 In questa sezione, il relatore introduce l'idea di un modello fattoriale, che tenta di comprendere i rischi di un portafoglio. L'oratore spiega che i rendimenti di un portafoglio sono costituiti dai rendimenti del mercato e qualcos'altro che è nuovo e inspiegabile. I fattori classici aggiunti a un modello fattoriale includono piccolo - grande, che si riferisce a società con piccola capitalizzazione di mercato rispetto a società con grande capitalizzazione di mercato, e alto meno basso per il rapporto libro/prezzo. Valutando il rischio di mercato e aggiungendo altri fattori, è possibile estendere il modello e confrontare l'esposizione con altri flussi di rendimento. In definitiva, diversificare i segnali non correlati, ridurre la volatilità nel portafoglio complessivo e aumentare i rendimenti sono gli obiettivi della modellazione fattoriale.

  • 00:10:00 In questa sezione, il relatore discute di come la modellazione fattoriale stia diventando sempre più comune nei processi di costruzione del portafoglio. Secondo un sondaggio di Blackrock, l'87% degli investitori istituzionali sta incorporando fattori nel proprio processo di investimento. I cinque tipi principali di fattori attorno ai quali ruotano i portafogli sono il valore, lo slancio, la qualità, la volatilità e la crescita. L'oratore parla anche di long/short equity, che comporta l'andare long su alcune azioni e short su altre utilizzando il valore del fattore per determinare dove vanno long o short. In definitiva, l'obiettivo è utilizzare queste esposizioni per creare un portafoglio.

  • 00:15:00 In questa sezione, Max Margenot discute l'universo in cui viene applicato l'algoritmo. L'algoritmo applica un modello statistico ed esegue operazioni in linea con il modello. Se le negoziazioni non possono essere effettuate a causa di vincoli, come l'impossibilità di andare allo scoperto, viene violato il mandato della strategia. Margenot preferisce strategie neutrali rispetto al dollaro, che generalmente finiscono per essere neutrali rispetto al mercato, e costruisce portafogli in cui contano solo i valori più alti e più bassi per ottenere i rendimenti attesi più elevati. La combinazione di più fattori implica una composizione di un rango combinato, il che implica molto spazio per muoversi ed è per questo che lo definisce specificamente in questo modo.

  • 00:20:00 In questa sezione, il relatore discute le sfide della valutazione delle prestazioni di un modello e come i rendimenti inspiegabili possono essere più scoraggianti delle perdite o dei ribassi spiegati. Parla dell'importanza di avere un universo affidabile con liquidità sufficiente e di come hanno creato l'universo Q 1500 per filtrare gli elementi indesiderati. L'oratore spiega anche quanto il calcolo dei prezzi sia impegnativo e, invece di prevedere i prezzi, si concentra sulla comprensione di quali azioni sono migliori di altre. Spiega quindi la nozione di valore relativo e come catturarlo sia più critico che trovarsi in un mercato al rialzo o al ribasso. Infine, definisce un esempio di vettore e come utilizza l'API della pipeline all'interno del loro framework per calcolare lo slancio.

  • 00:25:00 In questa sezione del video, Max Margenot discute il suo approccio alla creazione di un fattore di slancio che tenga conto delle tendenze sia a lungo che a breve termine. Standardizza i rendimenti e penalizza l'aspetto a lungo termine per affrontare il rischio di un'inversione a breve termine. Utilizza un pacchetto chiamato Alpha Ones per valutare il segnale su diverse scale temporali e alla fine costruisce un portafoglio utilizzando il fattore momentum. Margenot spiega l'importanza di decidere su una scala temporale ragionevole e discute i fattori con cui sta lavorando. Sottolinea inoltre il flusso di lavoro per la definizione di un universo, i fattori alfa e la combinazione di alfa per costruire un portafoglio azionario long/short.

  • 00:30:00 In questa sezione, Max Margenot discute la combinazione di diversi fattori alfa e la loro costruzione del portafoglio, osservando che la combinazione di segnali indipendenti porta idealmente a un segnale complessivo più forte. Presenta metodi di aggregazione dinamica e statica per combinare fattori e costruire un portafoglio, dove l'aggregazione statica è il portafoglio ponderato uguale di diversi fattori, mentre l'aggregazione dinamica comporta la modifica dei pesi dei fattori in base alla loro performance. Inoltre, sottolinea l'importanza di standardizzare i fattori per garantire che siano comparabili all'interno di ogni singolo fattore.

  • 00:35:00 In questa sezione del video, Max Margenot parla dell'apprendimento d'insieme e di come può essere utilizzato per allocare risorse costruite in modo creativo. Spiega che è difficile trovare un buon algoritmo di addestramento che salga costantemente in un modo nuovo che non sia solo beta. Per superare questa limitazione, utilizza l'apprendimento d'insieme per aggregare molti segnali individuali diversi. Usa AdaBoost, un vecchio favorito nell'apprendimento d'insieme, per addestrare alberi decisionali basati sulle sue sei caratteristiche, prevedendo se qualcosa salirà o scenderà. Quindi prende la combinazione vincente da mille diversi alberi decisionali e prende il seno di quel risultato, votando sì o no in base all'output della maggioranza.

  • 00:40:00 In questa sezione, Max Margenot spiega come valutare un segnale alfa utilizzando l'apprendimento d'insieme per rivitalizzare i fattori alfa stanchi. Allena gli alberi decisionali per un mese e cerca di prevedere i rendimenti o se salirà o scenderà un mese nel futuro, basandosi sulle prestazioni aggregate dei classificatori. Quindi estrae l'importanza delle caratteristiche dalla somma ponderata degli alberi decisionali e valuta la lente alfa del segnale. Mentre il valore di adaboost ha un'alta probabilità di portare a un rendimento elevato, riconosce la necessità di portarlo in qualcosa come una lente alfa di des Baux, che incorpora commissioni e slippage.

  • 00:45:00 In questa sezione del video, il presentatore discute l'importanza di incorporare la commissione e lo slittamento negli algoritmi per garantire che i segnali siano ancora buoni dopo il fatto. Mostra quindi i rendimenti e i drawdown negativi in un backtester a causa della finestra di addestramento limitata per un classificatore di machine learning e dell'elevato tasso di turnover. Il relatore suggerisce che l'utilizzo di un diverso metodo di apprendimento dell'insieme o dell'implementazione della piattaforma può portare a prestazioni migliori in futuro. Infine, elenca gli strumenti che ha utilizzato per l'analisi del fattore alfa e l'analisi del portafoglio.

  • 00:50:00 In questa sezione, Max Margenot parla dell'utilizzo di Pi-elle e Cool per calcolare l'intenzione alla base di una negoziazione di un algoritmo e di come può aiutare a soddisfare tale intenzione al momento della chiusura della posizione. Raccomanda di controllare il motore di backtesting zipline e di utilizzare la piattaforma Quantiopian per accedervi. Suggerisce inoltre di utilizzare il pacchetto Scikit-learn e Ensembles, ottimo per l'apprendimento automatico, le statistiche e i classificatori. Max Margenot è un docente presso Quantopian e fornisce accesso gratuito alle sue lezioni, algoritmi e soluzioni di modelli sul suo GitHub.

  • 00:55:00 In questa sezione, Max Margenot, un ricercatore quantitativo, discute il suo processo di utilizzo dell'apprendimento d'insieme per rinnovare i fattori alfa esistenti. Spiega che anche se un fattore alfa non ha funzionato inizialmente, è ancora possibile basarsi su di esso e migliorarlo. Tocca anche l'importanza della pipeline nel processo di definizione dei calcoli e come, addestrando i componenti richiesti sui dati storici, sia possibile prevedere l'aumento o la diminuzione con 20 giorni di anticipo. Tuttavia, Margenot sottolinea che la convalida incrociata è difficile da implementare quando si tratta di dati storici, ma la sua tecnica consiste nell'addestrarsi e prevedere il set di dati successivo.

  • 01:00:00 In questa sezione, Max Margenot parla dell'uso dell'apprendimento d'insieme per migliorare i fattori alfa. Spiega che ogni volta che allena il classificatore dell'insieme, i pesi assegnati a ciascun fattore sono diversi in base alle prestazioni del mese precedente. Suggerisce di allenarsi per un periodo più lungo e di prevedere per un periodo più lungo. Suggerisce inoltre di utilizzare uno schema di ponderazione dei fattori e altri vincoli per l'allocazione tra diverse strategie. Margenot parla anche di addestrare un singolo modello su tutti gli interpreti all'interno della pipeline per tutti i fattori, piuttosto che trattare ogni fattore come un singolo modello. Scherza sulla possibilità che i fattori facciano l'opposto di quello che dovrebbero fare quando viene aggiunto un segno negativo e spiega che non succede mai.

  • 01:05:00 In questa sezione, il relatore discute il loro processo di riequilibrio, che avviene una volta al mese, poiché lo ritengono più fedele al loro processo di ricerca. Riconoscono inoltre che i dati rumorosi potrebbero influenzare le loro previsioni, poiché ottengono solo un vantaggio dell'1% sul set di addestramento dato. L'oratore considera anche l'idea di aggiungere una funzione su o giù al proprio modello, ma ritiene che sia più uno sforzo di quanto valga la pena. Discutono brevemente dell'uso delle reti neurali, riconoscendone il potere ma affermando anche di preferire i metodi più interpretabili che stanno attualmente utilizzando. Infine, il relatore conclude discutendo l'importanza di utilizzare l'apprendimento automatico come strumento per la classificazione o la regressione, piuttosto che per la scoperta.

  • 01:10:00 In questa sezione del video, il relatore discute l'utilità dell'utilizzo di adaboost per gestire i valori anomali quando si ha a che fare con un gran numero di cose disparate. L'oratore menziona anche l'uso dell'apprendimento d'insieme per prevedere cose con rendimenti alti e rendimenti bassi senza scomporli in alcun tipo di canestro fino a quando non viene effettuata la previsione. Menzionano l'opzione di utilizzare una terza cosa per la previsione. Tuttavia, suggeriscono di iniziare con due cose per evitare di occuparsi di molto altro.
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in San Francisco on July 18th, 2017. Video work was done by Matt Fisher, http://www.precipitate....
 

MIT 18.S096 Topics in Mathematics w Applications in Finance - 1. Introduzione, termini e concetti finanziari



1. Introduzione, termini e concetti finanziari

In questo video informativo, gli spettatori vengono accompagnati in un viaggio attraverso vari termini e concetti finanziari per stabilire una solida base nel mondo della finanza. Il corso si rivolge a studenti universitari e laureati che sono interessati a perseguire una carriera in questo campo. Ha lo scopo di fornire un'introduzione alla finanza moderna e fornire agli studenti le conoscenze essenziali.

Il docente inizia approfondendo la storia dei termini e dei concetti finanziari, facendo luce su termini importanti come Vega, Kappa e volatilità. Vega è spiegato come una misura della sensibilità alla volatilità, mentre Kappa misura la volatilità delle variazioni di prezzo nel tempo. Il docente sottolinea che il campo della finanza ha subito una notevole trasformazione negli ultimi tre decenni, guidata dall'integrazione dei metodi quantitativi.

Il video esplora anche l'evoluzione della professione di trading e i cambiamenti che ha subito negli ultimi 30 anni. Tocca i diversi prodotti di trading disponibili sul mercato e il modo in cui vengono scambiati. Il docente approfondisce poi le cause della crisi finanziaria del 2008, attribuendole alla deregolamentazione del settore bancario, che ha consentito alle banche d'affari di offrire prodotti complessi agli investitori.

Viene sottolineata l'importanza dei mercati finanziari, poiché svolgono un ruolo cruciale nel collegare prestatori e mutuatari, offrendo allo stesso tempo opportunità agli investitori di generare rendimenti più elevati sui loro investimenti. Il video mette in evidenza i diversi attori nei mercati finanziari, tra cui banche, dealer, fondi comuni di investimento, compagnie assicurative, fondi pensione e hedge fund.

In tutto il video, vengono discussi in dettaglio vari termini e concetti finanziari. Vengono spiegati la copertura, il market making e il trading proprietario e vengono introdotti termini come beta e alfa. Il beta è descritto come la differenza di rendimento tra due asset, mentre l'alfa rappresenta la differenza di rendimento tra un'azione e l'indice S&P 500. Il docente tocca anche la gestione del portafoglio in relazione ad alfa e beta.

Il video fornisce approfondimenti su diversi tipi di operazioni e su come vengono eseguite. Spiega il ruolo della copertura e del market making nella protezione degli investitori. Inoltre, il video presenta Mr. White, che elabora termini e concetti finanziari utilizzati nei mercati. Delta, gamma e theta sono discussi nel contesto del trading azionario e viene evidenziata l'importanza di comprendere l'esposizione alla volatilità, i requisiti patrimoniali e i rischi di bilancio. Mr. White esplora anche vari metodi utilizzati per analizzare le azioni, tra cui l'analisi fondamentale e l'arbitraggio.

Il video menziona un cambiamento di politica da parte della Federal Reserve per ridurre il quantitative easing, che ha causato cautela tra gli investitori e ha portato a una svendita del mercato azionario. Sottolinea la natura impegnativa della determinazione del prezzo degli strumenti finanziari e della gestione dei rischi utilizzando modelli matematici. Il docente sottolinea la necessità di aggiornare costantemente le strategie di trading a causa della natura dinamica del mercato.

Il concetto di rischio e ricompensa viene esaminato a fondo e il video dimostra come il comportamento umano a volte possa portare a risultati inaspettati nel processo decisionale finanziario. Viene presentato un esempio, in cui al pubblico vengono fornite due opzioni con diverse probabilità e potenziali guadagni o perdite, evidenziando le diverse preferenze che gli individui possono avere.

Al termine del video, gli spettatori sono incoraggiati a iscriversi a un corso futuro e vengono suggeriti compiti a casa facoltativi relativi alla compilazione di un elenco di concetti finanziari. Questo video completo funge da eccellente guida introduttiva ai termini e ai concetti finanziari, fornendo un solido punto di partenza per coloro che sono interessati al campo della finanza.

  • 00:00:00 Questo video introduce concetti, termini e formule finanziari e fornisce un'introduzione alla finanza moderna. Il corso è aperto a studenti universitari e gli studenti laureati sono i benvenuti. L'obiettivo è quello di fornire una base per gli studenti che vogliono intraprendere una carriera nella finanza.

  • 00:05:00 Questa conferenza discute la storia dei termini e dei concetti finanziari, tra cui Vega, Kappa e volatilità. Vega è una misura della sensibilità di un libro o di un portafoglio alla volatilità e Kappa è una misura di quanto volatile può cambiare un prezzo nel tempo. La conferenza rileva inoltre che la finanza non è sempre stata una professione quantitativa e che gli ultimi 30 anni sono stati una trasformazione nel settore dovuta all'introduzione di metodi quantitativi.

  • 00:10:00 Questo video fornisce una panoramica sul settore finanziario, compreso il modo in cui la professione di trading è cambiata negli ultimi 30 anni. Copre anche le diverse forme di trading di prodotti e il modo in cui vengono scambiati.

  • 00:15:00 La crisi finanziaria del 2008 è stata in gran parte causata dalla deregolamentazione del settore bancario, che ha reso più facile per le banche di investimento offrire prodotti complessi agli investitori.

  • 00:20:00 I mercati finanziari sono essenziali per colmare il divario tra prestatori e mutuatari e per aiutare gli investitori a generare rendimenti o rendimenti più elevati sui loro investimenti. Esistono diversi tipi di attori nei mercati, tra cui banche, dealer, fondi comuni di investimento, compagnie assicurative, fondi pensione e hedge fund.

  • 00:25:00 In questo video vengono discussi termini e concetti finanziari, tra cui copertura, market making e trading proprietario. Il beta è spiegato come la differenza di rendimento tra due asset, l'alfa è la differenza di rendimento tra un titolo e l'indice S&P 500 e la gestione del portafoglio è discussa in relazione all'alfa e al beta.

  • 00:30:00 Questo video spiega come vengono eseguiti diversi tipi di operazioni e come la copertura e il market making possono aiutare a proteggere gli investitori.

  • 00:35:00 In questo video, Mr. White spiega i diversi termini e concetti finanziari utilizzati nei mercati. Delta, gamma e theta sono tutti concetti importanti da comprendere quando si fa trading di azioni. Vengono discussi anche l'esposizione alla volatilità, i requisiti patrimoniali e i rischi di bilancio. Infine, Mr. White spiega i diversi metodi utilizzati per analizzare le azioni, tra cui l'analisi fondamentale e l'arbitraggio.

  • 00:40:00 Il cambio di politica della Federal Reserve si riferisce a un piano per ridurre la quantità di allentamento quantitativo che stanno facendo. Ciò ha causato la svendita del mercato azionario, poiché gli investitori sono diventati più cauti riguardo al futuro. I modelli matematici vengono utilizzati per valutare gli strumenti finanziari e per gestire il rischio, entrambi compiti impegnativi. Inoltre, le strategie di trading devono essere costantemente aggiornate a causa della natura in rapida evoluzione del mercato.

  • 00:45:00 Il presentatore discute i concetti di rischio e ricompensa e mostra come il comportamento umano può portare a risultati inaspettati nelle decisioni finanziarie. Quindi presenta due opzioni - una con una probabilità dell'80% di perdere denaro e una con una probabilità del 100% di vincere - e chiede al pubblico quale sceglierebbe. La maggior parte del pubblico sceglie l'opzione con il valore atteso più alto, ma una minoranza sceglie l'opzione b, che ha minori possibilità di vincita ma il potenziale per perdere più soldi.

  • 00:50:00 Il video discute termini e concetti finanziari e fornisce un esempio di come le persone potrebbero imparare dalle loro esperienze. Il video suggerisce anche il compito facoltativo di compilare un elenco di concetti finanziari.

  • 00:55:00 Questo video introduce termini e concetti finanziari, inclusi i concetti di derivati, metodi Monte Carlo e commercio elettronico. Jake fornisce due esempi di progetti su cui ha lavorato, uno che prevedeva la stima della derivata rumorosa di una funzione e l'altro che prevedeva una migliore previsione dei prezzi delle valute.

  • 01:00:00 Questo video introduce termini e concetti finanziari e chiede agli spettatori di iscriversi a un corso futuro.
1. Introduction, Financial Terms and Concepts
1. Introduction, Financial Terms and Concepts
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter Kempthorne,...
 

2. Algebra lineare



2. Algebra lineare

Il video copre ampiamente l'algebra lineare, concentrandosi su matrici, autovalori e autovettori. Spiega che gli autovalori e gli autovettori sono vettori speciali che subiscono il ridimensionamento quando viene applicata una trasformazione lineare. Ogni matrice n per n ha almeno un autovettore e, utilizzando una matrice ortonormale, diventa possibile scomporre una matrice in direzioni, semplificando la comprensione delle trasformazioni lineari. Il video introduce anche Singular Value Decomposition (SVD) come un altro strumento per comprendere le matrici, in particolare per una classe più generale di matrici. SVD consente la rappresentazione di una matrice come il prodotto di matrici ortonormali e una matrice diagonale, che consente di risparmiare spazio per matrici di rango inferiore. Inoltre, il video evidenzia l'importanza degli autovettori nella misurazione della correlazione dei dati e nella definizione di un nuovo sistema di coordinate ortogonali senza alterare i dati stessi.

Oltre ai concetti di cui sopra, il video approfondisce due importanti teoremi di algebra lineare. Il primo è il teorema di Perron-Frobenius, che afferma che una matrice non simmetrica possiede un unico autovalore con il valore assoluto più grande, insieme a un corrispondente autovettore con voci positive. Questo teorema ha applicazioni pratiche in vari campi. Il secondo teorema discusso è la Singular Value Decomposition (SVD), che consente la rotazione dei dati in un nuovo orientamento rappresentato da basi ortonormali. SVD è applicabile a una gamma più ampia di matrici e consente la semplificazione eliminando colonne e righe non necessarie, in particolare in matrici con rango significativamente inferiore rispetto al numero di colonne e righe.

Il video fornisce spiegazioni dettagliate, esempi e prove di questi concetti, sottolineando la loro rilevanza in diversi campi dell'ingegneria e della scienza. Incoraggia gli spettatori a comprendere i principi sottostanti e a interagire con il materiale.

  • 00:00:00 In questa sezione, il professore inizia ripassando l'algebra lineare, supponendo che gli spettatori abbiano seguito un corso su di essa in precedenza. Adatta gli appunti delle lezioni in modo che siano una revisione per coloro che hanno seguito il corso di algebra lineare più elementare. La lezione si concentra principalmente sulle matrici e sul loro significato. Il professore spiega che una matrice è una raccolta di numeri che possono essere utilizzati per organizzare dati come i prezzi delle azioni. Una matrice è anche un operatore che definisce una trasformazione lineare da uno spazio vettoriale n-dimensionale a uno spazio vettoriale m-dimensionale. Il professore introduce anche il concetto di autovalori e autovettori e discute come possono essere applicati a insiemi di dati per produrre proprietà e quantità importanti.

  • 00:05:00 In questa sezione, il video di YouTube spiega il concetto di autovalori e autovettori e la loro importanza per l'algebra lineare. È definito come un numero reale e un vettore che soddisfa la condizione in cui A per v è uguale a lambda per V e v è un autovettore corrispondente a lambda. Il determinante di (A-lambda I) è uguale a 0 se A-lambda I non ha rango pieno, e det(A-lambda I) è un polinomio di grado n per matrici quadrate. Il video evidenzia inoltre che esiste sempre almeno un autovalore e un autovettore, e il significato geometrico di questo concetto è spiegato dal punto di vista della trasformazione lineare, dove A prende il vettore in R^3 e lo trasforma in un altro vettore in R^ 3.

  • 00:10:00 In questa sezione del video, il concetto di autovalori e autovettori viene introdotto come vettori speciali che, quando viene applicata una trasformazione lineare, vengono semplicemente ridimensionati di una certa quantità, nota come lambda. È stabilito che ogni matrice n per n ha almeno un autovettore e una matrice ortonormale può essere utilizzata per scomporre una matrice in direzioni, rendendo la trasformazione lineare di facile comprensione. Infine, viene spiegato che le matrici che possono essere scomposte in queste direzioni sono le più importanti nell'algebra lineare, e quelle direzioni sono definite dalla matrice U, mentre D definisce quanto scalerà.

  • 00:15:00 In questa sezione viene introdotto il concetto di matrici diagonalizzabili. Sebbene non tutte le matrici siano diagonalizzabili, esiste una classe speciale di matrici che lo sono sempre e la maggior parte delle matrici che verranno studiate nel corso rientrano in questa categoria. Una matrice è considerata diagonalizzabile se si scompone in n direzioni, e questo è particolarmente vero per le matrici simmetriche, che hanno autovalori reali e sono sempre diagonalizzabili. Viene discusso il Teorema 2, che fornisce una dimostrazione della diagonalizzabilità delle matrici simmetriche.

  • 00:20:00 In questa sezione, il relatore spiega come diagonalizzare matrici simmetriche, che coinvolge autovalori e autovettori. Il relatore sottolinea poi l'importanza di ricordare i Teoremi 1 e 2 per matrici simmetriche reali. Sebbene la diagonalizzazione sia possibile per matrici simmetriche, non è sempre possibile per matrici generali. Pertanto, il relatore introduce uno strumento alternativo che può essere utilizzato per tutte le matrici per distillare informazioni importanti attraverso semplici operazioni come il ridimensionamento.

  • 00:25:00 In questa sezione, il relatore introduce la Singular Value Decomposition come secondo strumento per comprendere le matrici, che è simile alla diagonalizzazione ma ha una forma leggermente diversa. Il teorema afferma che per ogni matrice m per n esistono sempre due matrici ortonormali, U e V, e una matrice diagonale, sigma, tale che la matrice può essere scomposta come U moltiplicato per sigma moltiplicato per V trasposto. L'oratore spiega che questo funziona per tutte le matrici generali m per n, mentre la decomposizione di autovalori funziona solo per matrici diagonalizzabili n per n. Inoltre, l'oratore afferma che SVD fornisce un frame di vettori per i quali A funge da operatore di scala e gli spazi per i vettori sono diversi l'uno dall'altro.

  • 00:30:00 In questa sezione, il relatore discute la diagonalizzazione e la scomposizione degli autovalori e come funzionano all'interno dei rispettivi frame. Lo confrontano con la decomposizione del valore singolare, che è applicabile a una classe più generale di matrici. Toccano anche la dimostrazione della decomposizione del valore singolare, che si basa sulla decomposizione degli autovalori. L'oratore sottolinea l'importanza e l'ubiquità di entrambe le forme di decomposizione in molti campi dell'ingegneria e della scienza e incoraggia gli spettatori a provare a immaginare e comprendere i concetti alla base della teoria.

  • 00:35:00 In questa sezione del video viene spiegato il concetto di autovalori e autovettori. Assumendo che tutti gli autovalori tranne i primi r siano zero, gli autovalori vengono riscritti come sigma_1^2, sigma_2^2, sigma_r^2 e 0. Gli autovettori sono quindi definiti come u_1, u_2 fino a u_r, dove u_i è calcolato da dividendo A per v_i per il corrispondente autovalore sigma_i. Con questo, una matrice U è definita comprendente u_1 fino a u_n, e la matrice V è definita come v_1 fino a v_r, e v_r+1 fino a v_n. Moltiplicando queste matrici si ottiene una matrice diagonale, dove le prime r voci diagonali vanno da sigma_1 a sigma_r e le voci rimanenti sono zero.

  • 00:40:00 In questa sezione, il relatore fornisce un tutorial sull'algebra lineare e spiega come definire la matrice U e V applicando A per V/sigma (dove A è A trasposta per A). La diagonale della matrice viene quindi riempita con valori sigma e le colonne sono definite dal prodotto scalare di U trasposta con i valori lambda e V. Il relatore affronta anche un errore nel calcolo, correggendolo e rivelando la semplicità del processo.

  • 00:45:00 In questa sezione, il professore insegna come trovare la decomposizione in valore singolare di una matrice, che può essere un potente strumento. Per ottenere la scomposizione in valori singolari, è necessario trovare gli autovalori e gli autovettori della matrice e disporli correttamente. Anche se può essere un po' macchinoso da fare a mano, è un esercizio utile. Esistono anche modi più efficienti per calcolarlo su un computer, se necessario. Il professore fornisce un esempio di come trovare la scomposizione in valore singolare di una matrice 2x3 e mostra i passaggi per ottenerla.

  • 00:50:00 In questa sezione, il professore spiega il processo per trovare la decomposizione del valore singolare di una matrice. Dimostra come trovare gli autovettori di una matrice e procede mostrando come scomporre la matrice nella forma trasposta U, sigma e V. Sottolinea che gli autovettori che corrispondono a un autovalore pari a zero non sono importanti e possono essere eliminati, risparmiando il calcolo. Il professore conclude questa sezione affermando una diversa forma di scomposizione del valore singolare.

  • 00:55:00 In questa sezione viene introdotta la forma semplificata di SVD. A diventa uguale a U per sigma per V trasposta, dove U è ancora una matrice m per m, anche sigma è m per m e V è una matrice m per n. Funziona solo quando m è minore o uguale a n. La prova è la stessa e l'ultimo passo è eliminare le informazioni irrilevanti. Questa forma semplifica le matrici rimuovendo colonne e righe non necessarie, rendendola molto potente per matrici con un rango molto inferiore rispetto al numero di colonne e righe. Un esempio di ciò sono i prezzi delle azioni con cinque società e 365 giorni all'anno. La forma ridotta consente di risparmiare molto spazio e sarà la forma vista la maggior parte del tempo. Gli autovettori aiutano a misurare la correlazione dei dati e definire un nuovo sistema di coordinate ortogonali senza modificare i dati stessi.

  • 01:00:00 In questa sezione, il professore spiega come la decomposizione del valore singolare (SVD) ruoti i dati in un diverso orientamento rappresentato dalla base ortonormale in cui ti stai trasformando. Le correlazioni tra diversi stock sono rappresentate da come questi punti sono orientati nello spazio trasformato. Inoltre, il professore menziona il teorema di Perron-Frobenius, che sembra teorico, ma Steve Ross ha trovato un risultato che fa uso di questo teorema chiamato teorema di recupero di Steve Ross. Il teorema afferma che per una matrice simmetrica n per n le cui voci sono tutte positive, esiste un autovalore più grande, lambda_0.

  • 01:05:00 In questa sezione, il relatore introduce un noto teorema di algebra lineare che ha molte applicazioni teoriche, tra cui la teoria della probabilità e la combinatoria. Il teorema afferma che per una matrice non simmetrica esiste un unico autovalore con il valore assoluto più grande, che è un numero reale. Inoltre, esiste un autovettore con voci positive corrispondenti a questo autovalore. Il teorema è stato utilizzato in molti contesti e il relatore descrive brevemente come funziona quando la matrice è simmetrica. La dimostrazione implica diverse osservazioni, incluso il fatto che il più grande autovalore positivo domina il più piccolo autovalore negativo se tutti gli autovalori hanno voci positive.

  • 01:10:00 In questa sezione, il relatore spiega come gli elementi positivi di una matrice hanno un impatto sugli autovettori della matrice. Se un vettore ha voci non positive o voci negative, invertendo il segno delle voci e ottenendo un nuovo vettore aumenterà la grandezza, cosa che non può accadere in una matrice con voci positive. Anche l'autovettore di una matrice con elementi positivi dovrebbe avere elementi positivi, e questo teorema vale anche in contesti più generali. L'oratore esaminerà questo concetto in seguito, ma entrerà in gioco in seguito.
2. Linear Algebra
2. Linear Algebra
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

3. Teoria della probabilità



3. Teoria della probabilità

Questa serie completa di video sulla teoria della probabilità copre una vasta gamma di argomenti, fornendo una profonda comprensione dei concetti fondamentali e delle loro applicazioni pratiche. Il professore inizia rinfrescando la nostra conoscenza delle distribuzioni di probabilità e delle funzioni generatrici di momenti. Distingue tra variabili casuali discrete e continue e definisce termini importanti come funzione di massa di probabilità e funzione di distribuzione di probabilità. Il professore illustra questi concetti anche con esempi, tra cui la distribuzione uniforme.

Successivamente, il professore approfondisce i concetti di probabilità e aspettativa per variabili casuali. Spiega come calcolare la probabilità di un evento e definisce l'aspettativa (media) di una variabile casuale. Il professore discute anche la nozione di indipendenza per variabili aleatorie e introduce la distribuzione normale come distribuzione universale per variabili aleatorie continue.

Nell'esplorare la modellazione dei prezzi delle azioni e dei prodotti finanziari, il professore sottolinea che l'utilizzo della sola distribuzione normale potrebbe non catturare con precisione l'entità delle variazioni di prezzo. Suggerisce invece di modellare la variazione percentuale come una variabile normalmente distribuita. Inoltre, il professore discute la distribuzione log-normale e la sua funzione di densità di probabilità, evidenziando che i suoi parametri mu e sigma sono derivati dalla distribuzione normale.

La serie di video procede introducendo altre distribuzioni all'interno della famiglia esponenziale, come Poisson e le distribuzioni esponenziali. Queste distribuzioni possiedono proprietà statistiche che le rendono utili nelle applicazioni del mondo reale. Il professore spiega come queste distribuzioni possono essere parametrizzate e sottolinea la relazione tra la distribuzione log-normale e la famiglia esponenziale.

Andando avanti, il professore esplora gli aspetti statistici e il comportamento a lungo termine delle variabili casuali. Spiega il concetto di momenti, rappresentati dai momenti k-esimi di una variabile casuale, e sottolinea l'uso della funzione di generazione dei momenti come strumento unificato per studiare tutti i momenti. Inoltre, il professore discute il comportamento a lungo termine delle variabili casuali osservando più variabili casuali indipendenti con la stessa distribuzione, portando a un grafico che ricorda da vicino una curva.

La serie di video si concentra poi su due importanti teoremi: la legge dei grandi numeri e il teorema del limite centrale. La legge dei grandi numeri afferma che la media delle variabili casuali indipendenti e identicamente distribuite converge alla media in senso debole all'aumentare del numero di prove. La probabilità di deviazione dalla media diminuisce con un numero maggiore di prove. Il teorema del limite centrale dimostra che la distribuzione della media delle variabili casuali indipendenti si avvicina a una distribuzione normale, indipendentemente dalla distribuzione iniziale. La funzione di generazione dei momenti gioca un ruolo chiave nel mostrare la convergenza della distribuzione della variabile casuale.

La convergenza di variabili casuali viene ulteriormente discussa, evidenziando come la funzione di generazione dei momenti può controllare la distribuzione. Il professore introduce il concetto di rake del casinò come mezzo per generare profitti e discute l'influenza della varianza sulla fiducia nelle proprie capacità. Viene spiegata la dimostrazione della legge dei grandi numeri, sottolineando come la media di un numero maggiore di termini riduca la varianza.

Nel contesto di un casinò, il relatore spiega come si può applicare la legge dei grandi numeri. Si noti che un giocatore può avere un leggero svantaggio nei singoli giochi, ma con un campione di grandi dimensioni, la legge dei grandi numeri assicura che il risultato medio tenda verso il valore atteso. Viene esplorata l'idea di un casinò che prende una rake, evidenziando come il vantaggio del giocatore e la fede nei principi matematici possono influenzare i risultati.

Infine, la serie di video approfondisce le leggi debole e forte dei grandi numeri e discute il teorema del limite centrale. La legge debole afferma che la media delle variabili casuali indipendenti e identicamente distribuite converge alla media quando il numero di prove si avvicina all'infinito. La legge forte dei grandi numeri fornisce una forma più forte di convergenza. Il teorema del limite centrale spiega la convergenza della distribuzione della media a una distribuzione normale, anche quando la distribuzione iniziale è diversa.

Nel complesso, questa serie di video offre un'ampia esplorazione dei concetti della teoria della probabilità, comprese le distribuzioni di probabilità, le funzioni di generazione dei momenti, le leggi dei grandi numeri, il teorema del limite centrale e le loro implicazioni pratiche.

  • 00:00:00 In questa sezione, il professore introduce l'argomento della teoria della probabilità, fornendo una panoramica delle distribuzioni di probabilità e concentrandosi sulla funzione generatrice dei momenti. Distingue tra variabili casuali discrete e continue e definisce la funzione di massa di probabilità e la funzione di distribuzione di probabilità. Il professore chiarisce che lo spazio campionario è solitamente considerato come i numeri reali per variabili casuali continue e fornisce esempi di funzioni di massa di probabilità e funzioni di distribuzione di probabilità, inclusa una distribuzione uniforme. Nel complesso, questa sezione funge da ripasso per coloro che hanno familiarità con le basi della teoria della probabilità.

  • 00:05:00 In questa sezione, il professore discute i concetti di probabilità e aspettativa per variabili casuali. Spiega che la probabilità di un evento può essere calcolata come somma di tutti i punti dell'evento o come integrale sull'insieme. Definisce anche l'aspettativa, o media, per le variabili casuali come la somma o l'integrale su tutti i possibili valori della variabile casuale moltiplicata per quel valore. Il professore passa poi a spiegare il concetto di indipendenza per variabili aleatorie, distinguendo tra eventi mutuamente indipendenti ed eventi a coppie indipendenti. Infine, introduce la distribuzione normale come distribuzione universale per variabili casuali continue.

  • 00:10:00 In questa sezione del video sulla Teoria della probabilità, il relatore discute l'uso della distribuzione normale come mezzo per modellare i prezzi delle azioni o dei prodotti finanziari, e come non sia sempre una buona scelta perché non tiene conto del ordine di grandezza del prezzo stesso. Invece, l'oratore approfondisce l'idea che normalmente distribuita dovrebbe essere la variazione percentuale per modellare meglio i prezzi delle azioni. L'oratore afferma che gli incrementi di prezzo normalmente distribuiti produrranno un prezzo normalmente distribuito piuttosto che avere una tendenza.

  • 00:15:00 In questa sezione, il professore spiega come trovare la distribuzione di probabilità di Pn quando le variazioni di prezzo sono distribuite log-normalmente. Egli definisce una distribuzione log-normale Y come una variabile casuale tale che log Y sia distribuito normalmente. Usando la formula del cambio di variabile, mostra come trovare la funzione di distribuzione di probabilità della distribuzione log-normale usando la distribuzione di probabilità normale. Il professore spiega anche perché prendere la variazione percentuale come modello per le variazioni di prezzo non è una buona scelta nel lungo periodo, in quanto può assumere valori negativi e far salire o scendere il prezzo all'infinito.

  • 00:20:00 In questa sezione, il professore discute la distribuzione log-normale e la sua definizione. La funzione di densità di probabilità di X è uguale alla funzione di densità di probabilità di Y in log X per la differenziazione di log X che è 1 su X. La distribuzione è indicata in termini dei parametri mu e sigma, che provengono dalla distribuzione normale . Tuttavia, quando è distorto, non è più centrato su mu, e prendendo la media non si ottiene la media, che non è e al sigma.

  • 00:25:00 In questa sezione, il professore introduce altre distribuzioni oltre alle distribuzioni normali e log-normali, come le distribuzioni di Poisson e le esponenziali, che appartengono a una famiglia di distribuzioni chiamata famiglia esponenziale. Questa famiglia ha alcune buone proprietà statistiche che le rendono utili nelle applicazioni del mondo reale. Il professore spiega che tutte le distribuzioni in questa famiglia possono essere parametrizzate da un vettore chiamato "theta", e che la funzione di densità di probabilità può essere scritta come prodotto di tre funzioni: h(x), t_i(x) e c(theta ). Il professore poi spiega come la distribuzione log-normale rientri nella famiglia esponenziale usando la formula 1 su x radice quadrata sigma 2 pi greco, e al meno log x [INCOMPRENSIBILE] al quadrato.

  • 00:30:00 In questa sezione, il relatore discute i due principali aspetti di interesse quando si studia una variabile casuale: la statistica e il comportamento a lungo termine/su larga scala. Le statistiche sono rappresentate dai momenti k-esimi della variabile casuale, dove il momento k-esimo è definito come l'aspettativa di X rispetto al k. Il relatore spiega che un modo unificato per studiare tutti i momenti insieme è attraverso la funzione di generazione dei momenti, che contiene tutte le informazioni statistiche di una variabile casuale. Il secondo argomento principale è il comportamento a lungo termine o su larga scala di una variabile casuale, che può essere osservato attraverso diverse variabili casuali indipendenti con la stessa identica distribuzione. Quando i numeri sono molto grandi, è possibile tracciare un grafico per mostrare quante variabili casuali cadono in ciascun punto, che sembrerà molto vicino a una curva.

  • 00:35:00 In questa sezione, il relatore discute la teoria della probabilità e il comportamento a lungo termine o il comportamento su larga scala delle variabili casuali. I due teoremi discussi sono la legge dei grandi numeri e il teorema del limite centrale. Viene introdotta anche la funzione di generazione dei momenti, definita come l'aspettativa di e rispetto a t volte x, dove t è un parametro. La funzione fornisce il momento k-esimo della variabile casuale ed è per tutti i numeri interi. Il relatore osserva che l'esistenza della funzione di generazione dei momenti è importante in quanto classifica le variabili casuali.

  • 00:40:00 In questa sezione viene discusso il teorema che se due variabili casuali hanno la stessa funzione di generazione dei momenti, allora hanno la stessa distribuzione. Tuttavia, si avverte che ciò non significa che tutte le variabili casuali con momenti k-esimi identici per tutti i k abbiano la stessa distribuzione, poiché è richiesta l'esistenza di funzioni generatrici di momento. Viene menzionata un'altra affermazione, che dice che se la funzione generatrice di momento esiste per una sequenza di variabili casuali e converge alla funzione generatrice di momento di qualche altra variabile casuale X, allora la distribuzione di questa sequenza si avvicina sempre di più alla distribuzione di X.

  • 00:45:00 In questa sezione, il professore discute il concetto di convergenza delle variabili casuali e spiega che le distribuzioni delle variabili casuali convergono alla distribuzione di una variabile casuale. La funzione di generazione dei momenti è un potente strumento per controllare la distribuzione, come si vede nei teoremi dati. Il professore introduce quindi la legge dei grandi numeri, dove X è definita come la media di n variabili aleatorie, e spiega che se queste variabili sono indipendenti, identicamente distribuite con media mu e varianza sigma quadrata, allora la probabilità che X sia minore di o uguale a un certo valore tende alla probabilità di quel valore.

  • 00:50:00 In questa sezione, il relatore discute la legge dei grandi numeri e la sua applicazione nel casinò. Quando viene calcolata la media di un gran numero di distribuzioni indipendenti identiche, i loro valori saranno molto vicini alla media. Giocando a blackjack in un casinò, il giocatore ha un piccolo svantaggio con una probabilità di vincita del 48%. Dal punto di vista del giocatore, viene presa solo una piccola dimensione del campione, facendo in modo che la varianza prenda il sopravvento in un breve periodo di tempo. Tuttavia, dal punto di vista del casinò, hanno un campione molto ampio e finché c'è un vantaggio a loro favore, continueranno a vincere denaro. Il poker è diverso dai giochi da casinò in quanto si gioca contro altri giocatori, non contro il casinò.

  • 00:55:00 In questa sezione viene discussa l'idea di un casinò che prende una rake come mezzo per fare soldi, con le commissioni pagate dai giocatori che si accumulano per creare profitti per il casinò. Si ipotizza che se un giocatore è migliore del suo avversario e questo vantaggio è maggiore della commissione addebitata dal casinò, il giocatore può vincere usando la legge dei grandi numeri. Nonostante ciò, quando la varianza è significativa, la fiducia nelle proprie capacità può diminuire; tuttavia, avere fiducia nella matematica può essere tutto ciò che serve per mantenere la rotta. Viene quindi spiegata la dimostrazione della legge dei grandi numeri, con un esempio che illustra come la media di un numero maggiore di termini riduca la varianza.

  • 01:00:00 In questa sezione viene discussa la legge debole dei grandi numeri, la quale afferma che se si hanno variabili casuali indipendenti e identicamente distribuite (IID), la media converge alla media in senso debole man mano che il numero di prove aumenta all'infinito. La probabilità di deviazione dalla media diminuisce all'aumentare del numero di prove. Si accenna brevemente anche alla legge forte dei grandi numeri, che ha una convergenza più forte della legge debole. Il teorema del limite centrale è l'argomento successivo, che esplora cosa accade quando il numero di prove viene sostituito dalla radice quadrata del numero di prove nella variabile casuale.

  • 01:05:00 In questa sezione il professore spiega come il teorema del limite centrale risponda a una domanda riguardante la distribuzione di Yn con media 0 e varianza sigma al quadrato. Ha affermato che quando si prendono molti eventi indipendenti e si trova la loro media, in questo senso, la loro distribuzione converge a una distribuzione normale. Ha inoltre affermato un teorema sulla convergenza della distribuzione di Yn alla distribuzione normale con media 0 e varianza sigma. Indipendentemente dalla distribuzione iniziale, si verifica la convergenza alla distribuzione normale.

  • 01:10:00 In questa sezione, l'obiettivo è dimostrare che la funzione di generazione dei momenti di Y_n converge alla funzione di generazione dei momenti della normale per ogni t, convergenza puntuale. La funzione di generazione del momento della normale è e rispetto al quadrato t sigma quadrato su 2. La funzione di generazione del momento di Y_n è uguale all'aspettativa di e rispetto a t Y_n. Il prodotto di e per t, 1 per radice quadrata n, X_i meno mu diventa il prodotto per 1 per n, aspettativa e per t per radice quadrata n. L'n-esima potenza di ciò equivale all'aspettativa di e alla t su radice quadrata n, X_i meno mu all'n-esima potenza. Viene utilizzata l'espansione di Taylor, e man mano che n tende all'infinito, tutti questi termini saranno di un ordine di grandezza minore di n, 1 su n.

  • 01:15:00 In questa sezione, il relatore discute la legge dei grandi numeri e il teorema del limite centrale come modi per stimare la media di una variabile casuale. Prendendo molte prove indipendenti di una variabile casuale e usandole per stimare la media, la legge dei grandi numeri afferma che la stima sarà molto vicina alla media effettiva se il numero di prove è abbastanza grande. Il teorema del limite centrale spiega quindi come la distribuzione di questa stima sia intorno alla media, con distribuzioni normali che hanno distribuzioni di coda molto piccole. Tuttavia, il relatore osserva che per alcune distribuzioni è meglio utilizzare uno stimatore diverso rispetto allo stimatore di massima verosimiglianza.
3. Probability Theory
3. Probability Theory
  • 2015.04.23
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

5. Processi stocastici I



5. Processi stocastici I

In questo video sui processi stocastici, il professore offre un'introduzione completa e una panoramica dei processi stocastici a tempo discreto e a tempo continuo. Questi modelli probabilistici vengono utilizzati per analizzare eventi casuali che si verificano nel tempo. Il video mostra esempi di semplici processi a catena di Markov e passeggiate aleatorie per illustrare come affrontano questioni relative alla dipendenza, al comportamento a lungo termine e agli eventi di confine. Inoltre, viene discusso il teorema di Perron-Frobenius, sottolineando il significato di autovettori e autovalori nel determinare il comportamento a lungo termine del sistema. Il video si conclude introducendo il concetto di processi di martingala, che fungono da modelli di fair game.

Il video inizia introducendo il concetto di martingale nei processi stocastici, progettati per mantenere invariato il valore atteso. Un esempio di martingala è una passeggiata casuale, che mostra fluttuazioni mantenendo costantemente un valore atteso di 1. Il video spiega anche i tempi di arresto, che sono strategie predeterminate dipendenti solo dai valori del processo stocastico fino a un punto specifico. Il teorema di arresto opzionale afferma che se esistono una martingala e un tempo di arresto tau, il valore atteso al tempo di arresto sarà uguale al valore iniziale della martingala. Questo teorema sottolinea l'equità e la natura di equilibrio dei processi di martingala.

In tutto il video, vari argomenti sono trattati in dettaglio. Vengono introdotti i processi stocastici a tempo discreto ea tempo continuo, illustrandone la rappresentazione attraverso distribuzioni di probabilità su diversi cammini. Esempi come una semplice passeggiata casuale e un gioco di lancio di una moneta aiutano a chiarire le proprietà e i comportamenti di questi processi. Viene discussa l'importanza delle catene di Markov, sottolineando come lo stato futuro dipenda unicamente dallo stato attuale, semplificando l'analisi dei processi stocastici. Viene esplorata la nozione di distribuzione stazionaria, mostrando il teorema di Perron-Frobenius, che stabilisce l'esistenza di un unico autovettore corrispondente all'autovalore più grande, che rappresenta il comportamento a lungo termine del sistema.

Il video si conclude sottolineando la connessione tra martingale e fair games. Si noti che un processo di martingala assicura che il valore atteso rimanga invariato, a significare un gioco equilibrato. Al contrario, i giochi come la roulette nei casinò non sono martingale poiché il valore atteso è inferiore a 0, con conseguenti perdite attese per i giocatori. Infine, viene menzionato un teorema, che suggerisce che se un giocatore d'azzardo viene modellato utilizzando una martingala, indipendentemente dalla strategia impiegata, il saldo sarà sempre uguale al saldo iniziale. Inoltre, l'aspettativa di X_tau, il valore al momento dell'arresto, è sempre 0, a indicare che, se modellato da una martingala, non ci si aspetta che il giocatore vinca.

Nel complesso, il video fornisce una panoramica completa dei processi stocastici, delle loro proprietà e delle loro applicazioni nella modellazione e nell'analisi di eventi casuali.

  • 00:00:00 In questa sezione, il professore fornisce un'introduzione ai processi stocastici, una raccolta di variabili casuali indicizzate dal tempo. Distingue tra processi stocastici a tempo discreto e a tempo continuo e spiega che possono essere rappresentati da un insieme di probabilità su percorsi diversi. Fornisce esempi di tre processi stocastici, incluso uno in cui f(t) è uguale a t con probabilità 1, uno in cui f(t) è uguale a t per ogni t con probabilità 1/2, o f(t) è uguale a -t per ogni t con probabilità 1/2, e uno in cui per ogni t, f(t) è uguale a t o -t con probabilità 1/2.

  • 00:05:00 In questa sezione, il relatore discute il concetto di processi stocastici ei diversi tipi di domande che vengono studiate in relazione ad essi. I processi stocastici vengono utilizzati per modellare situazioni della vita reale, come i prezzi delle azioni, e coinvolgono variabili casuali che dipendono l'una dall'altra. I tre tipi principali di domande studiate includono dipendenze nella sequenza di valori, comportamento a lungo termine ed eventi di confine. Il relatore spiega come ogni tipo di domanda si collega ai processi stocastici e alla loro distribuzione di probabilità.

  • 00:10:00 In questa sezione viene introdotto il tema dei processi stocastici, che si riferisce all'analisi di eventi casuali che si verificano nel tempo. In particolare, l'attenzione è rivolta ai processi stocastici a tempo discreto, uno dei più importanti dei quali è il semplice random walk. Questo è definito come una sequenza di variabili casuali, X sub t, che è la somma di variabili indipendenti distribuite in modo identico (IID), Y_i, che possono assumere valori di 1 o -1 con una probabilità di 1/2. La traiettoria della passeggiata aleatoria può essere visualizzata come una sequenza di movimenti, verso l'alto o verso il basso, a seconda del valore di Y_i. Questo modello fornirà una base per la comprensione dei processi stocastici a tempo continuo più avanti nel corso.

  • 00:15:00 In questa sezione, il professore discute il comportamento di una semplice passeggiata casuale per un lungo periodo di tempo. Secondo il teorema del limite centrale, più un valore X_t si avvicina a 0, minore sarà la varianza, che dovrebbe essere intorno a 1 su t, e la deviazione standard intorno a 1 sopra la radice quadrata di t. Quando si osserva X_t sulla radice quadrata di t, i valori avranno una distribuzione normale, con media 0 e varianza la radice quadrata di t. Pertanto, su scala molto ampia, una semplice passeggiata aleatoria non si discosterà troppo dalla radice quadrata di t e dalla meno radice quadrata delle curve t. Anche se un valore estremo teorico per la camminata è t e meno t, sarai vicino alle curve, giocando principalmente all'interno di quell'area. Il professore afferma che c'è un teorema che afferma che colpirai le due linee infinitamente spesso.

  • 00:20:00 In questa sezione vengono discusse le proprietà di una passeggiata aleatoria. La prima proprietà è che l'aspettativa di X sub k è 0, e la seconda proprietà è chiamata incremento indipendente. Ciò significa che se guardi cosa succede dal tempo 1 al 10, è irrilevante per ciò che succede dal 20 al 30. La terza proprietà è chiamata stazionaria. Afferma che la distribuzione di X sub t+h meno X sub t è la stessa della distribuzione di X sub h. L'esempio di un gioco di lancio della moneta viene utilizzato per mostrare che se inizi con un saldo di $ 0,00 con una moneta equa, il tuo saldo seguirà esattamente la semplice passeggiata casuale, assumendo una probabilità del 50-50.

  • 00:25:00 In questa sezione, il professore discute le probabilità in uno scenario di passeggiata casuale in cui lancia una moneta e si ferma dopo aver vinto $ 100 o perso $ 50. Mettendo una linea nei due punti di arresto, spiega che la probabilità di colpire prima la linea superiore è A su A più B, e la probabilità di colpire prima la linea inferiore è B su A più B. Usando questa formula, calcola che la probabilità di vincere $ 100 è 2/3 e di perdere $ 50 è 1/3. Il professore poi delinea come dimostrare questa formula definendo f di k come la probabilità di colpire prima una delle due linee quando si parte dalla posizione k nella passeggiata aleatoria.

  • 00:30:00 In questa sezione, il relatore discute due importanti processi stocastici: la passeggiata aleatoria semplice e la catena di Markov. La semplice passeggiata casuale è un processo in cui ad ogni passo un individuo sale o scende con una probabilità di 1/2. La proprietà stazionaria di questo processo consente un facile calcolo delle probabilità. D'altra parte, una catena di Markov è una raccolta di processi stocastici in cui l'effetto del passato sul futuro è riassunto dallo stato attuale. L'importanza della catena di Markov è che il futuro dipende solo dal presente, il che lo rende un processo stocastico più gestibile da analizzare.

  • 00:35:00 In questa sezione, il relatore spiega il concetto di processi stocastici a tempo discreto come catena di Markov. L'esempio di una semplice passeggiata casuale viene utilizzato per illustrare che il processo è una catena di Markov perché la sua probabilità di raggiungere il passo successivo dipende solo dal valore corrente e non dai suoi valori precedenti. La probabilità del processo può essere definita matematicamente, con la probabilità della sua transizione da i a j essendo la somma di tutte le probabilità di andare da i a tutti gli altri punti dell'insieme. Per un insieme finito S, le catene di Markov sono facili da descrivere calcolando le loro probabilità di transizione.

  • 00:40:00 In questa sezione, il relatore spiega che la matrice di probabilità di transizione è uno strumento cruciale per comprendere le catene di Markov. Questa matrice, che consiste nelle probabilità di transizione da uno stato all'altro, possiede tutte le informazioni necessarie per prevedere le future transizioni in una catena di Markov. Usando questa matrice, si può determinare la probabilità di effettuare una transizione da uno stato all'altro in qualsiasi numero di passi. Tuttavia, è significativo notare che lo spazio degli stati deve essere finito affinché esista la matrice di probabilità di transizione.

  • 00:45:00 In questa sezione viene fornito un esempio di catena di Markov di un sistema che può essere modellato come un insieme di stati con stato funzionante o interrotto. L'esempio mostra una matrice con probabilità di transizione tra stati come la probabilità che venga riparata e la probabilità che rimanga rotta. La domanda posta è quale sarebbe la distribuzione di probabilità del sistema dopo un lungo periodo, diciamo 10 anni, e l'ipotesi fatta è che la distribuzione di probabilità al giorno 3.650 e quella al giorno 3.651 dovrebbero essere più o meno le stesse. Sotto questa ipotesi, la distribuzione di probabilità osservata dopo un lungo periodo di tempo sarà l'autovettore della matrice, il cui autovalore è 1, e il cui autovettore è [p, q].

  • 00:50:00 In questa sezione, il relatore discute il teorema di Perron-Frobenius, che afferma che per una matrice di transizione con elementi positivi in una catena di Markov, esiste un vettore che soddisfa Av = v. Questo vettore è chiamato distribuzione stazionaria e rappresenta il comportamento a lungo termine del sistema. Il più grande autovalore della matrice è garantito essere 1, e il corrispondente autovettore sarà quello che rappresenta la distribuzione stazionaria. Il teorema è generale e si applica non solo alla matrice utilizzata nell'esempio, ma a qualsiasi matrice di transizione in una catena di Markov con elementi positivi.

  • 00:55:00 In questa sezione, il professore discute la distribuzione stazionaria e la sua unicità in relazione agli autovettori e agli autovalori. Il teorema di Perron-Frebenius dice che c'è un solo autovettore che corrisponde all'autovalore più grande, che risulta essere 1. Gli altri autovalori nella matrice sono minori di 1, il che significa che si dissipano, ma il comportamento corrispondente alla distribuzione stazionaria persiste . Nell'argomento finale, il professore spiega la martingala, che è un'altra raccolta di processi stocastici, utilizzata per modellare un fair game. Un processo stocastico è considerato una martingala se è un fair game.

  • 01:00:00 In questa sezione, il docente spiega come un processo stocastico può essere una martingala, che è un gioco leale. In una martingala, se osservi cosa potrebbe accadere all'istante t+1, il valore atteso deve essere esattamente uguale al valore all'istante t, quindi il processo è centrato in quel punto. Se è come il tuo saldo in un gioco, non dovresti vincere alcun denaro. Il docente fornisce l'esempio di una passeggiata casuale, che è una martingala. Tuttavia, un gioco di roulette in un casinò non è una martingala poiché il valore atteso è inferiore a 0, il che significa che il giocatore è progettato per perdere denaro. Infine, il docente mostra un esempio divertente per illustrare che ci sono molti modi in cui un processo stocastico può essere una martingala, inventando l'esempio di X_k uguale a 2 o -1, a seconda della distribuzione di probabilità.

  • 01:05:00 In questa sezione è stato introdotto il concetto di martingale, che sono processi stocastici progettati in modo che il valore atteso sia sempre uguale a 1. Un esempio di martingala è una passeggiata aleatoria che fluttua molto, ma in attesa, mantiene sempre un valore atteso di 1. È stato anche discusso il teorema di arresto facoltativo, il quale afferma che giocare a un gioco di martingala garantisce che non vincerai né perderai in aspettativa, indipendentemente dalla strategia che usi. È stata anche spiegata la definizione di tempo di arresto, che è una variabile casuale a valore intero non negativo che dipende solo dal processo stocastico fino a un certo tempo.

  • 01:10:00 In questa sezione, il professore spiega il concetto di tempo di arresto, che è un insieme predefinito di strategie che si basano solo sui valori del processo stocastico fino a un certo punto, rendendolo un tempo di arresto. Fornisce un esempio di un gioco di lancio della moneta e mostra come il momento in cui il saldo diventa $ 100 o meno $ 50 è un tempo di arresto, mentre il tempo del primo picco non lo è, poiché dipende dai valori futuri. Il teorema di arresto opzionale afferma che se esiste una martingala e un tempo di arresto tau che è sempre minore o uguale a una costante T, il valore al tempo di arresto avrà un valore atteso uguale al valore iniziale della martingala.

  • 01:15:00 In questa sezione, il video discute un teorema che mostra che se un giocatore è modellato utilizzando una martingala, indipendentemente dalla strategia utilizzata, il giocatore non può vincere perché il saldo all'inizio è sempre uguale al saldo quando il il giocatore si ferma. Sebbene il docente non dimostri questo teorema, fornisce un corollario interessante che mostra che l'aspettativa di X_tau è uguale a 0. Ciò significa che indipendentemente dal caso utilizzato, se si ferma a $ 100, -50 o illimitato, il risultato restituirà sempre 0. Il docente sottolinea che il contenuto del teorema è interessante in quanto implica che se qualcosa può essere modellato usando una martingala, il giocatore non dovrebbe vincere.
5. Stochastic Processes I
5. Stochastic Processes I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum Lee*NOT...
Motivazione: