Commercio quantitativo - pagina 32

 

Two Sigma presenta il deep learning per le sequenze nella finanza quantitativa David Kriegman


Two Sigma presenta il deep learning per le sequenze nella finanza quantitativa David Kriegman

Durante la presentazione, il relatore introduce l'evento e fornisce informazioni di base su Two Sigma, una rinomata società di scienze finanziarie che applica metodi scientifici al campo della finanza. Sottolineano che Two Sigma opera in più attività all'interno del settore finanziario, inclusi hedge fund quantitativi, servizi di broker-dealer, investimenti privati, assicurazioni e soluzioni per gli investitori. Il relatore sottolinea la diversità di background tra il pubblico, indicando che la conferenza si rivolge a persone a tutti i livelli di competenza, mostrando come il deep learning può essere applicato efficacemente nella finanza quantitativa. In particolare, menzionano che Two Sigma impiega circa 1600 professionisti in tutto il mondo, di cui 600 in possesso di lauree avanzate e oltre 200 in possesso di dottorato di ricerca.

Andando avanti, il relatore introduce il concetto di deep learning per le sequenze e illustra il suo impatto su varie applicazioni nell'ultimo decennio. Forniscono esempi come la classificazione dei sentimenti, il riconoscimento dell'attività video e la traduzione automatica. L'oratore spiega che le attività di elaborazione delle sequenze implicano l'acquisizione di sequenze come input e la generazione di sequenze come output, che possono variare in lunghezza. In particolare, discutono dell'applicazione del deep learning nella previsione dei valori del mercato azionario utilizzando sequenze storiche. L'oratore sottolinea l'importanza di prevedere sia i punti alti che quelli bassi al fine di massimizzare la redditività.

Successivamente, il relatore approfondisce la tipica pipeline di investimenti quantitativi nella finanza, che comprende una sequenza di processi coinvolti nel prendere decisioni di investimento. Descrivono le due fasi chiave della pipeline: modellazione alfa ed estrazione delle caratteristiche. La modellazione alfa implica la previsione della direzione dei prezzi delle azioni utilizzando modelli di mean reversion o modelli di momentum. L'estrazione delle caratteristiche si concentra sull'estrazione di caratteristiche tecniche dal mercato, come prezzo, volume e spread bid-ask. Il relatore sottolinea che questi processi alla fine portano a decisioni riguardanti l'acquisto o la vendita nei mercati, con l'obiettivo finale di generare profitti e ridurre al minimo le perdite. Sottolineano l'importanza di evitare il processo decisionale emotivo e sottolineano l'importanza della diversificazione dei portafogli nel regno della finanza.

Successivamente, David Kriegman di Two Sigma sale sul palco per discutere i fattori che svolgono un ruolo cruciale nel prendere decisioni informate nel commercio di azioni. Il primo fattore evidenziato è la raccolta di dati fondamentali, che possono essere ottenuti tramite segnalazioni dirette delle aziende o desunti da informazioni disponibili al pubblico. Inoltre, l'analisi del sentiment può essere condotta interpretando dati non strutturati derivati da fonti come notizie, social media e commenti degli analisti. Il relatore introduce l'idea di utilizzare fonti non tradizionali, come il numero di auto in un parcheggio o la congestione delle navi portacontainer in un porto, per raccogliere informazioni che possano indicare l'andamento di uno specifico stock. Dopo aver utilizzato il modello alfa per fare previsioni sulla performance delle azioni, il passaggio successivo nella pipeline prevede l'ottimizzazione del portafoglio. Questo passaggio comporta spesso la risoluzione di problemi di ottimizzazione su larga scala e la considerazione di fattori come le attuali disponibilità azionarie, la fiducia nelle previsioni, i requisiti di diversificazione e i costi di negoziazione associati. Infine, la fase di esecuzione implica prendere decisioni sulla dimensione, il posizionamento e il tipo di ordine, con l'ausilio di un modello per comprendere il potenziale impatto di queste azioni.

Tornando al tema del deep learning, il relatore sottolinea la natura sequenziale del processo decisionale della finanza quantitativa. Quindi spostano l'attenzione sull'apprendimento profondo, descrivendolo come un tipo di rete neurale caratterizzata da più livelli. Il relatore discute gli sviluppi significativi nelle reti neurali dalla loro introduzione iniziale negli anni '50, tra cui l'emergere di nuove architetture di rete, la disponibilità di enormi set di dati di addestramento e progressi nel calcolo parallelo. Per illustrare l'idea di base alla base di un singolo percettrone, l'oratore spiega come prende input, calcola una somma ponderata e passa il risultato attraverso una funzione non lineare. Dicono che la tradizionale funzione di attivazione, una soglia, è stata sostituita da un'alternativa chiamata unità lineare rettificata (ReLU), che emette zero per valori inferiori a una soglia e il valore effettivo per valori superiori.

Continuando con l'argomento delle reti neurali, il relatore introduce il concetto di percettrone multistrato. In questa architettura, ogni cerchio rappresenta un percettrone con la propria funzione di attivazione e insieme di pesi. Questo può essere rappresentato da una coppia di matrici di peso, consentendo la creazione di reti più grandi. Il relatore prosegue discutendo l'applicazione delle reti neurali per la modellazione alfa, in particolare nella previsione dei prezzi delle azioni sulla base della performance storica. La rete viene addestrata utilizzando un set di dati di addestramento che include sia le caratteristiche che i dati sui prezzi, con l'obiettivo di ottimizzazione di ridurre al minimo la perdita totale. Questo processo di addestramento coinvolge varie tecniche come la retropropagazione e la discesa del gradiente stocastico.

Per migliorare ulteriormente il modello alfa, il relatore spiega l'importanza di incorporare più funzionalità piuttosto che fare affidamento su un singolo segnale, come il prezzo o la storia passata. Combinando tutte le caratteristiche rilevanti, è possibile creare un modello più potente e accurato. Tuttavia, l'utilizzo di una rete completamente connessa con questo approccio può portare a un problema noto come la maledizione della dimensionalità, poiché il numero di pesi diventa estremamente elevato e non tutti possono essere allenati in modo efficace. Per superare questa sfida, il relatore introduce un'altra classe di reti di elaborazione di sequenze chiamate reti neurali ricorrenti (RNN). Queste reti introducono un aspetto di memoria e alimentano le informazioni all'indietro, costruendo uno stato con ogni istante di tempo. Di conseguenza, il problema di avere un numero eccessivo di pesi è mitigato. Negli RNN, i pesi sono condivisi tra ogni elemento, rendendo la rete profonda e fornendo una soluzione trattabile.

Il relatore sottolinea le difficoltà di addestrare reti profonde e come le reti chiuse, come le reti Gated Recurrent Unit (GRU) e Long Short-Term Memory (LSTM), affrontano queste sfide. Le reti chiuse incorporano porte analogiche che controllano il flusso di informazioni e consentono l'aggiornamento di stati precedenti con potenziali nuovi stati. I componenti di queste reti sono differenziabili, consentendo loro di essere addestrati utilizzando la retropropagazione. Rispetto agli LSTM, i GRU hanno capacità di memoria più lunghe.

Discutendo di varie architetture utilizzate nel deep learning per le sequenze, il relatore introduce le reti LSTM e GRU, nonché sviluppi più recenti come le reti neurali convoluzionali (CNN), i meccanismi di attenzione e i trasformatori. Toccano anche l'apprendimento per rinforzo, che ottimizza i processi decisionali sequenziali come quelli coinvolti nel trading e nelle interazioni di mercato. Mentre l'apprendimento per rinforzo ha mostrato successo nei giochi, applicarlo alla finanza richiede simulatori adeguati, una solida infrastruttura software e notevoli risorse computazionali. Nel complesso, il relatore sottolinea che le diverse architetture e modelli discussi rappresentano potenti strumenti per la finanza quantitativa, ciascuno con i propri vantaggi e sfide.

Tornando al contributo di David Kriegman, fa luce sulla pipeline impiegata nella finanza quantitativa e su come le reti neurali profonde possono essere addestrate per implementarne diverse parti. Sottolinea le vaste operazioni di Two Sigma, che comportano la negoziazione di migliaia di azioni e la presa di centinaia di milioni di decisioni ogni giorno. La gestione di tali enormi quantità di dati richiede una notevole potenza di calcolo, una solida infrastruttura software e un team di persone creative. Rispondendo alle preoccupazioni sulla mancanza di spiegabilità e interpretabilità associate alle reti neurali profonde e al loro impatto sullo sviluppo della strategia, Kriegman spiega che alcune architetture possono introdurre rappresentazioni interpretabili. Sottolinea inoltre che in scenari di trading in rapida evoluzione sono necessarie distribuzioni diverse. Inoltre, Two Sigma incorpora trader umani che monitorano e implementano sistemi durante eventi di mercato estremi.

Il relatore discute di come gli approcci di deep learning possano interagire con l'ipotesi di un mercato efficiente nella finanza quantitativa. Sebbene il mercato sia generalmente considerato efficiente, il deep learning può facilitare una risposta più rapida alle informazioni e offrire metodi alternativi di assimilazione dei dati, identificando potenzialmente inefficienze e opportunità di investimento. Sottolineano inoltre la rilevanza delle tecniche di visione artificiale nella modellazione sequenziale all'interno della finanza, in particolare durante le fasi iniziali dell'estrazione di caratteristiche da dati non strutturati. Two Sigma cerca attivamente persone per ruoli di ingegneria e modellazione e, sebbene ruoli diversi si allineino con team diversi, l'applicazione del deep learning pervade l'intera organizzazione. I neolaureati e i candidati di livello MSc sono incoraggiati a presentare domanda tramite il sito Web Two Sigma.

Durante la sessione di domande e risposte, il relatore affronta diverse sfide associate all'applicazione del deep learning alla finanza quantitativa. Una delle principali sfide è la mancanza di stazionarietà nelle serie temporali finanziarie, poiché i modelli di deep learning danno i migliori risultati quando il futuro assomiglia al passato. Per affrontare questo problema, il relatore sottolinea l'importanza della simulazione e della previsione per introdurre metodi di trasferimento del dominio, consentendo ai modelli di adattarsi alle mutevoli condizioni di mercato. Inoltre, il relatore osserva che il tasso di errore nella finanza quantitativa è generalmente più alto rispetto ad altri campi, e anche essere leggermente migliore del 50% può fornire un vantaggio significativo nel trading.

Alla domanda sulle implicazioni promettenti per la finanza quantitativa, il relatore afferma che quasi ogni area di ricerca nell'apprendimento profondo e nelle reti neurali ha implicazioni promettenti. Evidenziano specificamente l'apprendimento per rinforzo e il trasferimento del dominio come aree di interesse. Inoltre, riconoscono le sfide dell'archiviazione dei dati nella finanza e suggeriscono che le tecniche di compressione dei dati possono essere utili per affrontare questi problemi.

Espandendo l'argomento del team di ingegneri responsabile dell'implementazione di modelli di deep learning nella finanza quantitativa, il relatore spiega che il team lavora su varie attività, tra cui la gestione dello storage, i sistemi fisici e i livelli costruiti su tali sistemi. Sottolineano che sia i modelli di deep learning che i modelli statistici hanno i loro ruoli a seconda del caso d'uso specifico. Tuttavia, notano che se un modello profondo viene ridotto a una forma degenerata di regressione lineare, perde il suo intrinseco interesse e potere.

La presentazione sottolinea l'applicazione del deep learning nella finanza quantitativa, in particolare nel contesto dell'elaborazione delle sequenze e dei processi decisionali. Evidenzia le sfide e le opportunità che sorgono quando si utilizzano reti neurali profonde in questo dominio, inclusa la necessità di interpretabilità, affrontare la non stazionarietà e sfruttare diverse architetture. Durante la presentazione, Two Sigma viene presentata come un'azienda di spicco che incorpora attivamente tecniche di deep learning nelle sue operazioni e cerca attivamente persone di talento da inserire nel proprio team.

  • 00:00:00 Il relatore introduce l'evento e fornisce alcuni retroscena su Two Sigma, una società di scienze finanziarie che applica metodi scientifici alla finanza. Spiegano che la società opera in varie attività nel settore finanziario, inclusi hedge fund quantitativi, broker-dealer, investimenti privati, assicurazioni e soluzioni per investitori. Parlano anche della diversità di background tra il pubblico e sottolineano che la loro conferenza fornirà alcune idee a tutti i livelli su come il deep learning può essere applicato nella finanza quantitativa. Infine, menzionano che 1600 persone lavorano in Two Sigma in tutto il mondo, di cui 600 in possesso di lauree avanzate e oltre 200 in possesso di dottorato di ricerca.

  • 00:05:00 Il relatore introduce il concetto di deep learning per le sequenze e il modo in cui ha avuto un impatto su varie applicazioni nell'ultimo decennio, come la classificazione dei sentimenti, il riconoscimento dell'attività video e la traduzione automatica. Spiega che le attività di elaborazione delle sequenze prendono sequenze come input e producono sequenze come output, che possono essere della stessa lunghezza o di lunghezze diverse. L'oratore parla anche della previsione dei valori del mercato azionario utilizzando sequenze passate e sottolinea l'importanza di prevedere sia i punti alti che quelli bassi per guadagnare di più.

  • 00:10:00 Il relatore spiega la tipica pipeline di investimenti quantitativi nella finanza, che prevede una sequenza di processi per prendere decisioni di investimento. Ciò include la modellazione alfa, che prevede la direzione dei prezzi delle azioni attraverso modelli di ritorno alla media o modelli di momentum, e l'estrazione di caratteristiche, che coinvolge caratteristiche tecniche come prezzo, volume e spread bid-ask. La pipeline alla fine porta a decisioni sull'acquisto o la vendita nei mercati, con l'obiettivo di non perdere denaro e realizzare profitti. Il relatore sottolinea l'importanza di evitare il processo decisionale emotivo e di diversificare i portafogli nella finanza.

  • 00:15:00 David Kriegman di Two Sigma presenta i vari fattori da considerare quando si prendono decisioni nel trading azionario. Il primo è raccogliere dati fondamentali, che possono essere riportati direttamente dall'azienda o dedotti sulla base di informazioni disponibili al pubblico. Inoltre, l'analisi del sentiment può essere eseguita interpretando dati non strutturati da fonti come notizie, social media e commenti degli analisti. Anche fonti non tradizionali, come il numero di auto in un parcheggio o le navi portacontainer in sosta in un porto, possono fornire informazioni sull'andamento di un particolare stock. Dopo aver utilizzato il modello alfa per fare previsioni sulla performance delle azioni, il passo successivo è ottimizzare il portafoglio. Questo viene spesso gestito attraverso problemi di ottimizzazione su larga scala e richiede la determinazione della quantità di azioni già detenute, la fiducia nelle previsioni, quanto dovrebbero essere diversificati gli investimenti e i costi associati all'esecuzione delle negoziazioni. Infine, l'esecuzione è l'ultimo passaggio in cui vengono prese le decisioni sulla dimensione, il posizionamento e il tipo di ordine e viene utilizzato un modello per comprendere l'impatto delle azioni intraprese.

  • 00:20:00 Il relatore introduce la pipeline per prendere decisioni di acquisto e vendita nella finanza quantitativa, inclusa l'estrazione di funzionalità, la modellazione alfa e l'esecuzione, e sottolinea la natura sequenziale del processo. L'attenzione si sposta quindi sul deep learning, che è un tipo di rete neurale caratterizzata da un gran numero di strati. Il relatore spiega i cambiamenti chiave avvenuti dalla prima introduzione delle reti neurali negli anni '50, come nuove architetture di rete, enormi quantità di dati di addestramento e un enorme calcolo parallelo. Il relatore illustra quindi l'idea di base di un singolo perceptron, che riceve input e calcola una somma ponderata prima di passare il risultato attraverso una funzione non lineare. La funzione di attivazione tradizionale era una soglia ma è stata sostituita da una alternativa chiamata unità lineare rettificata (ReLU), che emette zero per valori inferiori a una soglia e il valore effettivo altrimenti.

  • 00:25:00 Il relatore introduce il concetto di percettrone multistrato, in cui ogni cerchio rappresenta un percettrone con la propria funzione di attivazione e insieme di pesi. Questo può essere rappresentato da una coppia di matrici di peso, consentendo la creazione di reti più grandi. Successivamente, il relatore discute l'uso di una rete neurale per la modellazione alfa per prevedere il prezzo di un'azione, in base alla sua performance passata. La rete viene addestrata utilizzando un set di dati di addestramento che include caratteristiche e dati sui prezzi, con l'obiettivo di ottimizzazione di ridurre al minimo la perdita totale. Ciò si ottiene attraverso una raccolta di tecniche di addestramento, come la retropropagazione e la discesa del gradiente stocastico.

  • 00:30:00 Il relatore discute su come costruire un modello alfa utilizzando più funzionalità invece di un solo segnale come il prezzo o la cronologia passata. Prendendo tutte le caratteristiche rilevanti e combinandole, si potrebbe creare un modello più potente. Tuttavia, l'utilizzo di una rete completamente connessa con questo approccio crea un problema in quanto il numero di pesi può essere molto elevato e non tutti possono essere allenati. Per risolvere questo problema, il relatore introduce un'altra classe di reti di elaborazione di sequenze, note come reti neurali ricorrenti. Queste reti introducono un aspetto di memoria e alimentano le informazioni all'indietro, costruendo uno stato con ogni istante di tempo, e di conseguenza mitigando il problema di avere troppi pesi. I pesi in queste reti sono condivisi tra ogni elemento, rendendo questa rete profonda e fornendo una soluzione trattabile.

  • 00:35:00 Il relatore discute le difficoltà di addestrare reti profonde e come le reti chiuse, come GRU e LSTM, possono affrontare questi problemi consentendo alle informazioni di propagarsi più indietro nel tempo. Le reti chiuse utilizzano porte analogiche per controllare la quantità di informazioni che fluiscono e aggiornare lo stato precedente con un potenziale nuovo stato. I componenti delle reti gated sono differenziabili e quindi addestrabili tramite backpropagation. I GRU hanno una memoria più lunga rispetto agli LSTM, che sta per memoria a lungo termine.

  • 00:40:00 Il relatore discute le varie architetture utilizzate nel deep learning per le sequenze, comprese le reti LSTM e GRU, nonché gli sviluppi più recenti come le reti neurali convoluzionali, i meccanismi di attenzione e i trasformatori. Introducono anche l'apprendimento per rinforzo, che ottimizza i processi decisionali sequenziali come quelli coinvolti nel trading e nell'interazione con il mercato. Sebbene l'apprendimento per rinforzo abbia avuto successo nei giochi, applicarlo alla finanza richiede un buon simulatore, un'infrastruttura software e molti calcoli. Nel complesso, le diverse architetture e modelli discussi rappresentano potenti strumenti per la finanza quantitativa, ciascuno con i propri vantaggi e sfide.

  • 00:45:00 David Kriegman discute la pipeline utilizzata nella finanza quantitativa e come le reti neurali profonde possono essere addestrate per implementarne parti. Afferma che Two Sigma opera su larga scala, scambiando migliaia di azioni e prendendo centinaia di milioni di decisioni al giorno. Per gestire questa quantità di dati, hanno bisogno di molti calcoli, una buona infrastruttura software e persone creative. Alla domanda sulla mancanza di spiegabilità e interpretabilità associata alle reti profonde e su come influisce sullo sviluppo della strategia, Kriegman spiega che alcune architetture possono introdurre rappresentazioni interpretabili e che ci sono alcune decisioni di trading che avvengono rapidamente e richiedono distribuzioni diverse. Inoltre, Two Sigma ha trader umani che monitorano e implementano sistemi in eventi di mercato estremi.

  • 00:50:00 Il relatore ha discusso di come gli approcci di deep learning possano interagire con l'ipotesi di un mercato efficiente nella finanza quantitativa. Sebbene il mercato sia generalmente efficiente, il deep learning può aiutare a rispondere più rapidamente alle informazioni e ad assimilarle in modo diverso, identificando potenzialmente inefficienze e opportunità di investimento. Ci sono anche aspetti della visione artificiale che possono essere rilevanti per la modellazione sequenziale in finanza, in particolare nelle prime fasi dell'estrazione di caratteristiche da informazioni non strutturate. Two Sigma recluta attivamente sia per ruoli di ingegneria che di modellazione e, sebbene ruoli diversi siano associati a team diversi, esiste un'applicazione definita del deep learning in tutta l'organizzazione. I neolaureati e i candidati di livello MSc sono incoraggiati a presentare domanda tramite il sito Web Two Sigma.

  • 00:55:00 Il relatore affronta domande sulle sfide nell'applicazione del deep learning alla finanza quantitativa. In particolare, la mancanza di stazionarietà nelle serie temporali finanziarie pone un problema per il deep learning, che funziona meglio quando il futuro assomiglia molto al passato. Per risolvere questo problema, è fondamentale la misura in cui è possibile simulare, prevedere e introdurre metodi di trasferimento del dominio. Inoltre, l'oratore osserva che il tasso di errore in questo campo è superiore alla maggior parte e che essere migliore del 50% può dare un vantaggio nel trading. Alla domanda sulle implicazioni promettenti per la finanza quantitativa, il relatore afferma che quasi ogni area di ricerca nell'apprendimento profondo e nelle reti neurali ha implicazioni promettenti, in particolare l'apprendimento per rinforzo e il trasferimento di dominio. Infine, ci sono problemi di archiviazione dei dati che devono essere affrontati e le tecniche di compressione dei dati sono utili in questo processo.

  • 01:00:00 Il relatore spiega la diversa natura del team di ingegneri responsabile dell'esecuzione di modelli di deep learning per la finanza quantitativa. Il team lavora su varie attività, tra cui storage, sistemi fisici e livelli che si trovano sopra quei sistemi fisici. Inoltre, quando si tratta di modelli di deep learning rispetto a modelli statistici, entrambi hanno ruoli da svolgere in base all'utilizzo e se un modello profondo viene trasformato in una forma degenerata di regressione lineare, non è più interessante.
 

Due regali Sigma: modelli di apprendimento automatico dei dati finanziari


Due regali Sigma: modelli di apprendimento automatico dei dati finanziari

Justin Ceriano di Two Sigma Securities offre una presentazione completa sull'integrazione dei modelli di apprendimento automatico nel campo della finanza. Inizia evidenziando il crescente interesse delle società finanziarie nello sfruttare l'apprendimento automatico per migliorare le loro capacità predittive e i processi decisionali. Nello specifico, gli algoritmi di apprendimento automatico possono essere utilizzati per prevedere i prezzi futuri degli strumenti finanziari e determinare strategie di trading ottimali.

Ceriano introduce il concetto di apprendimento per rinforzo, che rientra in una classe di metodi in grado di apprendere le politiche decisionali direttamente dai dati disponibili al fine di massimizzare una funzione obiettivo appropriata. L'apprendimento per rinforzo si rivela particolarmente prezioso nella finanza, dove l'obiettivo è ottimizzare i risultati sulla base di dati storici.

Uno degli aspetti fondamentali discussi è l'applicazione di modelli di apprendimento automatico per analizzare i libri degli ordini con limite nei mercati elettronici. In questo sistema, acquirenti e venditori inviano ordini specificando i prezzi ai quali sono disposti ad acquistare o vendere un particolare asset. Questi ordini vengono quindi abbinati in base al miglior prezzo ask o bid disponibile. Ceriano sottolinea che i dati del portafoglio ordini, che rappresentano la domanda e l'offerta visibili di uno stock, formano una sequenza ad alta dimensione che può essere efficacemente utilizzata per prevedere le future variazioni di prezzo utilizzando modelli di apprendimento automatico.

Inoltre, Ceriano sottolinea l'importanza di considerare spread diversi da zero nelle strategie di trading. Questi spread possono influire sulla redditività delle previsioni dei prezzi, richiedendo quindi un'attenta valutazione e aggiustamento.

Per dimostrare l'implementazione pratica dei modelli di apprendimento automatico, Ceriano spiega la costruzione di una rete neurale ricorrente progettata per prevedere le variazioni di prezzo utilizzando dati finanziari ad alta frequenza. Il modello viene addestrato per prevedere se la prossima variazione di prezzo sarà positiva o negativa e le sue prestazioni vengono confrontate con un modello ricorrente lineare. Il set di dati utilizzato è costituito da tre anni di dati ad alta frequenza evento per evento per circa 1.000 azioni. L'obiettivo è valutare se i modelli di apprendimento automatico non lineare, come le reti ricorrenti, superano i modelli statistici lineari nell'acquisizione di relazioni non lineari all'interno dei dati. L'ottimizzazione delle previsioni dei modelli è ottenuta attraverso l'algoritmo di backpropagation, minimizzando l'errore di previsione. Per ridurre i costi computazionali, viene utilizzato l'algoritmo di backpropagation troncato nel tempo.

Nella presentazione vengono affrontate le sfide relative all'ottimizzazione delle reti ricorrenti, in particolare il noto problema del gradiente di fuga. Il problema del gradiente evanescente si riferisce al problema dei gradienti che diventano estremamente piccoli man mano che si propagano attraverso gli strati inferiori della rete. Di conseguenza, ciò può ostacolare la velocità di addestramento e rendere difficile per la rete conservare le informazioni da parti distanti della sequenza. Ceriano introduce la rete Long Short-Term Memory (LSTM), uno dei tipi più popolari di reti ricorrenti, che è stata specificamente progettata per affrontare questo problema aggiornando in modo efficiente lo stato della memoria, consentendo così al modello di conservare informazioni rilevanti da lontano il passato.

La presentazione prosegue discutendo l'addestramento e la valutazione dei modelli di apprendimento automatico utilizzando i dati del portafoglio ordini ad alta frequenza. Gli autori confrontano l'accuratezza di un modello lineare con quella di una rete ricorrente LSTM e i risultati indicano chiaramente le prestazioni superiori del modello di deep learning quando testato su circa 500 titoli per un periodo fuori campione di tre mesi. La discussione approfondisce anche la natura universale della relazione tra i dati del portafoglio ordini e i movimenti dei prezzi, suggerendo l'esistenza di un modello universale di formazione dei prezzi applicabile a più azioni. Questa scoperta ha implicazioni pratiche significative, come la riduzione dei costi computazionali e la capacità di migliorare un modello per uno stock utilizzando i dati di un altro.

L'esperimento mira ad addestrare un modello universale riunendo i dati di numerosi titoli e valutandone l'accuratezza rispetto ai modelli specifici dei titoli. I risultati dimostrano costantemente la superiorità del modello universale, indicando l'universalità condivisa nelle dinamiche del portafoglio ordini tra diversi titoli. Ciò non solo riduce l'overfitting, ma migliora anche la precisione del modello. Inoltre, il modello universale mostra stabilità per oltre un anno e scalabilità con l'ausilio del calcolo ad alte prestazioni, utilizzando 25 GPU con discesa del gradiente stocastico asincrono.

La presentazione esplora anche l'applicazione dell'apprendimento per rinforzo per ottimizzare le strategie di invio degli ordini per un'esecuzione ottimale. L'attenzione si concentra sullo sviluppo di politiche per ordini di mercato o ordini limitati di un'azione, con l'obiettivo di massimizzare i premi attesi e il risparmio sui costi entro intervalli di tempo discreti. Utilizzando i dati storici del portafoglio ordini, il modello di apprendimento per rinforzo viene addestrato per simulare i prezzi eseguiti per piccoli ordini. Il modello determina se inviare immediatamente un ordine di mercato o attendere che il miglior prezzo ask diminuisca, utilizzando come input i dati del registro degli ordini limite. Le prestazioni del modello vengono valutate utilizzando un anno di dati e quindi testate su un set di dati separato di sei mesi.

Vengono presentati i risultati della simulazione in un universo di 100 azioni, considerando orizzonti temporali di 10 e 60 secondi sia per una strategia di apprendimento per rinforzo solo per ordini di mercato sia per una semplice strategia di ordini limite. I risultati indicano costantemente risparmi sui costi positivi raggiunti dal modello di apprendimento per rinforzo nei 50 titoli, anche se con una certa variabilità. Inoltre, i risparmi sui costi tendono ad aumentare con orizzonti temporali più lunghi. La presentazione introduce il concetto di utilizzo dei dati storici del portafoglio ordini per simulare se un ordine limite inviato verrà eseguito entro un intervallo di tempo specifico. Il modello di apprendimento per rinforzo viene addestrato per selezionare dinamicamente il momento ottimale per massimizzare i risparmi sui costi previsti. Mentre i risparmi sui costi variano a seconda delle azioni, la strategia di apprendimento per rinforzo produce costantemente risultati positivi, con alcune azioni che mostrano risparmi sui costi significativamente più elevati rispetto ad altre.

La presentazione si conclude affrontando la necessità di sviluppare metodi di ottimizzazione avanzati e architetture di deep learning appositamente studiate per i dati finanziari. Sottolinea le sfide in corso nella fusione dell'apprendimento per rinforzo con simulazioni accurate per ordini di dimensioni maggiori per migliorare ulteriormente l'applicazione dell'apprendimento automatico nella finanza. Per cogliere efficacemente i concetti discussi, Ceriano consiglia di acquisire esperienza pratica implementando tecniche di apprendimento automatico su set di dati su larga scala. Sottolinea l'importanza di comprendere la teoria matematica sottostante e di avere competenza nelle librerie di deep learning come TensorFlow e PyTorch. Inoltre, vengono enfatizzate le capacità di calcolo ad alte prestazioni per la parallelizzazione dell'addestramento del modello.

Inoltre, i relatori discutono delle politiche di assunzione di Two Sigma e delle opportunità di lavoro a distanza. Sebbene non sia in atto una politica di lavoro a distanza a tempo pieno, Two Sigma assume persone da vari paesi in tutto il mondo e gestisce un team online chiamato Alpha Studio per il lavoro a distanza. Sottolineano l'importanza di acquisire conoscenze in finanza quantitativa, probabilità e statistica attraverso più corsi per coloro che sono interessati a perseguire l'apprendimento automatico nella finanza. La presentazione menziona anche l'utilizzo di librerie di deep learning come TensorFlow e PyTorch nel codebase di Two Sigma.

Viene discusso il processo di assunzione presso Two Sigma, con enfasi sul reclutamento che si svolge durante tutto l'anno, in particolare durante l'estate. Sono previste eccezioni per le assunzioni autunnali e primaverili e l'azienda incoraggia le persone interessate ad iniziare il prima possibile, anche se ciò significa iniziare a dicembre. I relatori suggeriscono che progetti straordinari implicano l'identificazione di modelli e tendenze nei dati reali e l'applicazione di approcci di apprendimento automatico per risolvere problemi del mondo reale. La proprietà del progetto e l'evidenziazione dei propri contributi all'interno del progetto sono sottolineate come qualità preziose ricercate dai selezionatori. Viene anche menzionato brevemente il team di ricerca sull'equità fondamentale di Two Sigma, che collabora a stretto contatto con ingegneri e data scientist.

Viene chiarita la distinzione tra un data scientist e un ricercatore quantistico presso Two Sigma. Sebbene entrambe le posizioni riguardino la modellazione e il trading, la scienza dei dati si concentra principalmente sull'aspetto della scienza dei dati e sull'ingegneria delle caratteristiche, mentre i ricercatori quantistici considerano il processo di trading completo dall'inizio alla fine. I relatori toccano la cultura dell'ufficio e le riunioni a Two Sigma, descrivendo le riunioni come principalmente informali e offrendo lavagne per discussioni collaborative. Occasionalmente sono necessarie presentazioni preparate per riunioni specifiche.

Infine, vengono evidenziati i vantaggi dell'utilizzo di un modello universale rispetto a modelli specifici per le azioni. La capacità del modello universale di sfruttare l'apprendimento del trasferimento e mitigare i problemi di overfitting è sottolineata come un vantaggio chiave. La presentazione si conclude menzionando che la sessione registrata sarà resa disponibile sul canale YouTube di Two Sigma e sottolineando le pratiche di assunzione globali dell'azienda, con la maggior parte delle assunzioni con sede negli Stati Uniti.

  • 00:00:00 Justin Ceriano di Two Sigma Securities introduce il concetto di modelli di machine learning nella finanza. Spiega come le società finanziarie sono interessate a utilizzare l'apprendimento automatico per fare previsioni e decisioni, come prevedere il prezzo futuro di uno strumento finanziario e determinare una strategia di trading ottimale. Ceriano sottolinea che l'apprendimento per rinforzo è una classe di metodi, che possono apprendere politiche decisionali direttamente dai dati con l'obiettivo di massimizzare una funzione obiettivo appropriata. Conclude discutendo le sfide dell'overfitting con dati insufficienti, i vantaggi dei modelli di deep learning e l'importanza del calcolo ad alte prestazioni per addestrare modelli di grandi dimensioni su set di dati finanziari ad alta frequenza.

  • 00:05:00 Viene introdotto il concetto di limit order book nei mercati elettronici, in cui acquirenti e venditori inviano ordini a prezzi a cui sono disposti ad acquistare o vendere e vengono abbinati in base al miglior prezzo ask o bid. La domanda e l'offerta visibili di uno stock sono rappresentate attraverso i dati del libro degli ordini ed è una sequenza ad alta dimensione utilizzata per prevedere le future variazioni di prezzo utilizzando modelli di apprendimento automatico. È anche importante considerare gli spread diversi da zero nelle strategie di trading, che possono rendere meno redditizie le previsioni sui prezzi.

  • 00:10:00 Viene implementata una rete neurale ricorrente per prevedere le variazioni di prezzo nei dati finanziari ad alta frequenza. Il modello prevederà se la successiva variazione di prezzo sarà positiva o negativa e i risultati verranno confrontati con un modello ricorrente lineare. Il set di dati è costituito da tre anni di dati ad alta frequenza evento per evento per circa 1.000 azioni. Le prestazioni del modello di deep learning verranno valutate per determinare se i modelli di machine learning non lineare, come le reti ricorrenti, possono superare i modelli statistici lineari nell'apprendimento delle relazioni non lineari nei dati. L'algoritmo di backpropagation verrà utilizzato per ottimizzare la funzione obiettivo per minimizzare l'errore di previsione. L'algoritmo di backpropagation troncato attraverso il tempo viene utilizzato per ridurre i costi computazionali.

  • 00:15:00 Il video illustra come ottimizzare le reti ricorrenti, che è simile nello spirito all'ottimizzazione di una rete feed-forward multistrato. Tuttavia, il problema del gradiente evanescente è una sfida ben nota, in cui l'ampiezza del gradiente è piccola rispetto agli strati inferiori della rete. Ciò può rallentare l'addestramento, rendere difficile addestrare le reti a ricordare i dati di un lontano passato e portare a una discesa del gradiente stocastico per convergere lentamente. La trascrizione introduce anche la rete LSTM come uno dei tipi più popolari di reti ricorrenti, progettata per aggiornare lo stato della memoria in modo efficiente con l'obiettivo di aiutare il modello a ricordare i dati di un lontano passato nella sequenza.

  • 00:20:00 Gli autori descrivono come hanno addestrato una serie di modelli di machine learning sui dati del portafoglio ordini ad alta frequenza e come hanno valutato le loro prestazioni su un set di dati di test. Gli autori hanno confrontato l'accuratezza del modello lineare con la rete ricorrente LSTM e hanno scoperto che il modello di deep learning supera nettamente il modello lineare in un set di dati di test di circa 500 azioni in un periodo di test fuori campione di tre mesi. Esaminano la questione se la relazione tra i dati del portafoglio ordini e le variazioni di prezzo sia universale tra le azioni o se le singole azioni necessitino del proprio modello e trovano una forte evidenza per un modello universale di formazione dei prezzi che mappa il flusso degli ordini alle variazioni di prezzo. Discutono anche delle implicazioni pratiche di questa scoperta, compresi i minori costi computazionali e la capacità di migliorare il modello per uno stock utilizzando i dati di un altro.

  • 00:25:00 L'esperimento mira ad addestrare un modello universale riunendo i dati di centinaia di azioni e confrontando la sua accuratezza con quella dei modelli specifici delle azioni. Il risultato mostra che il modello universale supera costantemente i modelli specifici per le azioni, indicando l'universalità condivisa nelle dinamiche del portafoglio ordini di diverse azioni. Ciò consente la riduzione dell'overfitting e il miglioramento della precisione del modello. Inoltre, il modello universale è in grado di generalizzare a nuovi stock, dimostrando la stabilità del modello per oltre un anno e la scalabilità del modello con l'ausilio del calcolo ad alte prestazioni utilizzando 25 GPU con discesa del gradiente stocastico asincrono. Il secondo esempio presentato in questa sezione è l'esecuzione ottimale in cui l'apprendimento per rinforzo viene utilizzato per sviluppare strategie di invio degli ordini. Tuttavia, la politica ottimale per un processo decisionale markoviano è impegnativa a causa della probabilità di transizione sconosciuta.

  • 00:30:00 Il video illustra come utilizzare l'apprendimento per rinforzo per apprendere le politiche ottimali per un semplice esempio di esecuzione degli ordini. Il modello di apprendimento per rinforzo viene addestrato per simulare accuratamente il prezzo eseguito per un piccolo ordine utilizzando i dati storici del portafoglio ordini. L'attenzione si concentra sull'esecuzione ottimale di un ordine di mercato o di un ordine limitato di un'azione, con l'obiettivo di massimizzare la ricompensa attesa e il risparmio sui costi per ogni tempo discreto fino all'orizzonte temporale. Il modello di apprendimento per rinforzo seleziona se inviare l'ordine di mercato o attendere che il miglior prezzo richiesto diminuisca, con l'input costituito dai dati del portafoglio ordini limite e il modello valutato su un anno di dati e quindi testato su sei mesi di dati.

  • 00:35:00 Il video presenta i risultati della simulazione nell'universo di 100 azioni con orizzonti temporali di 10 e 60 secondi per la strategia di apprendimento del solo rinforzo degli ordini di mercato e la semplice strategia degli ordini limite. I risultati mostrano che il modello di apprendimento per rinforzo fornisce costantemente un risparmio sui costi positivo, sebbene con una variabilità significativa, tra i 50 titoli. I risparmi sui costi aumentano in generale dato un orizzonte temporale più lungo. Il video introduce anche l'utilizzo dei dati storici del portafoglio ordini per simulare se l'ordine limite inviato per un'azione verrà eseguito o meno nell'intervallo di tempo e addestrare il modello di apprendimento per rinforzo per selezionare in modo adattivo il tempo per massimizzare i risparmi sui costi previsti. I risultati mostrano che la strategia di apprendimento per rinforzo fornisce costantemente un risparmio sui costi positivo, anche se il risparmio sui costi varia per alcuni stock, mentre è relativamente grande per altri.

  • 00:40:00 Il video evidenzia la necessità di sviluppare migliori metodi di ottimizzazione e architetture di deep learning progettate specificamente per i dati finanziari. Ci sono sfide aperte che restano da affrontare, come la fusione dell'apprendimento per rinforzo con simulazioni accurate per ordini di dimensioni maggiori per applicare l'apprendimento automatico ai dati finanziari. Justin raccomanda che il modo migliore per apprendere l'apprendimento automatico sia implementarlo in prima persona su set di dati su larga scala e comprendere la teoria matematica che c'è dietro. È essenziale avere esperienza in librerie di deep learning come PiTorch o TensorFlow e calcolo ad alte prestazioni per parallelizzare l'addestramento di modelli per applicare l'apprendimento automatico ai dati finanziari. Infine, la registrazione della sessione sarà disponibile sul loro canale YouTube e Two Sigma assume a livello globale con la maggior parte delle assunzioni con sede negli Stati Uniti.

  • 00:45:00 I rappresentanti di Two Sigma parlano delle loro politiche in materia di assunzioni e lavoro a distanza. Sebbene non abbiano una politica di lavoro a distanza a tempo pieno, assumono persone provenienti da diversi paesi in tutto il mondo e hanno un team online chiamato Alpha Studio per il lavoro a distanza. Discutono anche dell'importanza di seguire più corsi di finanza quantitativa, probabilità e statistica per coloro che sono interessati all'apprendimento automatico in questo campo. Infine, i relatori rivelano che il loro codice presenta le librerie di deep learning TensorFlow e PyTorch.

  • 00:50:00 I relatori discutono del processo di assunzione presso Two Sigma e dei diversi periodi dell'anno in cui assumono, con particolare attenzione all'estate ma facendo anche eccezioni per l'autunno e la primavera. Dicono anche che assumono a rotazione e incoraggiano le persone a iniziare il prima possibile, anche se ciò significa iniziare a dicembre. In termini di progetti che sarebbero interessanti per i reclutatori, suggeriscono di trovare modelli e tendenze nei dati reali e applicare approcci di apprendimento automatico ai problemi del mondo reale, con particolare attenzione alla proprietà del progetto ed evidenziando ciò che l'individuo possedeva nel progetto su cui ha lavorato SU. I relatori menzionano anche il team di ricerca azionaria fondamentale di Two Sigma, che lavora a stretto contatto con gli ingegneri, i data scientist e altre aree dell'azienda dell'azienda. Infine, affrontano una domanda sull'utilizzo dell'apprendimento per rinforzo per ottimizzare le esecuzioni di trading automatico.

  • 00:55:00 Il relatore discute la differenza tra uno scienziato di dati e un ricercatore quantitativo presso Two Sigma. Sebbene entrambe le posizioni riguardino la modellazione e il trading, la scienza dei dati si concentra sull'aspetto della scienza dei dati e sull'ingegneria delle caratteristiche, mentre la ricerca quantitativa considera il quadro completo del trading dall'inizio alla fine. Il relatore risponde anche a una domanda sulla cultura dell'ufficio e sulle riunioni a Two Sigma, spiegando che mentre ci sono riunioni occasionali che richiedono presentazioni preparate, le riunioni sono più comunemente informali con lavagne disponibili per le discussioni. Infine, il relatore discute i vantaggi di un modello universale rispetto a un modello specifico per le azioni, citando l'apprendimento del trasferimento e il potenziale di problemi di overfitting come ragioni per cui un singolo modello universale addestrato su un set di dati combinato può superare i modelli specializzati.
 

Le chiavi del successo nel trading algoritmico | Podcast | Dott. EP Chan


Le chiavi del successo nel trading algoritmico | Podcast | Dott. EP Chan

Il trading quantitativo, o il trading in generale, è considerato una delle professioni più impegnative in cui entrare e avere successo. Il Dr. DE Shaw, pioniere nel trading quantitativo e fondatore di un hedge fund multimiliardario a New York, lo ha riconosciuto il campo è diventato sempre più impegnativo ogni anno che passa. Questo sentimento è ripreso da molti trader esperti del settore.

Nonostante la sua difficoltà, vale ancora la pena perseguire il trading quantitativo per coloro che ne sono appassionati. Proprio come diventare un attore, cantante, modello o scrittore di narrativa di successo, raggiungere il successo nel trading algoritmico richiede dedizione e perseveranza. Anche se non tutti possono raggiungere il livello di rinomati trader come DE Shaw o Renaissance Technologies, gli aspiranti trader non dovrebbero scoraggiarsi. È importante essere preparati al fallimento poiché il successo in questo campo è un valore anomalo.

Per le persone che non sono già nel settore finanziario, è consigliabile non lasciare il lavoro quotidiano subito dopo la laurea e aver iniziato la loro prima strategia di trading. Si consiglia di avere almeno due strategie di trading redditizie attive per un periodo di due anni prima di considerare il trading a tempo pieno. Questo consiglio si basa sull'esperienza personale e sulle esperienze di altri trader di successo.

I trader spesso commettono l'errore di essere eccessivamente ottimisti sulla performance passata di una strategia, portandoli a sfruttare troppo in alto. È fondamentale evitare una leva finanziaria eccessiva, in quanto può rapidamente spazzare via il capitale di un conto. Inoltre, la performance della strategia di solito non continua ad avere lo stesso andamento. L'allocazione del capitale basata esclusivamente sulla performance passata è un errore comune. Invece, un'allocazione a parità di rischio, in cui il capitale è allocato in modo inversamente proporzionale alla volatilità di una strategia, è generalmente un approccio migliore.

Un altro errore comune è non riuscire a investire i profitti in apparecchiature dati e personale durante i periodi favorevoli. È essenziale reinvestire una parte dei profitti per migliorare l'infrastruttura dati e assumere personale qualificato, in quanto ciò può aiutare a prevenire futuri ribassi.

Una nota positiva, si consiglia di iniziare con strategie semplici che abbiano una giustificazione intuitiva. È saggio comprendere e migliorare le strategie esistenti prima di approfondire approcci più complessi come le reti neurali ricorrenti o il deep learning. Partendo da strategie semplici, i trader possono comprendere meglio le ragioni dietro i successi o gli insuccessi, attribuendole a fattori specifici.

In conclusione, il trading quantitativo è una professione impegnativa ma potenzialmente gratificante. Richiede perseveranza, apprendimento continuo e un attento processo decisionale. Mentre ci sono insidie da evitare, ci sono anche lezioni preziose da imparare da trader esperti. Iniziando con strategie semplici, gestendo il rischio e investendo in infrastrutture e personale, gli aspiranti trader possono aumentare le loro possibilità di successo nel campo del trading quantitativo.

Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
  • 2020.07.02
  • www.youtube.com
Dr. Ernest P. Chan is the Managing Member of QTS Capital Management, LLC. He has worked for various investment banks (Morgan Stanley, Credit Suisse, Maple) a...
 

"Arbitraggio statistico di base: comprendere la matematica dietro il trading di coppie" di Max Margenot


"Arbitraggio statistico di base: comprendere la matematica dietro il trading di coppie" di Max Margenot

Benvenuto al Quanto Peon Algorithmic Trading Meetup, un evento dedicato all'esplorazione del mondo della finanza quantitativa. Sono Max Margit, data scientist presso Quanto Peon, e oggi approfondirò l'affascinante argomento dell'arbitraggio statistico e i concetti statistici fondamentali ad esso associati.

Prima di immergerci negli aspetti teorici, lascia che ti fornisca una breve introduzione a Quanto Peon. Il nostro obiettivo principale è rendere la finanza quantitativa accessibile a tutti offrendo strumenti open source gratuiti che consentano alle persone di ricercare e sviluppare le proprie strategie di trading algoritmico. Il trading algoritmico prevede l'utilizzo di istruzioni per eseguire automaticamente operazioni nei mercati finanziari, che vanno da semplici regole come l'acquisto di azioni Apple ogni giorno alle 10:00 ad analisi quantitative più sofisticate utilizzando modelli statistici.

L'arbitraggio statistico, al centro della discussione odierna, ruota attorno allo sfruttamento delle inefficienze del mercato utilizzando l'analisi statistica invece di fare affidamento sugli squilibri fisici. Questo approccio mira a identificare e capitalizzare gli squilibri statistici nei prezzi delle attività. Per comprendere meglio questo concetto, è fondamentale comprendere alcuni concetti statistici fondamentali.

Uno dei concetti chiave che esploreremo è la stazionarietà, in particolare nel contesto dei dati delle serie temporali. La stazionarietà si riferisce a una serie di punti dati in cui ogni campione viene estratto dalla stessa distribuzione di probabilità con parametri coerenti nel tempo. In termini più semplici, significa che la media e la deviazione standard dei dati rimangono costanti nel tempo. Questo è importante perché molti modelli statistici utilizzati in finanza presuppongono la stazionarietà. Garantendo la stazionarietà, possiamo fidarci dei risultati ottenuti da questi modelli.

Per illustrare il concetto di stazionarietà, generiamo alcuni punti dati. Userò una funzione di base chiamata "generate_data_point" per creare un set di campioni da una distribuzione normale standard. Questi campioni rappresentano una serie temporale stazionaria spesso indicata come rumore bianco. In questo caso, la media è zero e la deviazione standard è uno. Quando tracciamo questi dati, osserviamo uno schema casuale simile al rumore bianco.

Tuttavia, non tutti i dati delle serie temporali mostrano stazionarietà. Se introduciamo un trend nella media, la serie temporale diventa non stazionaria. In finanza, la non stazionarietà può essere molto più complessa di questo semplice esempio. Le statistiche descrittive, come la media, diventano prive di significato per i dati non stazionari in quanto non rappresentano accuratamente l'intera serie temporale.

Ora, come determiniamo se una serie temporale è stazionaria o no? È qui che entrano in gioco i test di ipotesi, come il test di Dickey-Fuller aumentato comunemente usato nell'analisi di stazionarietà. Questo test ci aiuta a valutare la probabilità che una data serie temporale sia non stazionaria.

Applichiamo il test di Dickey-Fuller aumentato ai nostri dati di serie temporali generati. Il test fornisce un valore p, che indica la probabilità di rifiutare l'ipotesi nulla che la serie temporale non sia stazionaria. Nel nostro primo esempio, in cui i dati sono stati deliberatamente generati come stazionari, il p-value è vicino allo zero. Questo ci permette di rifiutare l'ipotesi nulla e concludere che la serie temporale è probabilmente stazionaria. D'altra parte, nel secondo esempio con la tendenza introdotta, il valore p supera la soglia (0,01) e non riusciamo a rifiutare l'ipotesi nulla, indicando che la serie temporale è probabilmente non stazionaria.

Tuttavia, è importante notare che i test di ipotesi hanno dei limiti. Possono verificarsi falsi positivi, specialmente quando si ha a che fare con relazioni sottili o complesse all'interno di dati finanziari. Pertanto, è essenziale esercitare cautela e non affidarsi esclusivamente a test di ipotesi per determinare la stazionarietà.

Ora spostiamo la nostra attenzione sul trading di coppie. Se voglio impegnarmi nel trading di coppie, devo considerare più coppie e piazzare scommesse indipendenti su ciascuna di esse. Invece di fare affidamento su una singola coppia, diversificare il mio portafoglio scambiando 100, 200 o anche 300 coppie mi consente di sfruttare qualsiasi vantaggio che posso avere in ciascuna coppia, aumentando così le mie possibilità complessive di successo.

Le coppie di trading richiedono un solido framework per gestire e monitorare le operazioni in modo efficace. Ciò comporta l'aggiornamento continuo della relazione tra le coppie e l'adeguamento delle posizioni di conseguenza. Poiché i valori beta, che rappresentano la relazione tra le coppie, possono cambiare nel tempo, ho bisogno di un sistema che si adatti dinamicamente a questi cambiamenti.

Inoltre, avere una chiara strategia di uscita per ogni operazione è fondamentale. Devo determinare quando chiudere una posizione se la coppia non mostra più il comportamento previsto o se la relazione tra le coppie si interrompe. Ciò richiede un monitoraggio costante dello spread e la presenza di criteri predefiniti per l'uscita da un'operazione.

Inoltre, la gestione del rischio gioca un ruolo significativo nel trading di coppie. È essenziale calcolare attentamente le dimensioni della posizione per ciascuna coppia in base a fattori quali volatilità, correlazione ed esposizione complessiva del portafoglio. Diversificando le mie operazioni e gestendo il rischio in modo efficace, posso ridurre al minimo l'impatto delle condizioni di mercato avverse e massimizzare i profitti potenziali.

Per implementare strategie di trading di coppie in modo efficace, i trader spesso si affidano a tecniche quantitative avanzate e sviluppano algoritmi sofisticati. Questi algoritmi scansionano automaticamente il mercato alla ricerca di potenziali coppie, valutano la loro cointegrazione e le proprietà statistiche e generano segnali di trading basati su criteri predefiniti.

In conclusione, la comprensione della stazionarietà e lo svolgimento di test appropriati sono fondamentali quando si costruiscono modelli statistici per il trading algoritmico. Afferrando il concetto di stazionarietà e utilizzando test come il test Dickey-Fuller aumentato, i trader possono valutare la probabilità di non stazionarietà nei dati delle serie temporali. Il pairs trading, come strategia di arbitraggio statistico, consente ai trader di sfruttare deviazioni temporanee dalla relazione storica tra due titoli correlati. Tuttavia, un'implementazione di successo richiede strutture solide, monitoraggio continuo, gestione del rischio e l'uso di tecniche quantitative avanzate.

In Quanto Peon, ci sforziamo di colmare il divario tra finanza e tecnologia offrendo lezioni gratuite su statistica e finanza attraverso la nostra serie di conferenze Quanto Peon. La nostra missione è democratizzare la finanza quantitativa e fornire alle persone gli strumenti e le conoscenze per sviluppare le loro strategie di trading algoritmico.

"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in Santa Clara on July 17th, 2017. To learn more about Quantopian, visit: https://www.quantopian...
 

Moto browniana per la matematica finanziaria | Moto browniano per quanti | Calcolo stocastico


Moto browniana per la matematica finanziaria | Moto browniano per quanti | Calcolo stocastico

Ciao, YouTube, e bentornato sul canale ASX Portfolio. Mi chiamo Jonathan e oggi approfondiremo l'affascinante mondo del moto browniano, in particolare nel contesto della matematica finanziaria. Questo è un argomento cruciale in quanto costituisce il fondamento dei processi stocastici e del calcolo stocastico, che sono essenziali nel campo della matematica finanziaria. Il moto browniano è la base degli integrali di Ito e ha un grande significato, quindi comprenderlo è della massima importanza. Nei video futuri, esploreremo ulteriormente la matematica, coprendo argomenti come il moto browniano geometrico, le sue applicazioni e gli integrali di Ito. Assicurati di premere il pulsante Iscriviti se vuoi rimanere sintonizzato per quei video in arrivo.

In questo video, esamineremo un quaderno di Jupyter che ho preparato per spiegare cos'è il moto browniano e come si presenta. Quindi, entriamo subito. Inizieremo considerando un cammino aleatorio simmetrico e poi passeremo a un cammino aleatorio in scala, dimostrando come convergono al moto browniano. In questa spiegazione, useremo la notazione e gli esempi dal libro di Steven Shreve, "Stochastic Calculus for Finance II".

Innanzitutto, è fondamentale capire che le principali proprietà del moto browniano sono le seguenti: è una martingala, il che significa che l'aspettativa è basata esclusivamente sulla posizione corrente della particella o sul prezzo delle azioni. Inoltre, è un processo di Markov e accumula variazioni quadratiche. La variazione quadratica è un concetto unico nel calcolo stocastico, che lo distingue dal calcolo ordinario. In questo episodio, approfondiremo cosa comporta la variazione quadratica.

Se vuoi seguire il codice, è disponibile sul mio sito web. Ho importato le dipendenze necessarie di cui avremo bisogno per questa dimostrazione. È importante notare che il moto browniano è un processo stocastico e, per i nostri scopi, considereremo uno spazio di probabilità filtrato con risultati e un filtraggio F, insieme a uno spazio di probabilità P. Qui, abbiamo un insieme di risultati reali all'interno dell'intervallo da 0 a tempo T.

Il moto browniano ha sempre un valore iniziale pari a zero. Ha incrementi indipendenti, segue una distribuzione gaussiana e mostra quasi sicuramente percorsi campionari continui. Spiegheremo tutte queste proprietà in dettaglio.

Iniziamo con l'esempio più semplice: una passeggiata aleatoria simmetrica. Se non hai familiarità con il concetto di passeggiata casuale, pensala come una sequenza di lanci successivi di monete. Ogni risultato, rappresentato dalla variabile omega, può essere testa o croce. Useremo la variabile X_j per rappresentare ogni risultato, assumendo un valore di 1 per testa e -1 per croce.

Se definiamo un processo con m_0 uguale a zero, allora m_k sarà la sommatoria lungo tutti i possibili percorsi di lancio della moneta per k lanci. In questo caso, abbiamo una passeggiata casuale in cui il processo può salire di 1 o scendere di 1 e sommiamo questi incrementi sui percorsi. Ho scritto uno script per generare 10 percorsi di esempio su un orizzonte temporale di 10 anni. Il grafico mostra come la passeggiata casuale si sposta verso l'alto o verso il basso di 1 ad ogni passo lungo i percorsi.

Questo esempio rivela alcune proprietà interessanti. Innanzitutto, gli incrementi tra i periodi di tempo, come m_k+1 - m_k, sono indipendenti. Inoltre, l'aspettativa di questi incrementi indipendenti è zero e la varianza è uguale alla differenza di tempo o alla distanza tra i passi temporali (k_i+1 - k_i). La varianza si accumula al ritmo di uno per unità di tempo.

Inoltre, la passeggiata casuale simmetrica è una martingala. Ciò significa che l'aspettativa condizionale del valore successivo, data la posizione corrente, è uguale alla posizione corrente. Nel contesto di una passeggiata aleatoria simmetrica, l'aspettativa del

Continuando da dove ci eravamo interrotti, nel prossimo video esploreremo come creare campioni di moto browniano geometrico usando Python. Il moto browniano geometrico è un processo stocastico comunemente utilizzato nella matematica finanziaria per modellare i prezzi delle azioni. È un concetto essenziale da capire sul campo.

Ma prima di approfondire, ricapitoliamo alcune delle proprietà chiave del moto browniano. Il moto browniano è un processo stocastico caratterizzato da diverse proprietà:

  1. Incrementi indipendenti: gli incrementi del moto browniano sono indipendenti, il che significa che il cambiamento tra due punti qualsiasi nel tempo non è correlato al cambiamento tra altri due punti.

  2. Distribuzione gaussiana: gli incrementi del moto browniano seguono una distribuzione gaussiana o normale. Questa distribuzione descrive la probabilità di vari risultati ed è un concetto fondamentale nella teoria della probabilità.

  3. Percorsi campione continui: il moto browniano ha percorsi campione continui, il che significa che non è differenziabile in ogni periodo di tempo. Questa proprietà lo rende adatto alla modellazione di vari fenomeni con fluttuazioni casuali.

  4. Variazione quadratica: La variazione quadratica è una proprietà unica del moto browniano nel calcolo stocastico. Misura le fluttuazioni accumulate nel tempo ed è fondamentale per comprendere il comportamento dei processi stocastici.

Ora, discutiamo del moto browniano geometrico. Il moto browniano geometrico è un'estensione del moto browniano che incorpora la crescita esponenziale. È comunemente usato per modellare il comportamento di attività finanziarie come i prezzi delle azioni. Il moto browniano geometrico ha la seguente forma:

dS(t) = μS(t)dt + σS(t)dW(t)

Qui, S(t) rappresenta il prezzo dell'asset al tempo t, μ è il rendimento atteso o il tasso di deriva, σ è la volatilità o la deviazione standard dei rendimenti, dt è un piccolo intervallo di tempo e dW(t) è un moto browniano standard incremento.

Per simulare il moto browniano geometrico, possiamo discretizzare il processo usando metodi numerici come il metodo di Eulero o l'integrale di Itô. Questi metodi ci consentono di approssimare il processo continuo utilizzando una sequenza di passaggi discreti.

Nel prossimo video esploreremo i dettagli matematici del moto browniano geometrico e le sue applicazioni nella matematica finanziaria. Forniremo anche esempi pratici e frammenti di codice in Python per simulare e visualizzare il moto browniano geometrico.

Se sei interessato a saperne di più su questo argomento, assicurati di iscriverti al nostro canale e resta sintonizzato per il prossimo video. Non vediamo l'ora di condividere ulteriori approfondimenti con te. Grazie per l'attenzione e ci vediamo nel prossimo video!

Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
  • 2021.09.09
  • www.youtube.com
In this tutorial we will investigate the stochastic process that is the building block of financial mathematics. We will consider a symmetric random walk, sc...
 

Simulazione del moto browniano geometrico in Python | Calcolo stocastico per i quanti


Simulazione del moto browniano geometrico in Python | Calcolo stocastico per i quanti

Buona giornata, YouTube, e bentornati su ASX Portfolio Channel. Mi chiamo Jonathan e oggi simuleremo il moto browniano geometrico in Python. In questo tutorial, non esamineremo la derivazione della dinamica del moto browniano geometrico o tratteremo il calcolo di Ito, gli integrali di Ito ei processi stocastici. Tuttavia, esploreremo questi argomenti in dettaglio nel seguente tutorial. Se sei interessato a saperne di più su di loro, iscriviti al nostro canale e premi la campanella di notifica in modo da poter essere avvisato quando il video verrà rilasciato.

Passiamo alla simulazione. Userò questo notebook Jupyter a scopo dimostrativo. Innanzitutto, definiremo i parametri per la nostra simulazione. Il coefficiente di deriva, mu, è impostato su 0,1 o 10% su un anno. Definiremo il numero di passaggi temporali come "n" e lo imposteremo su 100 per una simulazione granulare. Il tempo sarà misurato in anni, indicato con "T". Il numero di simulazioni sarà indicato come "m" e impostato su 100. Il prezzo iniziale delle azioni, S0, è impostato su 100 e la volatilità, sigma, è impostata su 30. Importiamo le dipendenze necessarie: numpy as np e matplotlib .pyplot come plt.

Ora simuliamo i percorsi geometrici del movimento browniano. Per calcolare il passo temporale, dividiamo T per n. Successivamente, utilizzeremo gli array numpy per eseguire la simulazione in un unico passaggio invece di iterare sui percorsi. Definiremo un array chiamato "st" e useremo la funzione esponenziale di numpy. All'interno della funzione, definiremo le componenti: mu meno sigma al quadrato diviso per 2, moltiplicato per dt. Quindi, moltiplichiamo sigma per la funzione random.normal di numpy, che campiona dalla distribuzione normale, e la moltiplichiamo per la radice quadrata di dt. La dimensione di questo array sarà m per n, che rappresentano rispettivamente il numero di simulazioni e le fasi temporali. Dal momento che vogliamo la simulazione per ogni passo temporale, prenderemo la trasposizione di questo array.

Per includere il punto iniziale per ogni simulazione, useremo la funzione vstack di numpy per impilare un array numpy di quelli con l'array di simulazione st. Ciò assicurerà che ogni simulazione inizi con il valore iniziale. Infine, moltiplichiamo l'array in pila per il valore iniziale per tenere conto dei cambiamenti giornalieri in termini di deriva, varianza e componente stocastica. Questo ci darà le implementazioni del passo temporale. Per accumulare questi valori nel tempo, useremo la funzione del prodotto cumulativo di numpy lungo ogni percorso di simulazione, specificando l'asse 1. Questo calcolerà il prodotto cumulativo per ogni percorso.

Ora che abbiamo i percorsi simulati, consideriamo gli intervalli di tempo in anni. Useremo la funzione linspace di numpy per generare passi temporali uniformemente spaziati da 0 a T, con n+1 spazi. Questo ci darà un array chiamato "time". Successivamente, creeremo un array numpy chiamato "fill" con la stessa forma di st in modo da poter tracciare la funzione. Useremo la funzione completa di numpy e imposteremo fill_value su time. Prendendo la trasposizione di questo vettore, possiamo tracciare il grafico con gli anni lungo l'asse x e il prezzo dell'azione lungo l'asse y, tenendo conto della dispersione risultante dal 30% di volatilità e dal 10% di aumento della media o del drift over questo moto browniano geometrico.

Il moto browniano geometrico è un modello utile per la teoria dei prezzi delle opzioni e varie applicazioni di matematica finanziaria. Spero che tu abbia trovato valore in questo tutorial. Nel prossimo video, approfondiremo la matematica finanziaria, il calcolo di Ito, gli integrali di Ito ed esploreremo come aumentare la complessità delle equazioni differenziali stocastiche aggiungendo diversi parametri. Se vuoi saperne di più, assicurati di iscriverti al nostro canale e attiva la campanella di notifica in modo da poter essere avvisato quando quel video verrà rilasciato la prossima settimana. Fino ad allora, rimanete sintonizzati per contenuti più preziosi. Grazie per aver guardato e ci vediamo nel prossimo video.

Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
  • 2021.09.15
  • www.youtube.com
In this tutorial we will learn how to simulate a well-known stochastic process called geometric Brownian motion. This code can be found on my website and is ...
 

Calcolo stocastico per i quanti | Comprensione del moto browniano geometrico utilizzando il calcolo di Itô


Calcolo stocastico per i quanti | Comprensione del moto browniano geometrico utilizzando il calcolo di Itô

Buon giorno, YouTube, e bentornato su ASX Portfolio. Oggi discuteremo perché il moto browniano è una scelta inappropriata per modellare i mercati finanziari. È abbastanza ovvio che il moto browniano comporterebbe prezzi azionari negativi, il che non è realistico. Invece, abbiamo bisogno di un modo per preservare alcune delle proprietà stocastiche del moto browniano e incorporarle nei nostri modelli. Ciò può essere ottenuto utilizzando i processi Ito, che ci consentono di aggiungere la fonte di rischio dal moto browniano.

Un noto processo di Ito è Geometric Brownian Motion (GBM), che molti di voi potrebbero conoscere. Possiamo sfruttare le proprietà del moto browniano per sviluppare nuovi modelli che si allineino meglio con esempi di vita reale. Per fare ciò, utilizziamo un tipo speciale di calcolo noto come calcolo di Ito, che è comunemente usato nella matematica stocastica finanziaria.

Oggi ci concentreremo sulla comprensione dell'integrale di Ito e su come può aiutarci a risolvere problemi complessi. Discuteremo il lemma di Ito, che funge da identità nel calcolo di Ito e aiuta nella derivazione delle regole. Inoltre, esploreremo la formula di Ito-Dobelin e la derivazione della dinamica del moto browniano geometrico.

Per approfondire questi concetti, consiglio vivamente il secondo libro di Stephen Shreve, "Continuous-Time Models for Stochastic Calculus". Il capitolo 4 copre il materiale di cui discuteremo oggi.

Ora, cominciamo col capire cos'è un integrale di Ito. È essenziale ricordare che tutta la matematica di cui parleremo si basa su uno spazio di probabilità filtrato. Questo spazio comprende i risultati, i filtri e le misure di probabilità. La filtrazione si riferisce a una sigma-algebra che contiene tutte le informazioni fino al tempo t. Sebbene la teoria della probabilità sia complessa, oggi ne parleremo solo brevemente. Per una comprensione più approfondita, consiglio di fare riferimento ai primi tre capitoli del libro di Shreve.

L'integrale di Ito è rappresentato dal simbolo ∫δdW, dove δ è un processo stocastico e dW è il processo di Wiener. Per coglierne il significato, immaginiamo di suddividere il periodo di tempo da 0 a T in piccoli intervalli. Possiamo denotare il processo stocastico δ alla potenza di n, dove n rappresenta il numero di intervalli di tempo. Questo processo è adattato, il che significa che i suoi valori sono determinati dai risultati dei lanci di monete ad ogni intervallo di tempo.

Ora, considera l'integrale come il limite di una somma quando il numero di intervalli si avvicina all'infinito. Ogni addizione consiste nel processo stocastico δ moltiplicato per la variazione del processo di Wiener tra gli intervalli. Man mano che gli intervalli diventano più piccoli, convergiamo sull'integrale di Ito. Tuttavia, affinché questo limite esista, devono essere soddisfatte due condizioni: il processo δ deve essere adattato alla filtrazione, e deve essere integrabile al quadrato.

Ora che abbiamo compreso la notazione, passiamo ai processi Ito generali. Questi processi si verificano nello stesso dominio del tempo con lo stesso spazio dei risultati. Coinvolgono integrali basati sul tempo e integrali di Ito rispetto al processo di Wiener. L'integrale basato sul tempo è simile a un normale integrale di Riemann, mentre l'integrale di Ito cattura la natura stocastica del processo. Questi processi possono essere suddivisi in termini di deriva e diffusione.

Un esempio di un processo Ito è Geometric Brownian Motion (GBM). Comprende un termine di deriva e un termine di diffusione. La deriva è determinata da una costante μ, mentre la diffusione è controllata da un parametro di volatilità σ. La dinamica di GBM può essere espressa utilizzando integrali, come mostrato nell'equazione.

Espandendo questo, possiamo anche considerare l'integrale di un processo Ito. Ad esempio, l'integrale del processo Ito può rappresentare il profitto e la perdita di negoziazione (P&L).

Nella decomposizione Itô-Doob, abbiamo questo processo generico rappresentato dall'integrale del termine di deriva, dall'integrale del termine di diffusione e dal termine integrale di Itô. Ora, la formula Itô-Doob fornisce un modo per calcolare il differenziale di una funzione del processo. Afferma che il differenziale della funzione è uguale alla derivata parziale della funzione rispetto al tempo, più le derivate parziali della funzione rispetto alle variabili di stato moltiplicate per i termini di deriva, più le derivate parziali della funzione rispetto alle variabili di stato moltiplicate per i termini di diffusione, più l'integrale delle derivate parziali della funzione rispetto alle variabili di stato moltiplicate per il termine integrale Itô.

Questa formula ci consente di calcolare la variazione del valore di una funzione mentre il processo evolve nel tempo. È uno strumento fondamentale nel calcolo Itô ed è ampiamente utilizzato nell'analisi stocastica e nella finanza matematica.

Passando al moto browniano geometrico (GBM), è un tipo specifico di processo Itô comunemente utilizzato per modellare la dinamica dei prezzi delle azioni e di altre attività finanziarie. GBM incorpora sia componenti di deriva che di diffusione. Il termine di deriva rappresenta il tasso di rendimento atteso sull'asset, mentre il termine di diffusione cattura la volatilità o la casualità nei movimenti di prezzo dell'asset.

La dinamica del GBM può essere derivata utilizzando il calcolo di Itô. Applicando la formula Itô al logaritmo del prezzo dell'asset, otteniamo un'espressione che descrive la variazione del logaritmo del prezzo nel tempo. Questo cambiamento è uguale al termine di deriva moltiplicato per l'incremento di tempo, più il termine di diffusione moltiplicato per l'integrale Itô. Esponenziando entrambi i lati dell'equazione, recuperiamo la dinamica del prezzo dell'asset stesso.

Comprendere le dinamiche di GBM è fondamentale nella determinazione del prezzo delle opzioni e nella gestione del rischio. Ci consente di modellare il comportamento stocastico dei prezzi delle attività e stimare le probabilità di vari risultati. Il GBM è stato ampiamente utilizzato nella matematica finanziaria ed è servito da base per molti modelli di prezzo, come il modello Black-Scholes per il prezzo delle opzioni.

In sintesi, il calcolo di Itô fornisce un potente framework per la modellazione e l'analisi dei processi stocastici in finanza. Incorporando gli integrali Itô e applicando il lemma di Itô e la formula Itô-Doob, possiamo derivare le dinamiche di varie variabili finanziarie e sviluppare modelli che catturino le proprietà stocastiche dei mercati del mondo reale. Itô calcolo ha rivoluzionato il campo della finanza matematica e continua ad essere uno strumento essenziale per comprendere e gestire il rischio finanziario.

Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
  • 2021.09.22
  • www.youtube.com
In this tutorial we will learn the basics of Itô processes and attempt to understand how the dynamics of Geometric Brownian Motion (GBM) can be derived. Firs...
 

Calcolo stocastico per i quanti | Determinazione del prezzo neutrale al rischio per i derivati | Spiegazione del prezzo delle opzioni


Calcolo stocastico per i quanti | Determinazione del prezzo neutrale al rischio per i derivati | Spiegazione del prezzo delle opzioni

In questo video, approfondiremo la matematica finanziaria alla base della valutazione di un derivato finanziario utilizzando la simulazione Monte Carlo e il prezzo neutrale al rischio. Risponderemo a domande come perché viene utilizzata la simulazione Monte Carlo, cos'è il prezzo neutrale al rischio e perché il tasso di crescita delle azioni non entra nel modello derivato.

Il prezzo neutrale al rischio è una metodologia in cui il valore di un'opzione è l'aspettativa scontata dei suoi guadagni futuri. In altre parole, è il valore atteso di tutti i possibili payoff di un derivato, attualizzati. Il tasso di crescita delle azioni sottostanti non influisce sul prezzo dell'opzione nel quadro dei prezzi neutrale al rischio. Questo perché il derivato e il titolo sottostante hanno una perfetta correlazione, consentendo la replica e la creazione di un portafoglio privo di rischio.

Ci sono diversi vantaggi nell'usare l'approccio di determinazione del prezzo neutrale al rischio rispetto ad altri metodi di valutazione. In primo luogo, con formulazioni derivate complesse, le soluzioni in forma chiusa potrebbero non essere fattibili. In tali casi, l'utilizzo di metodi di replica e la risoluzione di equazioni alle derivate parziali (PDE) può essere computazionalmente costoso. Il prezzo neutrale al rischio, d'altra parte, consente una facile approssimazione del valore dell'opzione utilizzando la simulazione Monte Carlo, che è meno costosa dal punto di vista computazionale.

Per spiegare il prezzo neutrale al rischio, iniziamo considerando il modello binomiale a un periodo. In questo modello, il titolo può salire o scendere e il valore dell'opzione dipende da questi due possibili risultati. Costruendo un portafoglio del titolo sottostante e un asset privo di rischio, possiamo replicare il payoff dell'opzione. Usando il principio di non arbitraggio, il valore dell'opzione al tempo zero deve essere uguale al valore del portafoglio al tempo zero. Risolvendo le equazioni lineari, possiamo ottenere una formula che rappresenta l'aspettativa scontata nel modello binomiale.

Introduciamo il concetto di misura di probabilità neutrale al rischio, indicata con q, che ci consente di passare dalle probabilità fisiche del prezzo delle azioni alle probabilità neutrali al rischio. Questo spostamento si ottiene riponderando le probabilità fisiche con una variabile casuale chiamata derivata casuale-nickdem. Questo derivato ci consente di tradurre il valore dell'opzione dal mondo dei prezzi neutrali al rischio al mondo della probabilità fisica.

L'obiettivo del prezzo neutrale al rischio è identificare il processo derivato random-nickdem, indicato come Zt, che garantisce che tutti i prezzi azionari scontati siano martingale sotto la misura di probabilità neutrale al rischio q. Eseguendo un cambio di misura, possiamo convertire il moto browniano originale sotto la misura di probabilità fisica in un nuovo moto browniano sotto la misura di probabilità neutrale al rischio. Questo nuovo moto browniano è un processo martingala, che indica che la sua aspettativa rimane costante nel tempo.

Per applicare questi concetti, consideriamo il modello geometrico del moto browniano, che rappresenta la dinamica di un'azione che non paga dividendi. Il modello si compone di una componente deterministica e di una componente stocastica, rappresentativa della volatilità. Tuttavia, le dinamiche azionarie originali non sono una martingala sotto le probabilità fisiche dovute alla componente deterministica. Per rendere la dinamica una martingala, introduciamo la derivata Radon-Nikodym, che rimuove il termine deriva e trasforma la dinamica del titolo in un processo martingala sotto la misura di probabilità neutrale al rischio.

In sintesi, la determinazione del prezzo neutrale al rischio e la simulazione Monte Carlo forniscono un quadro prezioso per la valutazione dei derivati finanziari. L'approccio di determinazione del prezzo neutrale rispetto al rischio offre vantaggi quali semplicità, efficienza computazionale e capacità di gestire strutture derivate complesse. Utilizzando la derivata random-nickdem e modificando la misura dalle probabilità fisiche alle probabilità neutrali al rischio, possiamo valutare accuratamente le derivate e replicare i loro guadagni in modo privo di rischio.

Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
  • 2022.01.12
  • www.youtube.com
In this tutorial we will learn the basics of risk-neutral options pricing and attempt to further our understanding of Geometric Brownian Motion (GBM) dynamic...
 

Trading di volatilità azionaria con il processo Ornstein-Uhlenbeck


Trading di volatilità azionaria con il processo Ornstein-Uhlenbeck

All'inizio del 2020, l'S&P 500 ha registrato un aumento significativo della volatilità a causa del forte calo dei prezzi. Nell'arco di un mese, l'indice è crollato di quasi mille punti. Allo stesso tempo, anche l'aspettativa di volatilità futura, basata sulle opzioni su indici negoziate, è aumentata durante questo periodo, raggiungendo un picco di 66. È diventato evidente che durante i periodi di volatilità del mercato, quando il valore dell'indice è diminuito, il VIX (Indice di volatilità) è aumentato. Il VIX funge da stima futura della volatilità. Questo fenomeno ha portato i market maker ei professionisti del trading a prevedere che la volatilità realizzata sarebbe persistita.

In questo video, miriamo a spiegare le caratteristiche di mercato della volatilità e discutere una metodologia per modellare la volatilità adattando la formula di Ornstein-Uhlenbeck a uno specifico indice di volatilità. Useremo il metodo di stima della massima verosimiglianza per calibrare i tre parametri del modello ai dati di mercato. Successivamente, simuleremo questo processo in Python, permettendoci di comprendere e analizzare le dinamiche della volatilità nel tempo.

Per fare ciò, importeremo varie dipendenze come time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e la funzione plot_acf dal modulo stats. I dati che utilizzeremo sono i dati S&P 500 dal 2003 in poi. Per studiare il clustering della volatilità e le sue proprietà nelle serie temporali finanziarie, faremo riferimento al documento di ricerca "Volatility Clustering in Financial Markets" di Ramacant (2005), che esplora le proprietà statistiche delle serie temporali finanziarie. Le tre proprietà significative su cui ci concentreremo sono l'eccesso di volatilità, le code pesanti e il clustering della volatilità.

Il clustering della volatilità si riferisce all'osservazione che grandi cambiamenti nei prezzi tendono ad essere seguiti da altri grandi cambiamenti, indipendentemente dalla loro direzione, mentre piccoli cambiamenti sono spesso seguiti da piccoli cambiamenti. Questa manifestazione quantitativa suggerisce che sebbene i rendimenti possano essere non correlati, i rendimenti assoluti oi loro quadrati mostrano una piccola correlazione positiva che diminuisce gradualmente nel tempo. Per analizzarlo, esaminiamo i rendimenti logaritmici, che rappresentano il logaritmo delle variazioni di prezzo nel tempo. Esaminando visivamente i rendimenti logaritmici dell'S&P 500, possiamo osservare cluster di elevata entità durante periodi specifici, come i cluster significativi nel 2008-2009 e nel 2020.

Successivamente, valutiamo la correlazione tra i ritorni di log ritardati. In particolare, non troviamo alcuna autocorrelazione statisticamente significativa nei rendimenti dei log nell'intervallo di dati specificato. Tuttavia, quando equazioniamo il logaritmo tornando a focalizzarci sulla magnitudine assoluta, osserviamo una forte correlazione positiva che si estende anche a giorni e settimane ritardate. Ciò implica che durante i periodi di elevata volatilità è probabile che persista e durante i periodi di bassa volatilità è probabile che anche la tendenza continui. Questo fenomeno è noto come raggruppamento di volatilità.

Per visualizzare la volatilità continua in un numero specifico di giorni, selezioniamo una finestra di trading e calcoliamo la deviazione standard su quella finestra. Per annualizzare la volatilità, prendiamo la radice quadrata del numero di giorni di negoziazione in un anno, che in genere è 252. Questo approccio ci consente di osservare aumenti significativi della volatilità realizzata durante determinati periodi.

Per modellare questo processo di volatilità realizzata, ci rivolgiamo alla formula di Ornstein-Uhlenbeck. Questa formula, nota anche come modello di Vasicek in matematica finanziaria, considera tre parametri: kappa, che rappresenta il tasso di ritorno medio; theta, la volatilità media attorno alla quale oscillano i prezzi; e sigma, la volatilità stessa. Miriamo a trovare valori di parametro che massimizzino la probabilità che i dati osservati aderiscano a questa distribuzione.

Per raggiungere questo obiettivo, utilizziamo il metodo di stima della massima verosimiglianza (MLE), che si applica a campioni casuali e funzioni di densità di probabilità. Nel caso della distribuzione normale, la funzione di verosimiglianza è il prodotto delle singole probabilità campionarie dati i parametri. Prendendo il logaritmo della funzione di verosimiglianza, possiamo convertire

Ora che abbiamo derivato l'aspettativa e la varianza del processo di Ornstein-Uhlenbeck, possiamo procedere a modellare la volatilità utilizzando questo framework. Per fare ciò, calibreremo i parametri del modello in base ai dati di mercato utilizzando il metodo di stima della massima verosimiglianza (MLE).

Innanzitutto, importiamo le dipendenze necessarie, incluse librerie come time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e la funzione plot_acf dal modulo stats. Importiamo anche i dati S&P 500 dal 2003, che serviranno come dati di mercato.

Successivamente, esploriamo il concetto di clustering della volatilità nelle serie temporali finanziarie. Il clustering della volatilità si riferisce al fenomeno in cui grandi cambiamenti nei prezzi tendono ad essere seguiti da altri grandi cambiamenti e piccoli cambiamenti tendono ad essere seguiti da piccoli cambiamenti. Osserviamo visivamente questo effetto di raggruppamento quando tracciamo i rendimenti logaritmici dell'S&P 500. Possiamo vedere che durante i periodi di volatilità del mercato, l'entità dei rendimenti logaritmici si raggruppa insieme, indicando una correlazione tra ampi movimenti di prezzo. Ad esempio, possiamo vedere i cluster durante la crisi finanziaria nel 2008-2009 e il picco di volatilità nel 2020.

Per quantificare la correlazione tra i rendimenti logaritmici, calcoliamo la funzione di autocorrelazione (ACF). Mentre i rendimenti logaritmici stessi non mostrano alcuna autocorrelazione significativa, i rendimenti logaritmici al quadrato (che rappresentano la grandezza assoluta) mostrano una piccola correlazione positiva che decade lentamente nel tempo. Questa autocorrelazione di grandezza assoluta conferma la presenza di volatility clustering, dove tendono a persistere periodi di alta volatilità, mentre tendono a persistere anche periodi di bassa volatilità.

Per analizzare ulteriormente la volatilità, calcoliamo la volatilità mobile su un numero specificato di giorni calcolando la deviazione standard e annualizzandola utilizzando la radice quadrata del numero di giorni di negoziazione in un anno. Tracciando la volatilità mobile, possiamo osservare periodi di maggiore volatilità, indicati da significativi rialzi della volatilità realizzata.

Ora introduciamo la formula di Ornstein-Uhlenbeck (OU), che viene utilizzata per modellare la volatilità. Il modello OU incorpora mean reversion, livello medio e volatilità intorno al prezzo medio. I parametri del modello includono kappa (tasso di reversione media), theta (livello medio) e sigma (volatilità). Per stimare questi parametri, applichiamo il metodo di stima della massima verosimiglianza (MLE), che comporta la ricerca dei valori dei parametri che massimizzano la probabilità che i dati osservati provengano dalla distribuzione OU.

Iniziamo discutendo la funzione di verosimiglianza, che è la funzione di densità di probabilità congiunta (pdf) dei dati osservati dati i parametri. Nel caso della distribuzione normale, la funzione di verosimiglianza è il prodotto dei singoli valori pdf. Prendere il logaritmo della funzione di verosimiglianza semplifica i calcoli, in quanto trasforma il prodotto delle probabilità nella somma dei logaritmi. Trovando lo stimatore di massima verosimiglianza (MLE) dei parametri, possiamo determinare i valori che massimizzano la verosimiglianza dei dati osservati.

Nel caso del processo UO, dobbiamo utilizzare metodi numerici per trovare le stime di massima verosimiglianza dovute alla non differenziabilità della funzione di verosimiglianza logaritmica. Utilizziamo la funzione scipy.optimize.minimize per minimizzare la probabilità logaritmica negativa, in quanto fornisce una soluzione numerica al problema di massimizzazione. Definendo la funzione di verosimiglianza, i parametri iniziali e i vincoli, possiamo stimare i parametri che massimizzano la verosimiglianza dei dati osservati.

Una volta stimati i parametri del processo OU, possiamo simulare il processo utilizzando Python. Possiamo simulare il processo discretizzando i passi temporali e ottenendo un percorso nel tempo o simulandolo come un processo Itô a tempo continuo. Quest'ultimo metodo fornisce una rappresentazione più accurata delle dinamiche di volatilità in momenti specifici.

In conclusione, il testo discute le caratteristiche di volatilità osservate nell'S&P 500 durante i periodi di volatilità del mercato. Introduce il concetto di clustering della volatilità e ne dimostra la presenza utilizzando i rendimenti logaritmici e i rendimenti logaritmici al quadrato. Il modello di Ornstein-Uhlenbeck (OU) viene quindi introdotto come framework per modellare la volatilità e viene utilizzato il metodo di stima della massima verosimiglianza (MLE) per stimare i parametri del modello. Infine, viene spiegata la simulazione del processo OU, consentendo l'analisi e la comprensione delle dinamiche di volatilità nel tempo.

Trading stock volatility with the Ornstein-Uhlenbeck process
Trading stock volatility with the Ornstein-Uhlenbeck process
  • 2022.03.07
  • www.youtube.com
Understanding and modelling volatility accurately is of utmost importance in financial mathematics. The emergence of volatility clustering in financial marke...
 

La formula magica per il trading di opzioni senza rischi



La formula magica per il trading di opzioni senza rischi

In questo video imparerai come utilizzare la formula di Breeden-Litzenberger per derivare funzioni di densità di probabilità neutrali al rischio dai prezzi delle opzioni. Questa tecnica è estremamente utile quando il calcolo dei prezzi delle opzioni diventa dispendioso in termini di tempo e computazionalmente intensivo, specialmente per dinamiche complesse e scenari ad alta dimensione. La formula di Breeden-Litzenberger ci consente di calcolare derivate complesse una volta per diversi strike e valori di tempo alla scadenza, risultando in una funzione di distribuzione di probabilità neutrale al rischio che semplifica il calcolo di vari derivati complessi.

Per iniziare, comprendiamo il concetto di probabilità neutrale al rischio. L'analisi di Feynman-Kac ci consente di definire la probabilità neutrale al rischio come una misura (Q) della probabilità neutrale al rischio terminale al tempo (t). La funzione di distribuzione di probabilità cumulativa (F) rappresenta la distribuzione di probabilità neutrale al rischio. Il prezzo di un'opzione call europea al tempo (t) con uno strike (k) e il tempo alla scadenza (tau) può essere fatto prendendo l'aspettativa scontata neutrale al rischio del payoff. Questo può essere espresso come l'integrale di (S_t - k) moltiplicato per la funzione di densità neutrale al rischio (pdf) tra lo strike (k) e l'infinito, scontato per il tasso privo di rischio.

Per calcolare la probabilità neutrale al rischio direttamente da questa formula, possiamo utilizzare la formula di Breeden-Litzenberger del 1978. Essa afferma che la derivata prima dell'integrale rispetto allo strike (k) è uguale a meno il fattore di sconto esponenziale moltiplicato per (1 - F), dove F è la funzione di densità cumulativa. La derivata seconda dell'integrale centrato sullo strike (k) estrae la pdf, che è il fattore di sconto moltiplicato per la pdf neutrale al rischio.

Ora, discutiamo su come applicare questa formula in Python. Dobbiamo importare librerie come NumPy, SciPy, Pandas e Matplotlib. Ad esempio, considereremo un'opzione call europea con volatilità stocastica secondo il modello Heston. Il modello Heston fornisce la dinamica dell'asset sottostante e la sua volatilità. Inizializziamo i parametri necessari, come il prezzo delle azioni, lo strike, il tempo alla scadenza, il tasso privo di rischio e i parametri del modello Heston come il tasso di ritorno medio, la varianza a lungo termine, la volatilità iniziale, la correlazione e la volatilità della volatilità.

Utilizzando la formula di Breeden-Litzenberger, possiamo determinare la funzione di distribuzione di probabilità neutrale al rischio. Approssimando la derivata seconda usando l'approssimazione alle differenze finite, calcoliamo la distribuzione neutrale al rischio per i diversi valori strike e time-to-maturity. Costruiamo un pdf 2D per un particolare tempo di scadenza.

Per calcolare i prezzi delle opzioni secondo il modello Heston, utilizziamo la funzione caratteristica ed eseguiamo l'integrazione numerica utilizzando l'integrazione rettangolare. Definiamo la funzione caratteristica e calcoliamo l'integrale complesso su un dominio specificato usando l'integrazione rettangolare. La dimensione del passo scelta per l'integrazione influisce sulla precisione, in particolare per le opzioni out-of-the-money.

Confrontiamo i risultati ottenuti utilizzando l'integrazione rettangolare con la libreria QuantLib, che è implementata in C e fornisce un'integrazione numerica più accurata. Sebbene ci siano alcune differenze tra i due approcci, l'errore quadratico medio (MSE) è piccolo. Le discrepanze sono principalmente dovute a errori di arrotondamento causati dalla rappresentazione binaria dei valori decimali in Python.

Dopo aver ottenuto il pdf approssimativo discreto, lo moltiplichiamo per il fattore forward. Utilizziamo l'interpolazione per appianare la curva e creare una funzione di distribuzione continua neutrale al rischio. Infine, possiamo utilizzare questa distribuzione neutrale al rischio per prezzare facilmente vari derivati complessi.

In conclusione, la formula di Breeden-Litzenberger ci consente di derivare funzioni di densità di probabilità neutrali al rischio dai prezzi delle opzioni. Approssimando la derivata seconda usando l'approssimazione alle differenze finite ed eseguendo l'integrazione numerica, possiamo calcolare la distribuzione neutrale al rischio per diversi strike e valori di tempo alla scadenza. Questo ci consente di prezzare derivati complessi in modo efficiente.

The Magic Formula for Trading Options Risk Free
The Magic Formula for Trading Options Risk Free
  • 2022.06.05
  • www.youtube.com
In 1978, Breeden and Litzenberger showed how under risk-neutral pricing, that the discounted Risk-Neutral Density (RND) function could be estimated directly...
Motivazione: