Commercio quantitativo - pagina 6

 

Ernest Chan (Predictnow.ai) - "Come utilizzare l'apprendimento automatico per l'ottimizzazione"



Ernest Chan (Predictnow.ai) - "Come utilizzare l'apprendimento automatico per l'ottimizzazione"

Ernest Chan, il co-fondatore di Predictnow.ai, approfondisce le sfide affrontate dai tradizionali metodi di ottimizzazione del portafoglio quando si tratta di cambiamenti di regime nei mercati. Suggerisce che l'apprendimento automatico può fornire una soluzione a questo problema. Chan spiega in che modo il suo team applica le tecniche di apprendimento automatico all'ottimizzazione del portafoglio, concentrandosi sull'incorporazione di funzionalità di serie temporali che misurano vari aspetti finanziari come volatilità, prezzi e tassi di interesse. Combinando il modello Farmer-French Three Factor con la consapevolezza che la classifica è più cruciale della previsione, mirano a ottenere un'ottimizzazione ottimale del portafoglio.

Chan prosegue condividendo i risultati concreti delle prestazioni del modello CBO e fornisce esempi di clienti che hanno sperimentato miglioramenti nelle prestazioni del loro portafoglio utilizzando questo approccio. Sottolinea che i modelli di apprendimento automatico hanno la capacità di adattarsi ai cambiamenti di regime, consentendo loro di rispondere efficacemente alle condizioni di mercato in evoluzione. Inoltre, discute di come i rendimenti dell'indice S&P 500 e dei suoi componenti possono essere calcolati utilizzando un algoritmo di apprendimento automatico che utilizza funzionalità di serie temporali.

Inoltre, Chan evidenzia l'approccio d'insieme impiegato dal suo team per l'ottimizzazione e la speculazione. Menziona la loro "salsa segreta" che elimina la necessità di un'ampia potenza di calcolo. Anziché seguire un processo in due fasi di previsione dei regimi e condizionamento della loro distribuzione dei rendimenti, utilizzano fattori visivi per prevedere direttamente la performance del portafoglio. Inoltre, Chan chiarisce che includendo una parte significativa del campione di addestramento nel proprio algoritmo, il rendimento atteso si allinea ai risultati passati.

Il Dr. Ernest Chan spiega le sfide affrontate dai tradizionali metodi di ottimizzazione del portafoglio in presenza di cambiamenti di regime e sottolinea il ruolo dell'apprendimento automatico nell'affrontare questo problema. Discute l'applicazione delle tecniche di apprendimento automatico, l'importanza delle caratteristiche delle serie temporali e l'importanza del posizionamento nel raggiungimento dell'ottimizzazione ottimale del portafoglio. Condivide risultati specifici e storie di successo dei clienti, evidenziando l'adattabilità dei modelli di apprendimento automatico alle mutevoli condizioni di mercato. Chan fornisce anche approfondimenti sul calcolo dei rendimenti utilizzando algoritmi di apprendimento automatico e fa luce sul loro approccio d'insieme e sulla loro metodologia unica.

  • 00:00:00 In questa sezione, Ernest Chan discute i tradizionali metodi di ottimizzazione del portafoglio e la sfida dei cambiamenti di regime nel mercato, il che significa che un portafoglio che era ottimale in passato potrebbe non esserlo in futuro. Spiega che la maggior parte dei metodi utilizza i rendimenti storici o le informazioni passate come input e non tiene conto dei cambiamenti di regime. Suggerisce che l'apprendimento automatico può aiutare ad affrontare questo problema utilizzando i big data e tutte le variabili osservate nei diversi mercati. L'apprendimento automatico può generare rendimenti attesi che non si basano esclusivamente su rendimenti storici e può quindi essere più adatto per affrontare i cambiamenti di regime.

  • 00:05:00 In questa sezione, Ernest Chan discute il concetto di regime nella finanza e come influisce sull'ottimizzazione. Spiega che mentre ci sono alcuni regimi fattibili come i mercati ribassisti o rialzisti, ci sono anche regimi nascosti che non possono essere definiti in modo esplicito e sono in continua evoluzione. Questi regimi sono difficili da prevedere e rovinano i metodi classici di ottimizzazione. Questa comprensione ha portato il Dr. Chan a sviluppare la tecnica dell'ottimizzazione condizionale del portafoglio, che può misurare e adattarsi al regime attuale utilizzando un gran numero di variabili. Questa tecnica può migliorare le prestazioni della strategia di trading in condizioni di mercato variabili.

  • 00:10:00 In questa sezione, Ernest Chan discute l'uso dell'apprendimento automatico per l'ottimizzazione e come adattare i parametri utilizzando l'apprendimento supervisionato. Spiega che nell'apprendimento supervisionato esiste una variabile target etichettata, come il parametro da ottimizzare, che è il rapporto netto o il rendimento futuro di un mese di una strategia di trading. L'input è una combinazione di variabili di mercato e macroeconomiche che misurano il regime attuale e le variabili di controllo che il trader può regolare, formando un ampio set di dati. Per ottimizzare, viene condotta una ricerca esaustiva di varie combinazioni dei parametri per trovare il massimo rapporto di nitidezza, che è l'ottimizzazione condizionale dei parametri. Ernest Chan conclude con un semplice esempio che utilizza una strategia giocattolo che illustra la combinazione di caratteristiche di mercato e caratteristiche di controllo per formare una riga per l'input.

  • 00:15:00 In questa sezione, Ernest Chan spiega come il suo team applica il machine learning all'ottimizzazione del portfolio. Il team utilizza lo stesso approccio di apprendimento automatico applicato all'ottimizzazione dei parametri per affrontare questo problema più ampio. Usano i big data come funzionalità di input e previsione implicita di regimi nascosti. A differenza dei classici metodi di ottimizzazione del portafoglio che si basano esclusivamente sui rendimenti passati e sulla covarianza dei rendimenti come dati di input, il loro metodo considera l'attuale condizione di mercato, gli indicatori tecnici e fondamentali e gli indicatori macroeconomici per adattarsi al regime e trovare il portafoglio ottimale nell'attuale condizione di mercato. Il team risponde alle domande del Q&A, spiegando che non utilizza la simulazione ma dati di mercato reali per calcolare i rendimenti data una particolare allocazione di capitale ipotetica.

  • 00:20:00 In questa sezione, Ernest Chan spiega il tipo di funzionalità utilizzate nell'ottimizzazione del portafoglio attraverso l'apprendimento automatico. Sottolinea che vengono utilizzate solo funzionalità di serie temporali e non sono coinvolte funzionalità trasversali. Questo metodo si concentra sulle caratteristiche del portafoglio o del regime di mercato nel suo insieme, come i fattori che misurano la finanza, la volatilità, i prezzi e i tassi di interesse. Anche se questo può sembrare strano, Chan lo collega alla qualità esplicativa del modello a tre fattori contadino-francese. Utilizzando modelli di apprendimento automatico, l'obiettivo non è prevedere i rendimenti, ma classificarli accuratamente per ottenere un'ottimizzazione ottimale del portafoglio.

  • 00:25:00 In questa sezione, Ernest Chan discute l'importanza del posizionamento nelle applicazioni finanziarie e come può essere applicato all'ottimizzazione del portafoglio. Spiega che i metodi tradizionali di utilizzo dei modelli di apprendimento automatico per prevedere i rendimenti trasversali possono comportare una situazione di immondizia in entrata e in uscita se le previsioni di rendimento non sono accurate in grandezza e segno. Tuttavia, con il metodo CPO, che combina il modello Fama-French Factor e l'idea che la classifica è più importante della previsione, la soluzione ottimale è molto più stabile contro gli errori in qualsiasi fase del programma. Osserva inoltre che questo metodo può tollerare enormi errori nella previsione dell'apprendimento automatico a causa della classificazione.

  • 00:30:00 In questa sezione, Ernest Chan spiega come misurare l'effetto della finanza comportamentale utilizzando metriche di mercato familiari come il Delta netto delle attività di acquisto di opzioni. Spiega che la sua azienda utilizza questa metrica come una delle caratteristiche del proprio modello CBO, che tiene conto dell'effetto del fenomeno, piuttosto che della causa principale del fenomeno. Chan condivide quindi i risultati concreti della performance del modello CBO, tra cui il superamento del metodo media-varianza e il superamento degli asset tradizionali. Inoltre, fornisce un esempio di come il metodo CBO abbia funzionato meglio nell'allocare i pesi ai titoli growth e ai titoli a grande capitalizzazione durante determinati periodi di tempo rispetto ad altri metodi.

  • 00:35:00 In questa sezione, il relatore spiega come i metodi classici di investimento e trading sono fissi e non adattivi, a differenza del metodo CBO (Combinatorial Bayesian Optimization) che supera i metodi classici perché può adattarsi al regime di mercato, risultando in prestazioni migliori. Il CBO è progettato per ottimizzare e consigliare le transazioni, anche se al portafoglio esistente sono già associati dei costi di transazione. Il CBO non sostiene costi di transazione aggiuntivi e consiglia solo di acquistare più o meno azioni particolari. Il relatore cita poi esempi di clienti che hanno adottato il metodo CBO e hanno visto migliorare la performance del proprio portafoglio.

  • 00:40:00 In questa sezione, Ernest parla di un caso di studio in cui sono stati in grado di ottenere rendimenti positivi in un portafoglio azionario nonostante i vincoli dallo zero al 25 percento su ciascun titolo. Il portafoglio era composto da titoli tecnologici e si prevedeva un grave crollo nel 2022, ma il loro metodo di allocazione del 50% alla liquidità durante quel periodo ha contribuito a generare rendimenti. Alla domanda sulla riproducibilità dei loro metodi, Ernest spiega che mentre alcune caratteristiche come la rete Delta di opzioni sono importanti caratteristiche di input, ne hanno divulgato una descrizione di alto livello sul loro sito web. Cita anche l'utilizzo di alberi decisionali del processo gradiente e altri algoritmi per l'apprendimento automatico e il loro approccio alla definizione del regime di mercato avviene attraverso la rappresentazione utilizzando centinaia di funzionalità.

  • 00:45:00 In questa sezione, Chan spiega come l'apprendimento automatico può essere utilizzato per l'ottimizzazione costruendo una variabile di risposta, come un rapporto Sharpe, e adattando una funzione F per diversi scenari della variabile di controllo per ogni stato di mercato. L'etichetta dell'algoritmo di apprendimento supervisionato è la variabile da massimizzare, come l'indice di Sharpe, e ogni proposta di portafoglio viene inserita nella formula predittiva finché non viene trovato il portafoglio con le migliori prestazioni. Chan osserva che la complessità del problema non scala linearmente con il numero di asset nel portafoglio, ma il suo team ha sviluppato un algoritmo per gestire il problema. Il più grande universo di portafoglio che hanno utilizzato è l'S&P 500.

  • 00:50:00 In questa sezione, Ernest Chan fornisce un esempio di come il modello di apprendimento automatico risponde ai cambiamenti di regime utilizzando l'allocazione di denaro come indicatore. Quando il mercato ribassista è iniziato nel 2022, il modello è rimasto in contanti per la maggior parte del tempo, salvando il portafoglio da rendimenti negativi. Afferma inoltre che la funzione obiettivo può essere impostata su qualsiasi cosa, non solo sul tradizionale rapporto o rendimento massimo massimo, a causa della natura non lineare dell'algoritmo di apprendimento e dell'algoritmo di ottimizzazione, e che vincoli come pesi, ESG e turnover possono essere applicato. Il software è flessibile e può adattarsi a qualsiasi funzionalità di mercato fornita dal cliente. Inoltre, Chan afferma che il modello può gestire azioni con storie brevi, in quanto consente l'aggiunta e l'eliminazione di componenti nel portafoglio e il modello può essere riqualificato a ogni ribilanciamento.

  • 00:55:00 In questa sezione, Chan discute il calcolo dei rendimenti dell'indice S&P 500 e dei suoi componenti. Spiega che l'utilizzo di un algoritmo di apprendimento automatico per calcolare i rendimenti del portafoglio è diverso dall'utilizzo della tecnica di Markowitz perché l'algoritmo di apprendimento automatico utilizza le caratteristiche delle serie temporali anziché i rendimenti azionari come input. Chan osserva inoltre che il cambio di regime è definito da 180 variabili e che le misurazioni giornaliere, mensili e trimestrali vengono utilizzate come funzionalità che vengono inserite in un algoritmo di apprendimento automatico, che seleziona le funzionalità di livello superiore utili per prevedere il futuro del portafoglio. Infine, Chan riformula il problema come un problema di classificazione piuttosto che un problema di regressione, e può anche essere riformulato come un problema di classificazione.

  • 01:00:00 In questa sezione, il relatore discute la possibilità di utilizzare un insieme di portafogli invece di un solo portafoglio ottimale, ma il team di ricerca deve esaminarlo ulteriormente. Confermano inoltre che se ci sono un milione di combinazioni di portafogli, il modello dovrebbe essere addestrato su un milione di combinazioni ogni giorno di dati storici. Tuttavia, menzionano la loro "salsa segreta" che elimina la necessità di tale potenza computazionale. L'oratore spiega anche che non utilizzano un processo in due fasi per prevedere i regimi e quindi condizionare la distribuzione dei rendimenti di quel regime, ma utilizzano invece il fattore visivo per prevedere direttamente la performance di un portafoglio. Concludono la discussione dicendo che il rendimento atteso sarebbe simile a quanto accaduto in passato se includessero gran parte di quel campione di addestramento nel loro modello.
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
  • 2023.03.01
  • www.youtube.com
Abstract: Conditional Portfolio Optimization is a portfolio optimization technique that adapts to market regimes via machine learning. Traditional portfolio...
 

Apprendimento automatico finanziario: il punto di vista di un professionista del Dr. Ernest Chan



Apprendimento automatico finanziario: il punto di vista di un professionista del Dr. Ernest Chan

In questo video informativo, il Dr. Ernest Chan approfondisce il regno del machine learning finanziario, esplorando diversi aspetti chiave e facendo luce su considerazioni importanti. Sottolinea l'importanza di evitare l'overfitting e sostiene la trasparenza nei modelli. Inoltre, il Dr. Chan evidenzia i vantaggi dell'utilizzo di modelli non lineari per prevedere il comportamento del mercato. Tuttavia, discute anche dei limiti dell'apprendimento automatico nel mercato finanziario, come la riflessività e le dinamiche in continua evoluzione del mercato.

Un punto cruciale che il Dr. Chan sottolinea è l'importanza dell'esperienza di dominio nella scienza dei dati finanziari. Sottolinea la necessità di selezionare le caratteristiche per ottenere una migliore comprensione delle variabili essenziali che influenzano le conclusioni di un modello. Identificando questi input importanti, investitori e trader possono ottenere informazioni sulle loro perdite e capire perché sono state prese determinate decisioni.

Il dottor Chan tocca anche l'applicazione dell'apprendimento automatico nella gestione del rischio e nell'allocazione del capitale. Suggerisce di trovare un mercato di nicchia ed evitare la concorrenza diretta con organizzazioni ben finanziate. In tal modo, i professionisti possono aumentare le loro possibilità di successo in queste aree.

In tutto il video, il Dr. Chan evidenzia i vantaggi e le sfide associate a diversi modelli e strategie. Osserva che mentre le strategie quantitative tradizionali, come i modelli lineari, sono facili da capire e meno inclini all'overfitting, lottano con la dipendenza non lineare tra i predittori. Al contrario, i modelli di machine learning eccellono nella gestione delle relazioni non lineari, ma la loro complessità e opacità possono rappresentare una sfida nell'interpretazione dei risultati e nella valutazione della significatività statistica.

Il dottor Chan discute anche dei limiti dell'utilizzo dell'apprendimento automatico per prevedere il mercato finanziario. Sottolinea che il mercato è in continua evoluzione, il che rende difficile fare previsioni accurate. Tuttavia, suggerisce che l'apprendimento automatico può avere successo nel prevedere informazioni private, come le strategie di trading, dove è meno probabile competere con parametri identici.

Inoltre, il Dr. Chan tocca l'incorporazione di dati fondamentali, compresi i dati categorici, nei modelli di apprendimento automatico. Sottolinea che i modelli di apprendimento automatico hanno un vantaggio rispetto ai modelli di regressione lineare nella gestione sia dei dati di valore reale che di quelli categorici. Tuttavia, mette in guardia contro l'affidarsi esclusivamente all'apprendimento automatico, sottolineando che la profonda conoscenza del dominio è ancora fondamentale per creare funzionalità efficaci e interpretare i dati in modo accurato.

Nell'ambito dell'allocazione del capitale, il dottor Chan sottolinea come l'apprendimento automatico possa fornire rendimenti attesi più sofisticati, sfidando l'uso delle performance passate come unico indicatore del successo futuro. Discute anche le sfumature della comprensione del mercato che l'apprendimento automatico può offrire, con probabilità che variano quotidianamente, a differenza delle distribuzioni di probabilità statiche delle statistiche classiche.

Il dottor Chan conclude affrontando i limiti del deep learning nella creazione di diverse funzionalità trasversali che richiedono competenze di dominio. Condivide i suoi pensieri sull'applicabilità dell'apprendimento per rinforzo nei modelli finanziari, rilevandone la potenziale efficacia alle alte frequenze ma i limiti su scale temporali più lunghe.

Per coloro che sono interessati a esplorare ulteriormente il machine learning finanziario, il Dr. Chan consiglia la sua azienda PredictNow.ai come risorsa preziosa per le competenze di machine learning finanziario senza codice.

  • 00:00:00 il fatto che stanno diventando sempre più diffusi. In questa sezione del video, il Dr. Ernest Chan parla della sua lunga storia nell'apprendimento automatico e di come ha trovato valore nell'applicarlo alla finanza, cosa che ammette è stata difficile da fare fino a poco tempo fa. Sostiene modelli e strategie semplici, come i modelli a fattore singolo e lineari, che hanno funzionato bene per i trader quantitativi per decenni. Con l'ascesa del quant trading, questi modelli stanno diventando meno redditizi e Chan spiega come è stato in grado di estrarre valore dall'apprendimento automatico in un modo che la maggior parte delle persone non sta facendo.

  • 00:05:00 In questa sezione, il Dr. Ernest Chan discute la questione storica dell'overfitting nel machine learning finanziario; quando i modelli devono adattarsi a più parametri, il rischio di overfitting è molto alto, soprattutto quando si lavora con dati finanziari a bassa frequenza come le serie temporali finanziarie giornaliere. Tuttavia, nel corso degli anni, i progressi nel machine learning, in particolare nel deep learning, hanno permesso di superare l'overfitting. Tecniche come foresta casuale, convalida incrociata, abbandono e altre hanno contribuito a ridurre l'overfitting e altri strumenti come gli algoritmi hanno reso trasparente l'apprendimento automatico. Il problema con il trading di scatole nere e la mancanza di trasparenza è che non essere in grado di spiegare perché hai effettuato determinate operazioni non è accettabile, anche se guadagni.

  • 00:10:00 In questa sezione, il Dr. Ernest Chan discute il concetto di selezione delle funzionalità nell'apprendimento automatico, che può aiutare i trader e gli investitori a comprendere meglio le variabili importanti che portano alla conclusione di un particolare modello di apprendimento automatico. La selezione delle funzionalità può aiutare gli investitori a ottenere informazioni sul motivo per cui hanno perso denaro o perché un modello ha preso una decisione sbagliata identificando gli input importanti che portano a quel risultato. Il dottor Chan sottolinea inoltre che l'apprendimento automatico può essere utilizzato in modo più efficace per la gestione del rischio e l'allocazione del capitale piuttosto che come generatore di segnali primari, poiché le previsioni di mercato sono soggette a riflessività, il che crea difficoltà nel rilevare modelli in passato.

  • 00:15:00 In questa sezione, il Dr. Ernest Chan discute i limiti dell'utilizzo dell'apprendimento automatico per prevedere il mercato finanziario, che è in continua evoluzione e non può essere paragonato alla previsione di malattie come il cancro. Tuttavia, spiega che l'utilizzo dell'apprendimento automatico per prevedere informazioni private, come le strategie di trading, può essere un approccio di successo poiché altri hedge fund non competono con gli stessi parametri esatti. Confronta anche le strategie quantitative tradizionali con le strategie basate sull'apprendimento automatico, osservando che l'apprendimento automatico può aiutare a modellare set di dati alternativi e di grandi dimensioni attraverso modelli non lineari.

  • 00:20:00 In questa sezione, il Dr. Ernest Chan discute i vantaggi dell'utilizzo di modelli non lineari per prevedere il comportamento del mercato. I modelli quantistici tradizionali sono facili da comprendere e sono lineari, il che rende difficile l'overfit, ma non sono in grado di gestire la dipendenza non lineare tra i predittori. I modelli di machine learning, d'altra parte, possono gestire con facilità la dipendenza non lineare e la loro complessità e opacità li rende difficili da replicare. Inoltre, i modelli di machine learning forniscono una probabilità di successo, consentendo un'allocazione del capitale più informata. Tuttavia, l'overfitting è un problema con i modelli di machine learning e la valutazione della significatività statistica può essere difficile. La simulazione dei backtest è una soluzione imperfetta e le sfumature del mercato non possono essere pienamente catturate in una simulazione.

  • 00:25:00 In questa sezione, il Dr. Ernest Chan discute la differenza tra strategie quantitative tradizionali e strategie basate sull'apprendimento automatico. Spiega che è molto più difficile simulare il mercato e creare barre di errore accurate per le strategie tradizionali, rendendo difficile valutarne l'efficacia. D'altra parte, i modelli di machine learning sono facili da generare per più back test, semplicemente cambiando il seme casuale, e ogni back test dà potenzialmente risultati diversi. Questa casualità consente una valutazione più semplice della significatività statistica dei test retrospettivi, rendendolo un grande vantaggio dell'utilizzo dell'apprendimento automatico nel trading. Tuttavia, la scienza dei dati finanziari è il passaggio più difficile e dispendioso in termini di tempo nella costruzione di una strategia, poiché di solito ci sono numerosi problemi con i dati finanziari, anche da fornitori affidabili.

  • 00:30:00 In questa sezione, il Dr. Ernest Chan delinea alcuni dei problemi associati all'utilizzo dei dati sul sentiment. Osserva che i dati sul sentiment non possono sempre essere considerati attendibili poiché le aziende che elaborano le notizie possono tornare indietro e modificare i parametri per avere un bell'aspetto. A causa dell'impossibilità di sapere se i dati sono stati esaminati con pregiudizi, è necessario elaborare le newsletter grezze in un nuovo sentimento, introducendo un rischio. Inoltre, i dati rappresentano una sfida significativa nell'automazione delle risposte. Il passaggio della scienza dei dati finanziari è impegnativo in quanto richiede l'intelligenza umana attraverso l'esperienza del dominio, un problema paradossale nei problemi di machine learning finanziario. Il secondo passo è l'apprendimento automatico, che l'industria tecnologica ha già risolto. Il passaggio finale è la costruzione e il backtest delle strategie di trading, che richiede di mettere insieme la previsione in una strategia coerente e valutare la significatività statistica.

  • 00:35:00 In questa sezione, il Dr. Ernest Chan spiega come convertire le previsioni in un portafoglio seguendo una routine standard, che può essere trovata nei libri di testo di finanza. Tuttavia, ciò richiede una certa esperienza nel dominio e non è completamente automatico. Sottolinea inoltre le difficoltà della scienza dei dati finanziari, come rendere stazionarie le funzionalità e l'importanza di utilizzare la meta-etichettatura per prevedere se una strategia sarà redditizia invece di prevedere il mercato. Il Dr. Chan consiglia di leggere il suo post sul blog sulla meta-etichettatura applicata alla finanza per ulteriori informazioni. Accenna anche al fatto che Random Forest è la scelta del modello più popolare per il machine learning finanziario perché cattura bene la non linearità e ha la giusta complessità.

  • 00:40:00 In questa sezione, il Dr. Ernest Chan parla dell'importanza dell'apprendimento automatico per prevedere le tendenze del mercato ed evitare perdite. Condivide la sua esperienza personale nell'utilizzo di un modello di apprendimento automatico per rilevare la presenza di attività terroristiche nell'economia mondiale e mette in guardia contro i rischi di non seguire i suoi consigli, come è avvenuto con l'annuncio del vaccino Pfizer. Sottolinea inoltre l'importanza della selezione delle funzionalità nello spiegare le perdite agli investitori e raccomanda il suo libro sull'apprendimento automatico per i principianti. Inoltre, il Dr. Chan sottolinea l'importanza della pulizia e della stazionarietà dei dati nel fare previsioni corrette, per le quali condivide un esempio di come una serie temporale non stazionaria può avere un impatto negativo sulla capacità del modello di prevedere con precisione.

  • 00:45:00 In questa sezione, il Dr. Ernest Chan discute l'incorporazione di dati fondamentali, in particolare dati categorici, nei modelli di apprendimento automatico. Mentre i modelli di regressione lineare non sono in grado di gestire dati categorici, i modelli di machine learning possono gestire sia valori reali che dati categorici. Tuttavia, il dottor Chan sottolinea che l'apprendimento automatico non può sostituire completamente i trader umani, poiché l'apprendimento automatico finanziario richiede una profonda esperienza nel dominio per creare funzionalità e interpretare correttamente i dati. Inoltre, mette in guardia contro l'adorazione cieca del deep learning e sottolinea che non è una soluzione valida per tutti senza dati pertinenti sufficienti. Infine, consiglia ai giovani professionisti di trovare un mercato di nicchia ed evitare di competere direttamente con organizzazioni ben finanziate.

  • 00:50:00 In questa sezione, il Dr. Ernest Chan discute l'allocazione del capitale e come l'apprendimento automatico può fornire un rendimento atteso più sofisticato come input per il modello di allocazione delle attività di capitale. Mette in dubbio la contraddizione dell'utilizzo della performance passata come rendimento atteso, che non garantisce il successo futuro. L'apprendimento automatico può anche fornire una comprensione sfumata del mercato con probabilità variabili ogni giorno, a differenza delle statistiche classiche che forniscono solo probabilità statiche di distribuzione. Quando si tratta di metodi di deep learning come le reti neurali convoluzionali ricorrenti, il dottor Chan pensa che potrebbero non essere utili per gli input di serie non temporali e la selezione delle funzionalità.

  • 00:55:00 In questa sezione, il Dr. Ernest Chan discute i limiti del deep learning nella creazione di diverse funzionalità trasversali necessarie per fare previsioni di successo che richiedono competenze di dominio. Fornisce inoltre la sua opinione sul ruolo dell'apprendimento per rinforzo nei modelli finanziari su una varietà di scale temporali. Crede che l'apprendimento per rinforzo potrebbe funzionare a una frequenza molto elevata per il trading ad alta frequenza in quanto può reagire alle persone che immettono ordini sul libro degli ordini, ma fallisce su scale temporali più lunghe. Infine, consiglia la sua azienda PredictNow.ai come un'ottima risorsa per l'apprendimento automatico senza codice per coloro che sono interessati all'esperienza di qualcuno come lui.
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
  • 2020.11.12
  • www.youtube.com
QUANTT and QMIND came together to offer a unique experience for those interested in Financial Machine Learning (ML). Unifying these two clubs is Dr. Ernest C...
 

Trading con Deep Reinforcement Learning | Dottor Thomas Starke


Trading con Deep Reinforcement Learning | Dottor Thomas Starke

Il Dr. Thomas Starke, un esperto nel campo dell'apprendimento per rinforzo profondo per il trading, ha tenuto una presentazione perspicace e si è impegnato in una sessione di domande e risposte con il pubblico. Quello che segue è un riassunto esteso del suo discorso:

Il Dr. Starke ha iniziato introducendo l'apprendimento di rinforzo profondo per il trading, evidenziando la sua capacità di consentire alle macchine di risolvere compiti senza supervisione diretta. Ha usato l'analogia di un machine learning per giocare a un gioco per computer, dove impara a prendere decisioni in base a ciò che vede sullo schermo e raggiunge il successo o il fallimento in base alla sua catena di decisioni.

Ha poi discusso il concetto di un processo decisionale di Markov nel trading, in cui gli stati sono associati ai parametri di mercato e le azioni fanno passare il processo da uno stato all'altro. L'obiettivo è massimizzare la ricompensa attesa data una politica e uno stato specifici. I parametri di mercato sono fondamentali per aiutare la macchina a prendere decisioni informate sulle azioni da intraprendere.

Il processo decisionale nel trading implica determinare se acquistare, vendere o detenere sulla base di vari indicatori che informano lo stato del sistema. Il dottor Starke ha sottolineato l'importanza di non fare affidamento esclusivamente su etichette di profitti o perdite immediate per ogni stato, in quanto ciò può portare a previsioni errate. Invece, la macchina deve capire quando rimanere in un trade anche se inizialmente va contro di esso, aspettando che il trade torni alla linea media prima di uscire.

Per affrontare la difficoltà di etichettare ogni fase dei profitti e delle perdite di un'operazione, il Dr. Starke ha introdotto l'etichettatura retroattiva. Questo approccio utilizza l'equazione di Bellman per assegnare un valore diverso da zero a ogni azione e stato, anche se non comporta un profitto immediato. Ciò consente la possibilità di tornare alla media e all'eventuale profitto.

L'apprendimento approfondito per rinforzo può aiutare a prendere decisioni di trading basate su risultati futuri. I tradizionali metodi di apprendimento per rinforzo costruiscono tabelle basate su esperienze passate, ma nel trading il numero di stati e influenze è vasto. Per gestire questa complessità, il deep reinforcement learning utilizza le reti neurali per approssimare queste tabelle, rendendolo fattibile senza creare una tabella enorme. Il Dr. Starke ha discusso dell'importanza di trovare la giusta funzione di ricompensa e gli input per definire lo stato, consentendo in definitiva un migliore processo decisionale per il trading.

È stata evidenziata l'importanza degli input nel trading, sottolineando la loro necessità di avere un valore predittivo. Il dottor Starke ha sottolineato l'importanza di testare il sistema per comportamenti noti e selezionare il tipo, la dimensione e la funzione di costo appropriati della rete neurale in base alla funzione di ricompensa scelta. Ha spiegato come la ludicizzazione viene impiegata nel trading, dove i prezzi storici e attuali, i dati tecnici di guardia e le fonti di dati alternative costituiscono lo stato e la ricompensa è il profitto e la perdita (P&L) del commercio. La macchina etichetta retroattivamente le osservazioni utilizzando l'equazione di Bellman e aggiorna continuamente le tabelle approssimate dalle reti neurali per migliorare il processo decisionale.

Per quanto riguarda la formazione con l'apprendimento per rinforzo, il Dr. Starke ha discusso diversi modi per strutturare la serie dei prezzi, incluso l'ingresso e l'uscita casuali in vari punti. Ha anche affrontato la sfida di progettare una funzione di ricompensa e ha fornito esempi come P&L in percentuale pura, profitto per tick e indice di Sharpe, nonché metodi per evitare tempi di percorrenza lunghi o prelievi.

In termini di input per il trading, il Dr. Starke ha menzionato numerose opzioni, tra cui valori di apertura-massimo-minimo-chiusura e volume, modelli di candele, indicatori tecnici come l'indice di forza relativa, ora del giorno/settimana/anno e inserimento di prezzi e dati tecnici indicatori per altri strumenti. Possono essere prese in considerazione anche fonti di dati alternative come sentiment o immagini satellitari. La chiave è costruire questi input in uno stato complesso, simile a come le funzionalità di input vengono utilizzate nei giochi per computer per prendere decisioni.

Il dottor Starke ha spiegato la fase di test a cui deve sottoporsi lo studente di rinforzo prima di essere utilizzato per il trading. Ha delineato vari test, tra cui onde sinusoidali pulite, curve di tendenza, serie randomizzate senza struttura, diversi tipi di correlazioni di ordine, rumore nelle curve di test pulite e modelli ricorrenti. Questi test aiutano a determinare se la macchina genera costantemente profitti e a identificare eventuali difetti nella codifica. Il Dr. Starke ha anche discusso i diversi tipi di reti neurali utilizzate, come la memoria standard, convoluzionale e a lungo termine (LSTM). Ha espresso una preferenza per reti neurali più semplici che soddisfano le sue esigenze senza richiedere uno sforzo computazionale eccessivo.

Il dottor Starke ha quindi approfondito le sfide dell'utilizzo dell'apprendimento per rinforzo per il trading. Ha riconosciuto la difficoltà di distinguere tra segnale e rumore, in particolare nelle serie temporali finanziarie rumorose. Ha anche evidenziato la difficoltà dell'apprendimento per rinforzo per adattarsi ai cambiamenti nel comportamento del mercato, rendendo difficile l'apprendimento di nuovi comportamenti. Inoltre, ha affermato che mentre l'apprendimento per rinforzo richiede una quantità significativa di dati di addestramento, i dati di mercato sono spesso scarsi. L'overfitting è un'altra preoccupazione, poiché l'apprendimento per rinforzo tende ad agire sui modelli di mercato di base e può facilmente overfitting. Costruire reti neurali più complesse può mitigare questo problema, ma è un'attività che richiede tempo. Nel complesso, il dottor Starke ha sottolineato che l'apprendimento per rinforzo non è una soluzione garantita per risultati redditizi ed è fondamentale avere esperienza di mercato e conoscenze specifiche del dominio per raggiungere il successo nel trading.

Durante la sessione di domande e risposte, il Dr. Starke ha affrontato varie domande relative al trading con il deep reinforcement learning. Ha chiarito che l'equazione di Bellman non introduce bias di previsione e ha discusso il potenziale utilizzo di indicatori tecnici come input dopo un'attenta analisi. Ha anche esplorato la possibilità di utilizzare immagini satellitari per prevedere i prezzi delle azioni e ha spiegato che il trading di rinforzo può essere eseguito su piccoli intervalli di tempo a seconda del tempo di calcolo della rete neurale. Ha avvertito che gli algoritmi di trading di rinforzo sono sensibili alle anomalie del mercato e ha spiegato perché l'addestramento di alberi decisionali casuali utilizzando l'apprendimento per rinforzo non produce risultati significativi.

Il dottor Starke ha raccomandato di utilizzare reti neurali per il trading invece di alberi decisionali o macchine vettoriali di supporto a causa della loro idoneità al problema. Ha sottolineato l'importanza di regolare la funzione di perdita in base alla funzione di ricompensa utilizzata. Sebbene siano stati fatti alcuni tentativi per applicare l'apprendimento per rinforzo al trading ad alta frequenza, il Dr. Starke ha evidenziato la sfida delle reti neurali lente che mancano di reattività nei mercati in tempo reale. Ha consigliato alle persone interessate a perseguire una carriera commerciale nel settore finanziario di acquisire conoscenze di mercato, impegnarsi in operazioni reali e imparare dall'esperienza. Infine, ha discusso le sfide della combinazione di reti neurali e trading di opzioni, riconoscendo la complessità del compito.

In conclusione, il Dr. Thomas Starke ha fornito preziose informazioni sul trading con un profondo apprendimento per rinforzo. Ha trattato argomenti come il processo decisionale nel trading, l'etichettatura retroattiva, l'equazione di Bellman, l'importanza degli input, le fasi di test e le sfide associate all'apprendimento per rinforzo per il trading. Attraverso il suo discorso e la sessione di domande e risposte, il Dr. Starke ha offerto indicazioni e considerazioni pratiche per sfruttare l'apprendimento approfondito per rinforzo nei mercati finanziari.

  • 00:00:00 Il Dr. Thomas Stark introduce l'apprendimento per rinforzo profondo per il trading, un argomento a cui è interessato da diversi anni. L'apprendimento per rinforzo (RL) è una tecnica che consente a una macchina di risolvere un compito senza supervisione e apprende da sola cosa fare per produrre risultati favorevoli. Spiega come una macchina che vuole imparare a giocare a un gioco per computer inizierebbe in uno scenario di gioco e si sposterebbe da un passaggio all'altro rispondendo a ciò che vede sullo schermo. Alla fine, il gioco finisce e la macchina raggiunge il successo o il fallimento in base alla catena di decisioni che ha preso.

  • 00:05:00 Il Dr. Thomas Starke discute il trading con l'apprendimento per rinforzo profondo e spiega il concetto di processo decisionale di Markov. In questo processo, uno stato è associato a un particolare parametro di mercato e un'azione fa passare il processo da uno stato all'altro. A seconda della transizione, l'agente riceve una ricompensa positiva o negativa. L'obiettivo è massimizzare la ricompensa attesa data una certa politica e stato. Nel trading, i parametri di mercato vengono utilizzati per identificare in quale stato si trova l'agente e aiutarlo a prendere decisioni su quale azione intraprendere.

  • 00:10:00 Il Dr. Thomas Starke discute il processo decisionale coinvolto nel trading, che implica decidere se acquistare, vendere o detenere sulla base di vari indicatori che informano lo stato del sistema. L'obiettivo è ricevere la migliore ricompensa possibile, che è il profitto o la perdita del commercio. Tuttavia, il tradizionale approccio di apprendimento automatico di assegnare a uno stato un'etichetta particolare, come profitti o perdite immediati, può portare a etichette errate se il commercio va contro di noi nell'immediato futuro. Pertanto, la macchina deve capire quando rimanere nel trade anche se inizialmente va contro di noi ed avere la convinzione di aspettare che il trade torni alla linea media per uscire dal trade.

  • 00:15:00 Il Dr. Thomas Starke parla dell'etichettatura retroattiva e di come viene utilizzata nell'apprendimento per rinforzo per affrontare la difficoltà di etichettare ogni fase del profitto e della perdita di un'operazione. Spiega che l'apprendimento automatico tradizionale etichetta ogni fase del commercio, rendendo difficile prevedere se il commercio potrebbe diventare redditizio in futuro se subisce una perdita. L'etichettatura retroattiva utilizza l'equazione di Bellman per assegnare un valore diverso da zero a ciascuna azione e stato, anche se non produce un profitto immediato, consentendo un ritorno alla media e all'eventuale profitto.

  • 00:20:00 Il Dr. Thomas Starke spiega come utilizzare l'apprendimento per rinforzo per risolvere il problema della gratificazione ritardata nel trading. L'equazione di Bellman viene utilizzata per calcolare la ricompensa di un'azione, con "r" che rappresenta la ricompensa immediata e "q" che rappresenta la ricompensa cumulativa. Gamma è un fattore di sconto che assegna peso ai risultati futuri rispetto ai risultati precedenti. Utilizzando l'apprendimento per rinforzo, le decisioni di trading non si basano esclusivamente su ricompense immediate, ma anche sul mantenimento di posizioni per maggiori ricompense future. Ciò consente un processo decisionale più informato rispetto al processo decisionale avido.

  • 00:25:00 Il Dr. Thomas Starke spiega come l'apprendimento per rinforzo profondo può aiutare a prendere decisioni per il trading in base ai risultati futuri. L'apprendimento per rinforzo tradizionale prevede la costruzione di tabelle basate su esperienze passate, ma nel trading questo diventa complesso a causa della grande quantità di stati e influenze. Pertanto, la soluzione è utilizzare l'apprendimento per rinforzo profondo e le reti neurali per approssimare queste tabelle senza creare una tabella enorme. Spiega l'implementazione dell'utilizzo della ludicizzazione del trading e la ricerca della giusta funzione di ricompensa e degli input per definire lo stato. Nel complesso, l'uso dell'apprendimento per rinforzo profondo può aiutare nel processo decisionale per il trading.

  • 00:30:00 In questa sezione, il Dr. Starke discute l'importanza degli input nel trading e come devono avere una sorta di valore predittivo, altrimenti il sistema non sarà in grado di prendere buone decisioni di trading. Sottolinea la necessità di testare il sistema per comportamenti noti e scegliere il tipo, la dimensione e la funzione di costo appropriati della rete neurale, a seconda della funzione di ricompensa scelta. Spiega quindi come funziona la gamification nel trading, dove lo stato è costituito da prezzi storici e attuali, dati di guardia tecnica e fonti di dati alternative, e la ricompensa è il P&L del commercio. Lo studente di rinforzo utilizzerà l'equazione di Bellman per etichettare le osservazioni in modo retroattivo e, attraverso il costante aggiornamento delle tabelle approssimate dalle reti neurali, la macchina imparerà a prendere decisioni di trading sempre migliori.

  • 00:35:00 In questa sezione, il Dr. Thomas Starke spiega come strutturare le serie di prezzi per l'addestramento utilizzando l'apprendimento per rinforzo. Spiega che invece di scorrere le serie di prezzi in sequenza, puoi entrare e uscire in modo casuale in punti diversi e spetta all'utente decidere quale metodo scegliere. Discute anche la difficoltà di progettare una funzione di ricompensa e fornisce vari esempi e metodi per strutturare una funzione di ricompensa che può essere utilizzata per l'addestramento, come l'utilizzo di P&L in percentuale pura, profitto per tick, l'indice di Sharpe e diversi tipi di punizioni per evitare lunghi tempi di percorrenza o prelievi.

  • 00:40:00 Secondo il Dr. Thomas Starke, abbiamo molte opzioni, inclusi i valori di apertura massima minima chiusura e volume, modelli di candele, indicatori tecnici come l'indice di forza relativa, ora del giorno/settimana/anno, diverse granularità temporali, inserimento prezzi e indicatori tecnici per altri strumenti e dati alternativi come sentiment o immagini satellitari. Questi input vengono quindi costruiti in uno stato complesso, simile a come un gioco per computer utilizza le funzionalità di input per prendere decisioni. In definitiva, la chiave è trovare la giusta funzione di ricompensa che funzioni per il tuo stile di trading e ottimizzare il tuo sistema di conseguenza.

  • 00:45:00 Il Dr. Thomas Starke spiega la fase di test a cui deve sottoporsi il suo apprendista di rinforzo prima di essere utilizzato per commerciare nei mercati finanziari. Applica una serie di test tra cui onde sinusoidali pulite, curve di tendenza, serie randomizzate senza struttura, diversi tipi di correlazioni di ordine, rumore nelle curve di test pulite e schemi ricorrenti per determinare se la macchina realizza profitti consistenti e per trovare difetti nella codifica . Discute anche i diversi tipi di reti neurali che utilizza, tra cui la memoria standard, convoluzionale e a lungo termine (LSTM), e la sua preferenza per le reti neurali semplici, poiché sono sufficienti per le sue esigenze e non richiedono uno sforzo computazionale eccessivo.

  • 00:50:00 In questa sezione, il Dr. Thomas Starke discute le sfide del trading con l'apprendimento per rinforzo, comprese le difficoltà di distinguere tra segnale e rumore e il problema dei minimi locali. Mostra che l'apprendimento per rinforzo è in difficoltà con serie temporali finanziarie rumorose e sistemi finanziari dinamici con regole e regimi di mercato in evoluzione. Tuttavia, mostra anche che l'appianamento della curva dei prezzi con una semplice media mobile può migliorare significativamente le prestazioni della macchina di apprendimento per rinforzo, fornendo informazioni su come costruire un sistema di apprendimento automatico di successo in grado di prendere decisioni di trading redditizie.

  • 00:55:00 In questa sezione, il Dr. Thomas Starke discute le sfide dell'utilizzo dell'apprendimento per rinforzo per il trading. In primo luogo, l'apprendimento per rinforzo fatica ad adattarsi ai cambiamenti nel comportamento del mercato, rendendo difficile l'apprendimento di nuovi comportamenti. Inoltre, sono necessari molti dati di formazione, ma i dati di mercato sono spesso scarsi. Sebbene l'apprendimento per rinforzo sia efficiente, può facilmente adattarsi eccessivamente e agisce davvero solo sui modelli di mercato di base. Costruire reti neurali più complesse può superare questo problema, ma è un'attività che richiede tempo. In definitiva, l'apprendimento per rinforzo non è un proiettile d'argento per produrre risultati redditizi ed è importante avere una buona esperienza di mercato e conoscenze specifiche del dominio per ottenere risultati di trading di successo. Il Dr. Starke offre una lezione su Quant NC e incoraggia chiunque sia interessato a codificare questi sistemi a contattarlo su LinkedIn con domande ben formulate.

  • 01:00:00 Il Dr. Thomas Starke risponde a varie domande relative al trading con il deep reinforcement learning. Spiega che l'equazione di Bellman non introduce bias di previsione e che a volte gli indicatori tecnici possono essere utilizzati come input dopo un'attenta analisi. Le immagini satellitari potrebbero essere utili per prevedere i prezzi delle azioni e il trading di rinforzo può essere eseguito su intervalli di tempo ridotti a seconda del tempo di calcolo della rete neurale. Discute anche di quanto siano sensibili gli algoritmi di trading di rinforzo alle anomalie del mercato e spiega perché non ha senso addestrare alberi decisionali casuali utilizzando l'apprendimento per rinforzo.

  • 01:05:00 In questa sezione, il Dr. Thomas Starke consiglia di utilizzare reti neurali per il trading piuttosto che alberi decisionali o macchine vettoriali di supporto a causa della loro idoneità per il problema. Spiega che l'ottimizzazione della funzione di perdita in base alla funzione di ricompensa utilizzata è essenziale. Afferma che le persone hanno provato a utilizzare l'apprendimento per rinforzo per il trading ad alta frequenza, ma si sono ritrovate con reti neurali lente che mancavano di reattività nei mercati in tempo reale. Suggerisce che l'acquisizione di conoscenze di mercato aiuterà in modo significativo a perseguire una carriera di trading nel settore finanziario, facendo scambi reali e imparando molto nel processo. Infine, discute se è possibile utilizzare le reti neurali per ottenere buoni risultati con il trading di opzioni e spiega le sfide della combinazione di reti neurali e trading di opzioni.

  • 01:10:00 In questa sezione, il Dr. Thomas Starke spiega come i dati delle opzioni possono essere utilizzati come input per il trading dello strumento sottostante, invece di affidarsi solo agli indicatori tecnici. Risponde anche a domande sull'utilizzo delle reti neurali per decidere il numero di lotti da acquistare o vendere e su come incorporare spread, commissioni e slippage nell'algoritmo costruendo un modello per lo slippage e incorporando questi fattori nella funzione di ricompensa. Consiglia cautela quando si utilizzano le reti neurali per decidere i volumi degli scambi e raccomanda di utilizzare i valori di output per dimensionare di conseguenza i pesi del portafoglio. Conclude ringraziando il pubblico per le domande e per aver assistito al suo intervento.
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
  • 2020.09.23
  • www.youtube.com
Dr. Thomas Starke Speaks on Machine Learning Trading with Deep Reinforcement Learning (DRL). In this captivating video, join Dr. Thomas Starke as he unravels...
 

Harrison Waldon (UT Austin): "Le equazioni dell'apprendimento algoritmico"


Harrison Waldon (UT Austin): "Le equazioni dell'apprendimento algoritmico"

Harrison Waldon, un ricercatore dell'UT Austin, ha presentato il suo lavoro sulla collusione algoritmica nei mercati finanziari, concentrandosi sull'interazione e la potenziale collusione degli algoritmi di apprendimento per rinforzo (RL). Ha affrontato le preoccupazioni delle autorità di regolamentazione in merito al trading algoritmico autonomo e al suo potenziale di gonfiare i prezzi attraverso la collusione senza comunicazione esplicita.

La ricerca di Waldon mirava a comprendere il comportamento degli algoritmi RL in contesti finanziari e determinare se possono imparare a colludere. Ha utilizzato le equazioni di apprendimento algoritmico (ALE) per derivare un sistema di equazioni differenziali ordinarie (ODE) che approssimano l'evoluzione degli algoritmi in condizioni specifiche. Questi ALE sono stati in grado di convalidare il comportamento collusivo negli algoritmi di Q-learning e hanno fornito una buona approssimazione dell'evoluzione dell'algoritmo, dimostrando un ampio bacino di attrazione per i risultati collusivi.

Tuttavia, ci sono difficoltà nel calcolare la distribuzione stazionaria e nel distinguere la vera collusione dal comportamento razionale di autoconservazione. Sorgono difficoltà numeriche nel determinare la distribuzione stazionaria e rimane una sfida differenziare la vera collusione dal comportamento guidato dall'interesse personale.

Waldon ha evidenziato i limiti dell'equilibrio del gioco statico quando applicato alle interazioni dinamiche, sottolineando la necessità di un approccio globale alla regolazione del comportamento. Il comportamento collusivo facilitato da algoritmi senza comunicazione diretta tra le parti richiede un'attenta considerazione. Il discorso si è concluso con Waldon che ha espresso la sua gratitudine ai partecipanti, segnando la fine della serie del semestre primaverile.

  • 00:00:00 In questa sezione, Harrison Walden di UT Austin discute il suo recente lavoro sulla collusione algoritmica nel settore finanziario. Osserva che la maggior parte delle negoziazioni nei mercati elettronici viene eseguita da algoritmi, molti dei quali utilizzano tecniche di apprendimento automatico come l'apprendimento per rinforzo (RL) per apprendere le strategie di trading. Mentre RL ha visto il successo pratico nella copertura profonda e nell'esecuzione ottimale, le autorità di regolamentazione hanno espresso preoccupazione per le aziende che si affidano al trading algoritmico completamente autonomo in quanto può portare a collusione tra compiti e prezzi gonfiati nel mercato senza una comunicazione esplicita. Il lavoro di Walden mira a fornire strumenti per studiare la collusione algoritmica e il suo potenziale impatto sull'industria finanziaria.

  • 00:05:00 In questa sezione, Harrison Waldon discute i limiti degli studi esistenti sul comportamento degli algoritmi di apprendimento per rinforzo in contesti finanziari. Sebbene alcune prove sperimentali dimostrino che determinati algoritmi di apprendimento per rinforzo possono apprendere complesse strategie collusive in determinati scenari, tali esperimenti mancano di rigore teorico. Inoltre, la mancanza di spiegabilità degli algoritmi RL è una preoccupazione per organizzazioni come l'AFM, in particolare in ambienti multi-agente e non stazionari come i mercati finanziari. Le domande principali che guidano il lavoro di Waldon sono: come possiamo comprendere il comportamento degli algoritmi di apprendimento per rinforzo che interagiscono in contesti finanziari e come è possibile che questi algoritmi imparino a colludere?

  • 00:10:00 In questa sezione, Harrison Waldon spiega che nell'apprendimento per rinforzo (RL), la funzione F, o la regola di apprendimento, prende i vecchi valori dei parametri, lo stato corrente, l'azione corrente e possibilmente lo stato successivo per incorporare le informazioni in un nuovo set di parametri. L'obiettivo è trovare un insieme di parametri che approssimino la politica ottimale. Un algoritmo popolare in RL è il Q-learning tabulare asincrono, che associa un valore di parametro a ciascuna coppia stato-azione e li aggiorna in modo asincrono. Il Q-learning funziona bene in contesti con agente singolo, ma diventa più impegnativo in contesti con più agenti e non stazionari, comuni nei mercati. Lo spazio di stato in finanza è definito come il vettore dei prezzi pubblicati da altri agenti, dove lo spazio di azione può includere l'acquisto, la vendita o la detenzione.

  • 00:15:00 In questa sezione apprendiamo che una scoperta interessante nel lavoro del team è che gli algoritmi possono apprendere il trading delle macchie solari se iniziano a condizionare fattori di mercato irrilevanti. Il relatore spiega come si comporta l'apprendimento Q nell'interazione con altri studenti Q e definisce l'analogo multi-agente di un processo decisionale di Markov come un gioco stocastico. Discutono di come gli agenti stanno imparando e adattando le loro politiche nel tempo, rendendo non stazionarie le vere dinamiche del processo statale, anche se la funzione di transizione potrebbe essere fissa. L'esempio principale utilizzato nel discorso è il dilemma del prigioniero, interpretato come un mercato stilizzato con due fornitori di liquidità concorrenti.

  • 00:20:00 comprensione del comportamento degli algoritmi che imparano a giocare ripetutamente al dilemma del prigioniero con altri giocatori dotati di algoritmi. Per raggiungere questo obiettivo, al processo di stato deve essere data una nozione di stato e il sistema a cui arriviamo è chiamato equazioni di apprendimento algoritmico. Per derivare questo sistema, usano il metodo ode dall'approssimazione stocastica per approssimare l'evoluzione dei parametri, consentendo un'analisi diretta delle politiche. Sebbene esistano limitazioni in questo modello, gli strumenti presentati sono generali e possono affrontare queste limitazioni.

  • 00:25:00 In questa sezione, Harrison Waldon discute le equazioni di apprendimento algoritmico, che approssimano l'evoluzione dei parametri utilizzando l'approssimazione stocastica classica e un'ODE. Condizionando la regola di apprendimento rispetto alla distribuzione stazionaria e inducendo parametri fissi, derivano un sistema di ODE che imitano l'algoritmo di apprendimento. Queste equazioni di apprendimento algoritmico possono approssimare l'evoluzione dell'algoritmo date determinate condizioni come velocità di apprendimento non degenerate e compattezza dei parametri. La distribuzione stazionaria e le politiche sono continue di Lipschitz, il che si rivela anch'esso cruciale. L'approssimazione stocastica utilizzata è necessaria a causa del processo non stazionario con dinamiche mutevoli.

  • 00:30:00 In questa sezione, Harrison Waldon discute le equazioni di apprendimento algoritmico e le loro proprietà. L'esempio di Q-learning discusso nel video soddisfa tutte le proprietà di queste equazioni, incluso il mantenimento dei parametri in un insieme compatto, le catene di Markov ergodiche, la continuità di Lipschitz nelle politiche e le regole di apprendimento. Waldon mostra che con un'appropriata scala temporale, l'algoritmo sarà vicino alle soluzioni dell'ODE per qualsiasi orizzonte temporale finito con alta probabilità e convergerà a soluzioni localmente asintoticamente stabili quasi sicuramente se il tasso di apprendimento decade abbastanza velocemente. Waldon conclude convalidando queste equazioni applicandole al dilemma del prigioniero ripetuto utilizzando Q-learning con selezione di azioni softmax.

  • 00:35:00 In questa sezione vengono discusse le condizioni necessarie affinché l'equazione di apprendimento algoritmico approssimi l'evoluzione degli algoritmi. La condizione del processo di stato per l'ergodicità è soddisfatta immediatamente per questo scenario poiché esiste un solo stato. Le traiettorie dell'algoritmo di apprendimento sono simulate con tassi di apprendimento grandi e piccoli, il che dimostra che l'approssimazione dell'equazione di apprendimento algoritmico è buona con tassi di apprendimento piccoli. Le ALE sono utili anche per analizzare la probabilità di ottenere un esito collusivo, con un ampio Bacino di Attrazione che conduce a tale esito. Nella parte successiva del video, a ciascun agente viene data la possibilità di condizionare i suoi spread sugli spread del suo avversario del periodo precedente.

  • 00:40:00 In questa sezione del video, Harrison Waldon spiega la probabilità di eseguire una determinata azione e la fonte del rumore nelle simulazioni che stanno analizzando. Discute il processo dello stato ergotico, la distribuzione stazionaria delle politiche e come interpretare le componenti delle politiche di ciascun agente in termini di punizione per esaminare la frequenza con cui un insieme di politiche indurrà l'esito collusivo. Fornisce anche i grafici delle equazioni di apprendimento algoritmico per l'apprendimento Q dipendente dallo stato per un intervallo di condizioni iniziali fino a quando la traiettoria converge numericamente.

  • 00:45:00 In questa sezione del video, Harrison Waldon discute i risultati dell'utilizzo del Q-learning con le equazioni di apprendimento algoritmico per apprendere il comportamento di collusione nei giochi stocastici. Gli agenti sono stati in grado di imparare a giocare spread collusivi quasi il 100% delle volte, anche se non hanno iniziato con alte probabilità di collusione. I risultati hanno mostrato anche un ampio bacino di attrazione per l'esito collusivo, ma anche comportamenti inaspettati come il ribaltamento tra esiti reciprocamente collusivi e reciprocamente competitivi. La metodologia utilizzata in questo studio ha fornito condizioni sufficienti minimamente restrittive che hanno consentito di approssimare il comportamento di un'ampia classe di algoritmi di apprendimento per rinforzo dipendenti dallo stato. Tuttavia, vi erano alcune limitazioni dovute a difficoltà numeriche nel calcolo della distribuzione stazionaria. Nel complesso, il Q-learning ha avuto successo nell'apprendere il comportamento collusivo in questi giochi stocastici.

  • 00:50:00 In questa sezione, Harrison Waldon spiega come garantire che le equazioni di apprendimento algoritmico approssimino il comportamento asintotico dell'algoritmo mostrando l'esistenza di una funzione di Lyapunov, che è difficile a causa della necessità di trattare con la distribuzione stazionaria. Per risolvere questo problema, Waldon introduce un nuovo algoritmo che è una generalizzazione del gioco fittizio classico chiamato Gioco fittizio fluido dipendente dallo stato. Questo algoritmo presuppone che tutti gli agenti in un sistema giochino secondo politiche stazionarie e le convinzioni di quelle strategie si formano attraverso la frequenza empirica del gioco. L'algoritmo aggiunge una certa casualità nel sistema e intraprende azioni secondo una distribuzione soft-max per aggirare i problemi delle regole di apprendimento deterministiche.

  • 00:55:00 In questa sezione, Harrison Waldon spiega che le equazioni di apprendimento algoritmico possono essere utilizzate per analizzare un sistema a tempo continuo e garantire che l'algoritmo di gioco fittizio fluido converga ai punti di riposo del sistema, alcuni dei quali possono essere strategie collusive . All'aumentare del fattore di sconto, aumenta la probabilità di apprendere risultati collusivi. Waldon discute anche la necessità di dinamiche di mercato più realistiche e la possibilità di applicare equazioni di apprendimento algoritmico ad algoritmi di apprendimento per rinforzo profondo per lo studio di equilibri e prezzi. Infine, riconosce la difficoltà di rilevare la collusione e la sfida di distinguere tra vera collusione e comportamento razionale di autoconservazione.

  • 01:00:00 In questa sezione, Harrison Waldon spiega come l'equilibrio di un gioco statico sia un ristretto riflesso della realtà dell'interazione dinamica tra le persone. Sottolinea la necessità di un approccio olistico quando si considera quale comportamento di equilibrio regolare, specialmente in termini di comportamento collusivo che può essere visto come razionale e arrivare attraverso algoritmi senza comunicazione diretta tra le parti. La sessione si conclude con Waldon che ringrazia i partecipanti e conclude la serie del semestre primaverile.
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
  • 2023.04.26
  • www.youtube.com
Abstract: Recently there has been concern among regulators and legal theorists about the possibility that pricing algorithms can learn to collude with one a...
 

Irene Aldridge (AbleBlox e AbleMarkets): "Crypto Ecosystem e AMM Design"



Irene Aldridge (AbleBlox e AbleMarkets): "Crypto Ecosystem e AMM Design"

Irene Aldridge, fondatrice e amministratore delegato di AbleMarkets, approfondisce vari aspetti della tecnologia blockchain, del market making automatizzato (AMM) e della convergenza dei mercati tradizionali con il mondo degli AMM. Sottolinea l'importanza di questi argomenti nella finanza ed esplora le potenziali sfide e soluzioni ad essi associate.

Aldridge inizia fornendo una panoramica del suo background nel settore finanziario e della sua esperienza nella microstruttura, che si concentra sulla comprensione delle operazioni di mercato. Sottolinea la crescente adozione di modelli di market making automatizzati, inizialmente importanti nel mercato delle criptovalute ma che ora si estendono ai mercati tradizionali. Descrive la struttura della sua presentazione, che copre i concetti introduttivi della blockchain, l'applicazione della blockchain nella finanza e nella programmazione e studi di casi reali di market making e il suo impatto sui mercati tradizionali.

Esplorando la tecnologia blockchain, Aldridge lo descrive come un database avanzato in cui ogni riga contiene un riepilogo crittografico della riga precedente, garantendo l'integrità dei dati. Spiega il processo di mining coinvolto nella blockchain, in cui il contenuto proposto viene convalidato e aggiunto alla catena, portando a una maggiore trasparenza e decentralizzazione nelle pratiche burocratiche e nei sistemi di pagamento.

Aldridge discute il passaggio verso il decentramento nell'ecosistema crittografico, evidenziando il compromesso tra privacy e la robustezza di avere più copie del database sui server. Spiega il processo blockchain, dalla definizione dei blocchi e la creazione di firme crittografiche alle innovazioni fondamentali della prova del lavoro e del mining, che garantiscono la sicurezza contro i tentativi di hacking.

Tuttavia, Aldridge riconosce le sfide associate al sistema di mining proof of work, tra cui l'aumento del costo del mining, un numero decrescente di minatori e potenziali vulnerabilità. Evidenzia soluzioni alternative, come l'aggregazione di blocchi di Ethereum e l'eliminazione degli enigmi per il mining da parte di Coinbase.

L'oratore passa all'esplorazione dello staking nell'ecosistema delle criptovalute, in cui le parti interessate impegnano i loro fondi per supportare le operazioni della rete. Riconosce il potenziale problema degli oligarchi crittografici che manipolano il mercato e spiega come sono state implementate la convalida off-chain e il market making automatizzato per contrastare questo problema. Aldridge sottolinea l'importanza di comprendere questi concetti per cogliere il significato del market making automatizzato nel prevenire la manipolazione nel mercato delle criptovalute.

Aldridge approfondisce i principi alla base degli Automated Market Makers (AMM), sottolineando il loro impatto rivoluzionario sul trading di criptovalute. Spiega come le curve AMM, modellate da invarianti relative alla liquidità, determinano i prezzi in base all'inventario rimanente nel pool di liquidità. Sottolinea i vantaggi degli AMM, tra cui la liquidità 24 ore su 24, 7 giorni su 7, la stima dello slippage basata su formule e la determinazione del valore equo tramite curve convesse. Tuttavia, afferma anche che gli AMM possono subire perdite in condizioni volatili, portando all'introduzione di commissioni di transazione.

Confrontando gli AMM con i mercati tradizionali, Aldridge discute i vantaggi del market making automatizzato, come la liquidità continua, lo slippage prevedibile e la determinazione del fair value. Spiega il costante metodo di creazione del mercato del prodotto utilizzato da UniSwap, illustrando come i broker di esecuzione possono selezionare piattaforme per la liquidità e l'esecuzione sulla base di dati parametrizzati.

Il relatore discute il calcolo delle variazioni di volume e la distinzione tra pool di liquidità pubblici e privati. Presenta esempi empirici utilizzando Bitcoin ed Ethereum da diversi scambi, sottolineando le differenze nelle loro curve e suggerendo potenziali problemi con determinate piattaforme.

Aldridge sottolinea l'importanza di progettare curve AMM utilizzando forme convesse per garantire la stabilità del mercato. Spiega i ruoli dei fornitori di liquidità e dei trader nel sistema e come beneficiano delle commissioni di transazione. Solleva anche la possibilità che i sistemi AMM vengano utilizzati nei mercati tradizionali, spingendo a prendere in considerazione la loro applicazione ad asset come le azioni IBM.

Aldridge esplora la convergenza dei mercati tradizionali con il market making automatizzato, osservando che i market maker tradizionali stanno già implementando sistemi simili. Sottolinea i cambiamenti attesi nelle interazioni di mercato, nelle strategie di trading, nei metodi di esecuzione e nella trasparenza. Viene discussa anche l'influenza dei market maker automatizzati sulla microstruttura dei mercati.

Affrontando la fattibilità dell'implementazione della liquidità automatizzata in ambienti di trading 24 ore su 24, 7 giorni su 7 come il mercato delle criptovalute, Aldridge spiega che il market making automatizzato può eliminare i rischi associati ai tradizionali metodi di market making e che la tecnologia è prontamente disponibile. Tuttavia, avverte che non tutti gli scambi di criptovalute utilizzano il market making automatizzato, sottolineando la necessità di ricerca per affrontare la gestione del rischio e le esternalità. Aldridge sottolinea che la tecnologia automatizzata di market making è emersa più o meno nello stesso periodo delle criptovalute come Bitcoin nel 2002.

Interrogato sul potenziale vantaggio sleale del market making automatizzato che i rivenditori hanno accesso a informazioni private, Aldridge riconosce che ciò pone un problema. Tuttavia, suggerisce che fare acquisti e quantificare la curva di creazione automatizzata del mercato su piattaforme diverse può aiutare a mitigare questo problema. Nota che i minatori sono incentivati a continuare il loro lavoro perché sono quelli che traggono vantaggio dall'accesso e dalla convalida dei blocchi di ordini. Tuttavia, a meno che non ci sia un incentivo privato, è sempre più difficile generare profitti in questo spazio, portando alla formazione di oligopoli. Aldridge propone che l'assicurazione possa servire come incentivo naturale per i minatori a lavorare quasi gratis. Tuttavia, le compagnie assicurative percepiscono la blockchain come una grave minaccia per il loro settore, con conseguente resistenza a tali progetti di sistema. Affronta anche la possibilità di schemi di frode, evidenziando la potenziale manipolazione nella curva IBM.

Nel contesto dei libri degli ordini con limite centralizzati, Aldridge spiega come i partecipanti al mercato stiano utilizzando modelli di market making automatizzati, come gli AMM, che forniscono liquidità in modo conveniente e automatizzato, con potenziali profitti. Tuttavia, la distinzione tra i trader che utilizzano gli AMM e quelli che effettuano manualmente gli ordini limite rimane una sfida. Aldridge suggerisce che l'identificazione di utenti malintenzionati attraverso l'analisi dei dati microstrutturali potrebbe offrire una potenziale soluzione. Ritiene che se gli AMM continueranno a dominare il mercato, emergerà un modello più efficiente e snello.

In sintesi, la discussione di Irene Aldridge copre vari aspetti della tecnologia blockchain, del market making automatizzato e della convergenza dei mercati tradizionali con il mondo AMM. Esplora le basi della blockchain, discute le sfide e le potenziali soluzioni relative ai sistemi di mining di prove di lavoro ed evidenzia i vantaggi degli AMM rispetto ai mercati tradizionali. Aldridge affronta anche le preoccupazioni riguardanti la fattibilità dell'implementazione della liquidità automatizzata, la questione del mercato automatizzato che i rivenditori hanno accesso a informazioni private e il potenziale ruolo dell'assicurazione come incentivo per i minatori. Attraverso le sue intuizioni, fornisce preziose prospettive sul panorama attuale e sulle possibilità future nel mondo della finanza e del market making automatizzato.

  • 00:00:00 In questa sezione, Irene Aldridge parla del suo background nel settore finanziario e del suo interesse per la microstruttura, che si concentra sul funzionamento dei mercati. Quindi introduce l'argomento del market making automatizzato e come ha avuto origine nel mercato delle criptovalute, ma ora viene implementato nei mercati tradizionali. Fornisce uno schema per la presentazione, che include un'introduzione alla blockchain 101, applicazioni blockchain nella finanza, programmazione e studi di casi di market making nella pratica e le sue ricadute sui mercati tradizionali. Aldridge ha una formazione in ingegneria elettrica e ha lavorato in varie aree del settore finanziario, tra cui trading, gestione del rischio e ricerca.

  • 00:05:00 In questa sezione, Irene Aldridge spiega le basi della tecnologia blockchain. Lo descrive come un database di fantasia in cui ogni riga contiene un riepilogo crittografico della riga precedente, rendendo difficile dal punto di vista computazionale la modifica di qualsiasi dato precedente. Inoltre, discute il processo di mining della blockchain e come comporta l'esame del contenuto proposto di un blocco e il suo impegno nella memoria. Aldridge ritiene che la blockchain possa aiutare a spostare le pratiche burocratiche e i pagamenti sulla blockchain, consentendo maggiore trasparenza e decentralizzazione.

  • 00:10:00 In questa sezione, Irene Aldridge discute il passaggio a un modello decentralizzato nell'ecosistema crittografico, in cui le transazioni sono pubbliche e archiviate su più server anziché centralizzate su un server Oracle. Sebbene ciò significhi che la privacy viene sacrificata, la maggiore robustezza di avere più copie del database sui server è vista come un giusto compromesso. Aldridge spiega che il processo blockchain è relativamente semplice, a partire dalla definizione di un blocco e dalla creazione di una firma crittografica o hash, che viene poi codificata nel blocco successivo. Vengono quindi discusse le innovazioni fondamentali della prova del lavoro e delle procedure di mining, con l'obiettivo di garantire la sicurezza contro i tentativi di hacking rendendo troppo grande la complessità computazionale del ricalcolo della catena.

  • 00:15:00 In questa sezione, Irene Aldridge discute i problemi che affliggono il sistema di mining proof of work nelle criptovalute. Spiega che il costo del mining sta diventando troppo alto per la maggior parte delle persone, portando a un equilibrio in cui solo un gruppo specifico di individui può permettersi i costi e il resto non è in grado di estrarre. Inoltre, il numero di minatori sta diminuendo nel tempo, rendendo il sistema vulnerabile a potenziali attacchi. Il punto di forza del modello decentralizzato è che la catena più lunga viene selezionata automaticamente dal motore principale, impedendo ai colluder di recuperare il ritardo e introducendo blocchi compromessi nel sistema. Tuttavia, ci sono crescenti preoccupazioni sul sistema di prova del lavoro, comprese le questioni di interesse tra i minatori che commerciano e il mio, e il tempo necessario per estrarre i blocchi. Ora sono in fase di sviluppo nuove soluzioni, come l'aggregazione di blocchi di Ethereum ogni 12 secondi e la decisione di Coinbase di smettere di richiedere alle persone di risolvere enigmi da estrarre.

  • 00:20:00 In questa sezione, il relatore discute il processo di staking nell'ecosistema crittografico, che prevede l'immissione di denaro nel sistema per il mining. Le parti interessate possono bloccare la loro quota o garanzia per un periodo specifico e, in caso di attività fraudolenta, la pagano con la loro quota. Tuttavia, questo crea un oligopolio di oligarchi crittografici che manipolano il mercato. Per combattere questo, sono state utilizzate la convalida off-chain e il market making automatizzato. Quest'ultimo è diventato più popolare nell'ecosistema crittografico e ha vari prodotti open source a cui chiunque può accedere, rendendolo più facile da capire. Il relatore sottolinea che la comprensione delle informazioni di base, come lo staking e la convalida off-chain, è essenziale per comprendere l'importanza del market making automatizzato e come funziona per prevenire la manipolazione nel mercato delle criptovalute.

  • 00:25:00 in questa sezione, Irene Aldridge discute i principi alla base di diversi Automated Market Maker (AMM), che hanno rivoluzionato il mondo del trading di criptovalute. Spiega che le curve AMM, che variano in curvatura e offset, sono modellate da un'invariante relativa alla liquidità e che il prezzo è la funzione dell'inventario rimanente nel pool di liquidità. Uno dei vantaggi degli AMM è che possono negoziare 24 ore su 24, 7 giorni su 7 senza spread, in quanto non ci sono spread bid-ask, e possono adattarsi automaticamente alle mutevoli condizioni di mercato. Tuttavia, gli AMM possono perdere denaro in condizioni volatili, quindi mettono commissioni di transazione, che i mercati tradizionali non hanno.

  • 00:30:00 In questa sezione, Irene Aldridge discute il market making automatizzato (AMM) e i suoi vantaggi rispetto ai mercati tradizionali, come la liquidità continua 24 ore su 24, 7 giorni su 7, lo slippage formulato che può essere stimato in anticipo e il valore equo attraverso l'uso di una curva convessa. Aldridge spiega il metodo di creazione del mercato del prodotto costante utilizzato dal popolare sistema UniSwap, che segue una curva convessa tra la quantità uno e la quantità due. Raccogliendo dati da diverse borse e parametrizzandoli in base a questo metodo di prodotto costante, Aldridge evidenzia come i broker di esecuzione possono determinare quali piattaforme scegliere per la liquidità e l'esecuzione.

  • 00:35:00 In questa sezione, Irene Aldridge discute il calcolo delle rispettive variazioni di volume e valuta e simula una simulazione molto semplice utilizzando la regola del tick femminile dalla microstruttura per determinare se il volume è un acquisto o una vendita. Spiega anche i due tipi di pool di liquidità, pubblici e privati, e l'arbitraggio che avviene tra di loro, sottolineando che non dovrebbero esserci differenze tra loro su piattaforme sufficientemente liquide. Aldridge presenta quindi esempi empirici utilizzando Bitcoin ed Ethereum da vari scambi, come Bitfinex e Bitstamp, e ne evidenzia le curve, sottolineando che FTX non assomiglia a quello che ci aspetteremmo da una prospettiva di Market Making automatizzato e suggerisce che potrebbe essere stato un Ponzi schema da sempre.

  • 00:40:00 In questa sezione, Irene Aldridge discute la progettazione delle curve di automatizzazione del mercato (AMM) e le confronta con esempi di vari scambi di criptovalute. Sottolinea l'importanza dell'utilizzo di curve convesse nella progettazione di AMM per garantire la stabilità del mercato ed evitare drastici aumenti di prezzo quando l'inventario viene acquistato. Inoltre, spiega i ruoli dei fornitori di liquidità e dei trader nel sistema e come beneficiano delle commissioni di transazione. Aldridge menziona anche le voci secondo cui i sistemi AMM vengono utilizzati nei mercati tradizionali e sottolinea la necessità di considerare come questo progetto funzionerebbe per prodotti come le azioni IBM.

  • 00:45:00 In questa sezione, Irene Aldridge discute la convergenza dei mercati tradizionali e del mondo del market making automatizzato, dove i market maker tradizionali stanno già implementando sistemi simili. Sottolinea che ci sono molti cambiamenti attesi nel modo in cui le persone interagiscono con i mercati, come vengono costruite le strategie di formazione, come viene eseguita l'esecuzione e come tutto diventa trasparente. Nota inoltre che la microstruttura sta cambiando nei mercati a causa dell'influenza dei market maker automatizzati. Irene fornisce una comprensione di base di come i dati IBM giornalieri vengono utilizzati per stimare le curve AMM e di come dati più granulari renderebbero più facile ottenere stime più pulite.

  • 00:50:00 In questa sezione, Irene Aldridge discute la fattibilità dell'implementazione della liquidità automatizzata in ambienti di trading 24 ore su 24, 7 giorni su 7 come il mercato delle criptovalute, dove i metodi tradizionali di market making potrebbero non essere altrettanto efficaci. Spiega che il market making automatizzato può eliminare i rischi associati ai tradizionali metodi di market making e che la tecnologia è ampiamente disponibile. Tuttavia, avverte che non tutti gli scambi di criptovalute utilizzano il market making automatizzato e che sono necessarie ricerche per affrontare la gestione del rischio e le esternalità. Nota inoltre che questa tecnologia esiste dal 2002 e ha coinciso con l'emergere di criptovalute come Bitcoin. Alla domanda sul potenziale vantaggio sleale del mercato automatizzato che i rivenditori hanno accesso a informazioni private, Aldridge osserva che si tratta di un problema aperto che richiede ulteriori ricerche.

  • 00:55:00 In questa sezione, Irene Aldridge discute di come i dealer AMM o coloro che accettano monete e utilizzano sistemi automatizzati di market making (AMM) vedono il flusso degli ordini prima degli altri, il che presenta un problema. Tuttavia, poiché sono disponibili molte piattaforme, fare acquisti e quantificare la curva di creazione automatizzata del mercato può aiutare a mitigare questo problema. Irene osserva inoltre che a causa di questo problema, i minatori sono motivati a continuare, poiché sono gli unici a trarre vantaggio dall'esame e dalla convalida dei blocchi di ordini. Tuttavia, a meno che non ci sia un incentivo privato, sta diventando sempre più difficile fare soldi in questo spazio, portando alla formazione di oligopoli. Irene suggerisce che l'assicurazione potrebbe essere un incentivo naturale per i minatori di cui beneficiare e lavorare quasi gratuitamente. Tuttavia, le compagnie assicurative vedono la blockchain come una grave minaccia alla loro esistenza, quindi c'è resistenza a questo tipo di progettazione del sistema. Infine, Irene affronta una questione sulla possibilità di uno schema di frode, affermando che potrebbe essercene uno nella curva IBM, dove si potrebbe sostenere che il fondo viene manipolato.

  • 01:00:00 In questa sezione, Irene Aldridge discute l'uso di modelli automatizzati di market making nei libri ordini con limite centralizzati. I partecipanti al mercato utilizzano i propri AMM poiché sono a basso costo e automatizzati, fornendo liquidità al mercato con il potenziale per realizzare un profitto. Nonostante ciò, attualmente è difficile distinguere tra i trader che utilizzano un AMM e quelli che effettuano ordini limite manualmente. Aldridge suggerisce che identificare i cattivi attori attraverso i dati della microstruttura potrebbe essere un problema aperto, ma se gli AMM continueranno a dominare il mercato, emergerà un modello più snello.
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
  • 2023.03.29
  • www.youtube.com
Abstract: Assets on blockchain trade 24x7 with very thin liquidity. This demands new fully automated processes, including Automated Market Making (AMM). We d...
 

Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"


Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"

Agostino Capponi, a researcher from Columbia University, delves into the issue of front running in decentralized exchanges and proposes private transaction pools as a potential solution. These private pools operate off-chain and separate from the public pool, ensuring that validators committed to not engaging in front running handle them. However, Capponi acknowledges that using private pools carries an execution risk since not all validators participate in the private pool, which means there's a possibility that transactions may go unnoticed and remain unexecuted. It's important to note that the adoption of private pools might not necessarily reduce the minimum priority fee required for execution. Furthermore, Capponi points out that the competition between front-running attackers benefits validators through maximal extractable value (MEV). Ultimately, while private pools can mitigate front-running risk, they may increase the fee needed for execution, leading to inefficiencies in allocation.

Capponi highlights the correlation between the proportion of transactions routed through private pools and the probability of being front-run, which complicates optimal allocation. He also explores different types of front-running attacks, including suppression and displacement attacks, and presents data showing the substantial losses incurred due to front running. To address these risks, Capponi suggests educating users on transaction timing and making transaction validation more deterministic to create a more equitable system.

The discussion touches on the dynamics of private transaction pools, the challenges of adoption, and the potential trade-offs involved. Capponi explains how private pools provide protection against front running but cautions that their effectiveness depends on the number of validators participating in the private pool. Additionally, he addresses the issue of validators not adopting private pools due to the loss of MEV, proposing potential solutions such as user subsidies to incentivize their adoption.

While private transaction pools can mitigate front-running risks to some extent, Capponi emphasizes that they are not foolproof and may not achieve optimal allocation. The complexity arises from factors such as the competition between attackers, the adoption rate of validators in private pools, and the resulting impact on execution fees. The discussion raises important considerations for the blockchain community in addressing front-running risks and ensuring a fair and efficient decentralized exchange environment.

  • 00:00:00 In this section, Agostino Capponi introduces the topic of decentralized exchanges and the front running risks they face. He explains that blockchain architecture works by having transactions submitted to a memory pool that is then accessed by validators who append the transactions to blocks and receive fees from users. Capponi notes that users can prioritize their transactions by offering higher fees, but this system can lead to front running. He introduces the concept of private pools as a potential solution to this problem and discusses how his team constructed a game theory model to test the effectiveness of these pools in mitigating front running.

  • 00:05:00 In this section, Agostino Capponi describes the problem of front running in public open access blockchains, which allows users to see and submit transactions. Front running attacks occur when users take advantage of actionable information about pending or executed transactions. Capponi explains the sandwich attack, where an attacker places a higher fee to execute the transaction before the user, causing the price to go up, and then executes a reverse transaction for a profit. Although there is a risk of failure if the attacker's fee is not high enough, attackers typically time their orders to increase their chances of success.

  • 00:10:00 In this section, Agostino Capponi discusses several types of front running attacks, including suppression attacks and displacement attacks, in which an attacker submits multiple transactions or displaces another user's transaction to execute their desired transaction first. Capponi questions whether front running is a material risk that limits blockchain adoption and presents a graph showing the number of front running attacks and the revenue generated from them from May 2020 to March 2021, which indicate a loss of approximately 10,000 ethereum, or $125 million, due to front running.

  • 00:15:00 In this section, Agostino Capponi discusses the issue of front running in Ethereum transactions and its associated costs, both direct and indirect. He explains that one solution to this problem is the use of private transaction pools, which are essentially off-chain, parallel channels that are separate from the public pool and can only be monitored by some validators. Transactions submitted to these private pools have zero front running risk as long as validators behave honestly, and if they are found to be front running transactions, they will be ejected from the pool. Overall, private transaction pools provide a good solution for those who are worried about front running and want to get their transactions executed without being front run.

  • 00:20:00 In this section, Agostino Capponi discusses the use of private transaction pools and whether they can mitigate the risk of frontrunning. Capponi explains that private pools are only visible to validators and are off-chain, meaning attackers cannot access them. This eliminates the possibility of being front run and provides guarantees, as validators are committed to not engage in front running. Capponi also addresses the issue of adoption and whether users will submit their transactions into the pool. Additionally, he mentions how attackers may still compete with each other, but the private pool can reduce the risk of underinvestment by arbitrage bots. Finally, he introduces a simple model with three agents to discuss whether adoption of private pools will be observed.

  • 00:25:00 In this section, Agostino Capponi discusses the concept of private transaction pools and whether or not they mitigate front-running risks. He explains that there are two possible venues for submitting transactions: the private pool and the public pool. After the validators have adopted which pool to monitor, the users will beat their priority fee and choose where they want to submit the transaction. The attackers will then scan for opportunities, submit transactions and decide where to submit them. Capponi emphasizes the importance of probability in detecting opportunities and the probabilities of achieving a successful front-run.

  • 00:30:00 In this section, the speaker explains the concept of private transaction pools and whether they can mitigate frontrunning risks. Private transaction pools can provide protection against frontrunning risks as only the validator who appends the block can see the transactions, preventing other arbitrators from identifying opportunities before the user. However, submitting through a private pool comes with an execution risk, as not all validators will be on the private pool, and there is a chance that the transaction may not be visible and, therefore, not executed. While private pool transactions have a priority over public pool transactions, the number of validators monitoring the private pool impacts the execution risk, making it a concern for users to consider before submitting a transaction through the private pool.

  • 00:35:00 In this section, Agostino Capponi explains that private transaction pools can mitigate front-running risks to some extent, but it is not foolproof. Attackers will engage in an arm race to gain priority in getting their order executed, and they can use both private and public pools to reduce execution risk but still receive prioritized execution. Meanwhile, users who can be front-run will decide whether to submit their transactions to the private pool or the public pool based on the adoption rate of validators in the private pool and the front-running cost. If the adoption rate is high, they will use the private pool to avoid being front-run, but if it is low, they may choose the public pool to avoid waiting too many blocks for execution despite the risk of being front-run.

  • 00:40:00 In this section, Agostino Capponi explains how private transaction pools can potentially mitigate front running risk. If a user submits to a private pool and all validators join that pool, front running risk is eliminated because there is no opportunity for arbitrage. However, in cases where front running risk is low, not all validators will adopt the private pool, meaning that the user may instead opt for the public pool, exposing themselves to front running risk again.

  • 00:45:00 In this section, Agostino Capponi discusses whether private transaction pools can mitigate front-running risk and reduce the minimum fee needed for execution. It is argued that front-running risk is only eliminated if the loss is large, and even then, some front-running losses cannot be eliminated. Additionally, the competition between front-running attackers benefits the validators or miners through maximal extractable value (MEV). The adoption of private pools may not necessarily reduce the minimum priority fee needed for execution as validators are only willing to adopt private pools if they can earn a higher fee. Moreover, the existence of a private pool may lead to more demand for block space, which would increase the fee needed for execution. Ultimately, private pools may not always reduce front-running risk but can increase the fee needed for execution, leading to allocative inefficiency.

  • 00:50:00 In this section, the speaker discusses the inefficiencies caused by front-running risks in blockchains. The first inefficiency results from users who may decide not to submit transactions due to the risk of being front-run, which can lead to a suboptimal allocation of transactions. The second inefficiency comes from front-running attacks, where an attacker executes a transaction before the victim, resulting in a transfer of value. To mitigate these risks, private transaction pools are proposed, which can increase the value of transactions and help users submit without fear of front-running. However, the adoption of private pools by all validators is not always attainable due to bad MEV and the resulting loss of revenue for validators.

  • 00:55:00 In this section, Agostino Capponi discusses the problem of validators not adopting the private pools, even though it would be a socially optimal outcome. The reason is that they would lose their MEV (Maximal Extractable Value) and without a benefit to them, they would not switch. The solution would be for the front runnable users to subsidize the validators by committing to pay them monetarily equivalent to what they would have saved in not being front run. The data indicates that if the competition for being the first to execute is fierce, the cost and revenue ratio of the attackers is substantially lower due to the adoption of flash bot private pools.
  • 01:00:00 In this section, Agostino Capponi discusses his research on private transaction pools and whether they mitigate the risk of frontrunning. He explains that while private pools can offer some mitigation for large frontrunning losses, they are not beneficial for attackers running arbitrage bots, as it can make their situation worse. The probability of being frontrun can be estimated by looking at the slippage that the transaction would incur compared to the price that needs to be paid to frontrun. Capponi points out that there is a positive correlation between the probability of being frontrun and the proportion of transactions that are being routed through private pools. He concludes that private pools can't achieve optimal allocation as not all validators monitor the pool, resulting in inefficiencies such as frontrunning risk or block space being allocated to a frontrunnable transaction.

  • 01:05:00 In this section, Agostino Capponi from Columbia University discusses the use of private transaction pools to avoid front-running risks in blockchain, particularly in Ethereum and Polygon. He also notes that currently, there is a monopolistic entity that receives all the provider rewards, and Ethereum is considering solutions such as the burning or redistribution of minor extractable value (MEV) to prevent this. Capponi also raises the controversial issue of weapons of math destruction in the context of blockchain transactions and the transfer of value from those who don't understand the formula to those who do.

  • 01:10:00 In this section, the speakers discuss the issue of front-running in private transaction pools and how it can impact unsophisticated users such as family offices. They suggest that in order to make the system more equitable, there needs to be a way to educate these users on how to time their transactions better to avoid being front-run. They also note that bots that engage in front-running are extremely sophisticated and use complex algorithms to determine the best way to execute transactions while generating the most profit. The speakers suggest that if the time of transaction validation were more deterministic, it would be easier for users to time their transactions better and reduce the risk of front-running.
 

Dr. Kevin Webster: "Ottenere di più con meno - Migliori test A/B tramite regolarizzazione causale"



Dr. Kevin Webster: "Ottenere di più con meno - Migliori test A/B tramite regolarizzazione causale"

In questo video, il Dr. Kevin Webster approfondisce le sfide associate agli esperimenti di trading e all'apprendimento automatico causale, approfondendo vari argomenti chiave. Un problema importante che affronta è il bias di previsione nel trading, in cui il rendimento osservato durante uno scambio è una combinazione di impatto del prezzo e movimento di prezzo previsto. Per mitigare questo pregiudizio, il Dr. Webster propone due approcci: l'uso di dati di trading randomizzati e l'applicazione della regolarizzazione causale. Incorporando il segnale di trading che ha causato uno scambio nel modello di regressione, è possibile eliminare i bias.

Il Dr. Webster introduce il concetto di grafico causale, che coinvolge tre variabili: l'alfa dell'operazione, la dimensione dell'operazione e i rendimenti durante l'operazione. Afferma che stimare accuratamente l'impatto dei prezzi è una sfida senza osservare l'alfa e che le tecniche econometriche tradizionali non sono all'altezza a questo proposito. Sottolinea i limiti degli esperimenti di trading randomizzati a causa della loro dimensione e durata limitate, sottolineando la necessità di un'attenta progettazione dell'esperimento e di una stima dei costi utilizzando simulatori.

Per superare le carenze dell'econometria tradizionale, il Dr. Webster sostiene la regolarizzazione causale. Questo metodo, derivato da Amazon, utilizza dati distorti per l'addestramento e dati imparziali per i test, ottenendo stimatori a bassa distorsione e bassa varianza. Sfrutta la ricchezza di dati organizzativi disponibili e corregge i pregiudizi, consentendo previsioni più accurate.

La stima dell'alfa senza la conoscenza del suo impatto rappresenta una sfida significativa, soprattutto quando i dati commerciali mancano di affidabilità. Il dottor Webster suggerisce l'uso dell'invio casuale di operazioni per ottenere dati imparziali senza fare affidamento sulla tecnologia dei prezzi. Tuttavia, questo approccio richiede di rinunciare a un'ampia frazione di operazioni per stabilire un intervallo di confidenza sull'alfa, il che potrebbe non essere pratico. In alternativa, propone di sfruttare l'apprendimento automatico causale per ottenere risultati simili con meno dati. L'apprendimento automatico causale si rivela particolarmente prezioso nelle applicazioni di trading, come l'analisi dei costi di transazione, la valutazione dell'impatto dei prezzi e la ricerca alfa, superando l'econometria tradizionale grazie alla disponibilità di dati di trading approfonditi e distorti.

Il relatore approfondisce anche il significato dell'analisi statistica nei test A/B, sottolineando la necessità di definire l'impatto del prezzo e allegare una misura statistica per combattere il bias di previsione. Senza affrontare questo pregiudizio, l'analisi diventa soggettiva e fa affidamento sull'interpretazione individuale. Il Dr. Webster riconosce le sfide poste dai dati osservazionali pubblici e sottolinea le intuizioni ottenute dai dati interventistici. Sebbene rispondere alla domanda su quale approccio adottare sia complesso, i test A/B rimangono una pratica comune nei settori bancario e di intermediazione.

Infine, il Dr. Webster discute brevemente la relazione tra transfer learning e regolarizzazione causale. Sebbene entrambi implichino l'addestramento di un modello su un set di dati e l'applicazione a un altro, il transfer learning manca di un'interpretazione causale. L'analogia tra i due risiede nel loro processo di convalida, con la convalida incrociata che gioca un ruolo fondamentale. Nonostante le loro somiglianze matematiche, il Dr. Webster sottolinea la novità dell'interpretazione causale nell'approccio.

  • 00:00:00 Kevin Webster parla di esperimenti di trading dal vivo e apprendimento automatico causale. Descrive uno scenario in cui un hedge fund negozia tramite un broker, che è responsabile dell'esecuzione dell'operazione e di garantire la migliore esecuzione, dimostrando al contempo di aver agito nel migliore interesse del cliente. Il broker incontra difficoltà poiché i suoi clienti non negoziano in modo casuale sulla base dei segnali Alpha e il rendimento osservato durante un'operazione è un mix di impatto sul prezzo e movimento di prezzo previsto causato dall'operazione. Webster mira ad affrontare questo problema utilizzando la regolarizzazione causale e propone un modello che apprende in che modo il movimento di prezzo previsto è correlato al flusso degli ordini.

  • 00:05:00 Il relatore discute la distinzione tra segnali alfa e impatto sul prezzo, che sono due componenti dei rendimenti. I segnali alfa prevedono movimenti di prezzo che si verificherebbero indipendentemente dal fatto che le azioni siano negoziate o meno, mentre l'impatto del prezzo descrive i movimenti di prezzo causati dal trading. I trader utilizzano i back-knoll dei prezzi per simulare il modo in cui i prezzi reagirebbero alle loro negoziazioni e rispondere a scenari ipotetici. Tuttavia, è difficile distinguere se i trader abbiano causato un movimento di prezzo o lo abbiano previsto, portando a una distorsione delle previsioni. I dati proprietari di CFM e altre tecniche possono aiutare a eliminare i pregiudizi e correggere il bias di previsione tenendo conto del segnale di trading che ha causato uno scambio nella regressione.

  • 00:10:00 In questa sezione del video, il Dr. Kevin Webster discute il problema del bias di previsione nel trading e come influisce sia sui broker che sui ricercatori alfa. Spiega che mentre un ricercatore alfa può avere il segnale alfa, potrebbe non avere un buon modello di impatto sui prezzi, il che porta a una sovrastima dell'alfa. Al contrario, se i broker non conoscono l'alfa, scambieranno troppo lentamente per il cliente. Il Dr. Webster propone di utilizzare il trading randomizzato, che è costoso, o la regolarizzazione causale, un metodo che combina sia i dati di trading randomizzati che i dati storici in modo intelligente per ottenere prestazioni migliori rispetto all'econometria tradizionale. Conclude affermando che confronterà le prestazioni di questi metodi utilizzando una simulazione.

  • 00:15:00 Il Dr. Kevin Webster discute tre metodi di test econometrico, sottolinea l'importanza dell'inferenza causale e spiega come sia già attivamente utilizzato nell'industria tecnologica, in particolare nella comunità dell'apprendimento automatico. Sottolinea inoltre come queste aziende stiano utilizzando l'apprendimento automatico causale per consentire ai loro team di allinearsi rapidamente sulla verità sul campo, eliminare la reindagine su risultati sorprendenti, evitare di ripetere esperimenti errati e impedire la seconda ipotesi di decisioni cruciali. I metodi del dottor Webster utilizzano una combinazione di test causali ed econometrici, consentendo previsioni più accurate basate su dati cinque volte inferiori.

  • 00:20:00 L'autore propone un grafico causale per il suo studio che coinvolge tre variabili: alfa dell'operazione, dimensione dell'operazione e rendimenti durante l'operazione. Presume che le caratteristiche sottostanti dei suoi modelli Alpha guidino i diversi movimenti di prezzo fondamentali sul titolo e il suo algoritmo di trading reagisce ai segnali Alpha, provocando scambi. Presume anche che le negoziazioni causino movimenti di prezzo, noti come impatto sui prezzi. Secondo il Dr. Webster, indipendentemente dalla tecnica di regressione elaborata utilizzata dai trader, non saranno in grado di stimare l'impatto del prezzo senza osservare Alpha. I trader possono stimare l'impatto del prezzo randomizzandolo, che viene utilizzato attivamente nel settore finanziario ed è noto come spesa di trading randomizzata. Tuttavia, il suo uso è limitato solo agli ordini sostanziali perché tali randomizzazioni sono costose.

  • 00:25:00 Il relatore discute i limiti degli esperimenti di trading randomizzato rispetto ai dati osservativi a causa delle dimensioni e della durata limitate degli esperimenti. Per un insieme ragionevole di parametri, il set di dati osservativi può essere più grande del set di dati interventistici e gli operatori devono progettare esperimenti prima di distribuirli a causa della spesa per commettere errori. L'uso di un simulatore per determinare il costo e l'intervallo di confidenza dell'esperimento prima di inviare scambi casuali è fondamentale. Senza considerare il bias, ignorare Alpha si tradurrà in un bias elevato e una varianza bassa.

  • 00:30:00 Il Dr. Kevin Webster spiega i limiti dell'econometria tradizionale e introduce il concetto di regolarizzazione causale, che è un metodo proveniente da Amazon e prevede l'utilizzo di dati di bias come dati di addestramento e dati imparziali come dati di test per ottimizzare i meta parametri. Il metodo garantisce uno stimatore a bassa deviazione e bassa varianza, a differenza dei metodi tradizionali che utilizzano solo una piccola quantità di dati sperimentali. L'algoritmo di regolarizzazione causale consente di utilizzare i grandi dati organizzativi disponibili e di correggere eventuali pregiudizi per fornire stime accurate per i trader.

  • 00:35:00 In questa sezione del video, il Dr. Kevin Webster discute le sfide della stima Alpha senza conoscere l'impatto quando non c'è fiducia nei dati commerciali. Suggerisce una soluzione in cui le negoziazioni non vengono inviate in modo casuale per ottenere dati imparziali, che sono privi di modelli e non richiedono tecnologia di determinazione dei prezzi. Tuttavia, lo svantaggio è che è necessario rinunciare a un'ampia frazione di operazioni per ottenere un intervallo di confidenza su Alpha, il che potrebbe non essere pratico per i trader. Propone quindi un metodo di apprendimento automatico per affrontare questo problema e ottenere lo stesso risultato con meno dati. L'apprendimento automatico causale è applicabile alle applicazioni di trading come l'analisi dei costi di transazione, l'impatto sui prezzi e la ricerca Alpha e supera l'econometria tradizionale nei regimi di dati di trading grazie alla disponibilità di dati di trading approfonditi e distorti.

  • 00:40:00 Il relatore discute l'incertezza fondamentale coinvolta nei test A/B e come l'analisi statistica svolga un ruolo cruciale nel trovare la verità di base statisticamente significativa ma non a livello commerciale. Sottolinea che definire l'impatto del prezzo e allegare un numero statistico a tale definizione può aiutare a combattere il pregiudizio di previsione. Tuttavia, senza qualcosa per combattere il bias di previsione, l'analisi diventa soggettiva e dipende dall'occhio di chi guarda. Il Dr. Webster discute anche delle sfide coinvolte nei dati pubblici osservativi e di come i dati interventistici possono fornire maggiori approfondimenti sull'analisi. Riconosce che sebbene sia una domanda difficile a cui rispondere, i test A/B sono una trasformazione comune adottata da molte banche e broker.

  • 00:45:00 Il Dr. Kevin Webster discute brevemente la relazione tra transfer learning e regolarizzazione causale. Osserva che esiste un'analogia tra i due, poiché entrambi implicano l'addestramento di un modello su un set di dati e la speranza che funzioni bene su un altro set di dati. Mentre il transfer learning manca di un'interpretazione causale, la prova per il transfer learning funziona a causa della convalida incrociata, che si applica anche alla regolarizzazione causale. Nonostante la somiglianza matematica, il dottor Webster afferma che l'interpretazione causale dell'approccio è piuttosto nuova.
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
  • 2022.11.09
  • www.youtube.com
Abstract: Causal regularization solves several practical problems in live trading applications: estimating price impact when alpha is unknown and estimating...
 

Yuyu Fan (Alliance Bernstein): "Sfruttare il text mining per estrarre approfondimenti"



Yuyu Fan (Alliance Bernstein): "Sfruttare il text mining per estrarre approfondimenti"

Yuyu Fan, ricercatore presso Alliance Bernstein, fornisce preziose informazioni sull'applicazione dell'elaborazione del linguaggio naturale (NLP) e dell'apprendimento automatico nell'analisi delle trascrizioni delle chiamate agli utili e nella generazione di strategie di trading efficaci.

Il team di Fan ha impiegato varie tecniche, tra cui l'analisi del sentimento, l'analisi contabile e il punteggio di leggibilità, per vagliare oltre 200 funzionalità estratte dalle trascrizioni delle chiamate sugli utili. Hanno utilizzato modelli avanzati come BERT (Bidirectional Encoder Representations from Transformers) per valutare il sentiment dei relatori, confrontando il sentiment dei CEO con quello degli analisti. È interessante notare che hanno scoperto che il sentimento degli analisti tende ad essere più affidabile.

L'analisi è stata condotta sia su singole sezioni che su sezioni combinate delle trascrizioni, con il team che ha scoperto che un approccio basato sul contesto supera un approccio ingenuo basato su parole di sottofondo. Il segnale del sentiment, in particolare per le società a bassa capitalizzazione statunitensi, ha dato buoni risultati ed è stato raccomandato dai team di investimento.

Nello spiegare la metodologia, Fan descrive come il suo team ha utilizzato lo screening dei quantili e il backtesting per valutare le prestazioni delle diverse funzionalità. Hanno esaminato i punteggi del sentimento basati su approcci basati sul dizionario e approcci basati sul contesto utilizzando BERT. Il team ha anche approfondito i punteggi di leggibilità, che misurano la facilità di comprensione di un testo, concentrandosi sui commenti del CEO per identificare potenziali correlazioni con le prestazioni aziendali.

Fan fornisce approfondimenti sul funzionamento di BERT, evidenziando la sua rappresentazione del codificatore bidirezionale che cattura informazioni contestuali da sinistra e destra di una data parola. Il team ha messo a punto il modello BERT per l'analisi del sentiment aggiungendo etichette di sentiment tramite auto-etichettatura e set di dati esterni. I loro risultati hanno indicato che l'analisi del sentiment basata su BERT ha superato l'analisi del sentiment basata su dizionario, come dimostrato da esempi di trascrizioni delle chiamate sugli utili.

Inoltre, Fan discute le sfide dell'impostazione delle soglie di accuratezza per l'analisi del sentiment e sottolinea che le prestazioni pratiche potrebbero non differire in modo significativo tra i livelli di accuratezza. Sottolinea il successo del loro segnale di sentiment sulle società a bassa capitalizzazione statunitensi, che ha portato alla sua raccomandazione da parte dei team di investimento. Fan menziona anche la pubblicazione di un documento che descrive in dettaglio le caratteristiche della PNL che potrebbero servire come segnali quantitativi per la creazione di strategie di trading efficienti, con continui sforzi per migliorare il modello attraverso l'aumento dei dati.

La discussione si espande per coprire la correlazione tra le caratteristiche della PNL e le tradizionali caratteristiche fondamentali e quantitative, evidenziando la moderata correlazione osservata per la leggibilità e il sentiment accounting. Fan chiarisce la propria metodologia di rendimento, inclusa la selezione delle società sulla base delle ultime informazioni disponibili prima del ribilanciamento.

Verso la fine, Fan tocca argomenti come l'arbitraggio di CO2, la differenza tra BERT e FinBERT e lo sviluppo di un modello di utilizzo finanziario per BERT specificamente adattato a dichiarazioni, guadagni e notizie relative alla finanza. Viene anche menzionato il processo di conversione dei dati audio in trascrizioni per l'analisi, con l'uso di servizi di trascrizione e soluzioni di fornitori.

In sintesi, la ricerca di Yuyu Fan mette in mostra il potere della PNL e delle tecniche di apprendimento automatico nell'analisi delle trascrizioni delle chiamate sugli utili. L'applicazione dell'analisi del sentiment, dell'analisi contabile e del punteggio di leggibilità, insieme all'utilizzo di modelli avanzati come BERT, consente la generazione di strategie di trading efficienti. L'approccio basato sul contesto supera gli approcci ingenui e il segnale del sentiment si rivela prezioso, in particolare per le società a bassa capitalizzazione statunitensi, come raccomandato dai team di investimento di Alliance Bernstein.

  • 00:00:00 Yuyu Fan parla dell'utilizzo dell'elaborazione del linguaggio naturale (NLP) per analizzare le trascrizioni delle chiamate agli utili in ambito finanziario. Le aziende utilizzano chiamate sugli utili per condividere informazioni finanziarie e commerciali con la comunità degli investitori e gli analisti in genere analizzano le trascrizioni per informazioni che possono influire sulle prestazioni e sui prezzi delle azioni delle società. Tuttavia, l'analisi manuale delle trascrizioni per un vasto universo di aziende è laboriosa, ed è qui che entrano in gioco le tecniche di PNL e apprendimento automatico. Tali tecniche si sono dimostrate efficaci nell'analisi di documenti finanziari e nella formulazione di strategie di trading efficienti. La ricerca di Yuyu Fan va oltre i tipici test sulle large cap statunitensi per includere diverse capitalizzazioni di universi, comprese le small cap statunitensi ei mercati emergenti. Inoltre, l'analisi viene eseguita su singole sezioni così come sulle sezioni combinate delle trascrizioni e un confronto sistematico mostra che l'approccio guidato dal contesto supera l'approccio ingenuo delle parole di fondo.

  • 00:05:00 Yuyu Fan discute i dati utilizzati per la loro analisi di text mining e spiega la struttura delle trascrizioni delle chiamate sugli utili, che sono composte da due sezioni: la presentazione e la sezione Domande e risposte. Hanno generato funzionalità di PNL su ciascuna di queste singole sezioni e sulle sezioni combinate. Le tre categorie di funzionalità NLP generate sono i punteggi di sentiment, contabilità e leggibilità. Forniscono anche un semplice metodo di back testing per la loro analisi. Le caratteristiche del sentimento sono ulteriormente suddivise in due categorie, una basata su un dizionario e l'altra sul contesto.

  • 00:10:00 Yuyu Fan di Alliance Bernstein spiega come usano il text mining per vagliare oltre 200 caratteristiche che vengono generate per trovare segnali di investimento robusti e con buone prestazioni. Non considerano solo il data mining, ma anche l'analisi fondamentale e l'intuizione economica, nonché la ricerca precedente. Classificano i componenti in base ai valori delle caratteristiche e tengono traccia dei rendimenti mensili per ogni quantile per valutare le prestazioni. La prima categoria è il semplice conteggio delle parole e una delle caratteristiche è il conteggio delle parole delle domande degli analisti, che generalmente ha prestazioni coerenti con le loro aspettative precedenti, ad eccezione dei mercati emergenti che hanno comportamenti diversi. Valutano la performance utilizzando metriche di base come il rendimento annualizzato e il muro e scoprono che questo segnale va bene, non così buono.

  • 00:15:00 Il relatore spiega il concetto di punteggi di leggibilità e come il suo team li usa per analizzare i commenti del CEO. I punteggi di leggibilità sono una metrica utilizzata per misurare quanto sia difficile leggere e comprendere un testo, tenendo conto del numero di parole difficili e della lunghezza della frase. Punteggi più alti significano che il testo è più difficile da capire, mentre punteggi più bassi significano che è più facile da comprendere. Il team di Fan ha utilizzato un pacchetto Python open source chiamato "statistiche di testo" per calcolare i punteggi di leggibilità per i commenti del CEO, con l'ipotesi che i commenti più facili da comprendere abbiano maggiori probabilità di portare a prestazioni trasparenti e buone da parte delle aziende. Il team ha quindi utilizzato lo screening dei quantili per valutare diverse funzionalità e consigliare quelle con le migliori prestazioni ai team di investimento.

  • 00:20:00 Yuyu Fan di Alliance Bernstein discute di come l'analisi dei sentimenti può essere utilizzata per estrarre approfondimenti dalle trascrizioni dei discorsi del CEO. Fan spiega che i punteggi del sentimento possono essere calcolati utilizzando approcci basati su dizionari, come l'utilizzo di dizionari generici o proprietari progettati specificamente per la ricerca finanziaria. I risultati mostrano che l'analisi del sentiment basata sul dizionario LM porta più segnali di investimento, specialmente per le società statunitensi a bassa capitalizzazione. Viene utilizzato il ribilanciamento mensile e le società sono classificate per quintili neutrali per settore. I risultati per ogni quintile sono più differenziabili quando si utilizza l'analisi del sentiment, indicando che un sentiment più elevato porta a prestazioni migliori.

  • 00:25:00 Yuyu Fan di Alliance Bernstein spiega come il loro team ha utilizzato il text mining per estrarre insight e valutare il sentiment di chi parla. Hanno analizzato le differenze tra il sentimento del CEO e il sentimento dell'analista, scoprendo che il sentimento dell'analista potrebbe essere un indicatore più affidabile a causa del fatto che i CEO potrebbero distorcere i risultati dell'analisi verso il loro discorso. Hanno anche approfondito la comprensione del linguaggio naturale, utilizzando in particolare il modello Transformer chiamato BERT. BERT utilizza la rappresentazione del codificatore bidirezionale, il che significa che tiene conto delle informazioni circostanti a sinistra ea destra per prevedere meglio il significato di una parola specifica nel suo contesto.

  • 00:30:00 Yuyu Fan spiega come funziona il modello BERT (Bidirectional Encoder Representations from Transformers) per l'analisi del sentiment. La parte del codificatore del modello viene utilizzata per la comprensione laterale del linguaggio (comprensione del linguaggio senza necessità di traduzione). Gli incorporamenti di questa parte del modello possono rappresentare informazioni dall'intera frase e possono essere ottimizzati per creare un modello di classificazione dei sentimenti. Utilizzando modelli BERT preaddestrati e aggiungendo un'attività di classificazione del sentiment a valle, la messa a punto è molto più semplice. Le etichette del sentiment vengono aggiunte tramite l'auto-etichettatura e assegnate etichette tramite set di dati esterni e il modello viene addestrato per prevedere i punteggi del sentiment in un intervallo compreso tra -1 e 1. Infine, Fan mostra che l'analisi del sentiment basata su BERT supera l'analisi del sentiment basata sul dizionario analisi del sentiment con esempi tratti dalle trascrizioni delle chiamate sugli utili.

  • 00:35:00 Yuyu Fan di Alliance Bernstein discute il text mining e come un modello BERT pre-addestrato può essere messo a punto con frasi di etichetta specifiche per migliorare la classificazione del testo finanziario. L'ampia copertura del vocabolario dei token inglesi del modello pre-addestrato consente di acquisire combinazioni e generare parole, ma potrebbe non acquisire un linguaggio finanziario specifico. Alla domanda sull'esecuzione delle frasi con parole sia positive che negative, Yuyu Fan spiega che la classificazione può dipendere dall'interpretazione e dalle aspettative dell'analista, ma la frase stessa può essere classificata come positiva se riporta un aumento del 10% delle entrate.

  • 00:40:00 Yuyu Fan di Alliance Bernstein spiega che è difficile avere una soglia rigida per l'accuratezza nell'analisi del sentiment. Sebbene possa fare una grande differenza in ambito accademico, nelle applicazioni pratiche potrebbe non fare molta differenza poiché un'accuratezza del 90% e un'accuratezza del 92% possono portare a prestazioni simili se aggregate a livello di sezione utilizzando la media o la deviazione standard. Fan spiega che il loro modello ha una precisione di circa il 90% su tutte le frasi e il loro segnale di sentiment si comporta bene con le società a piccola capitalizzazione statunitensi, rendendolo un segnale che i loro team di investimento consigliano di utilizzare. Fan condivide anche di aver pubblicato un documento con maggiori dettagli sulle caratteristiche della PNL che potrebbero essere utilizzate come segnali quantitativi per formare strategie di trading efficienti e stanno attualmente lavorando all'aumento dei dati per migliorare il modello.

  • 00:45:00 Yuyu Fan, data scientist presso Alliance Bernstein, discute di come le loro caratteristiche di PNL siano correlate con le tradizionali caratteristiche fondamentali e quantitative. Hanno scoperto che le correlazioni sono generalmente basse, con leggibilità e conti per il sentiment con una correlazione media intorno a 0,54 per lo slancio a grande capitalizzazione. Spiega anche come misurano la leggibilità utilizzando pacchetti come le statistiche fiscali e apportano personalizzazioni per il loro utilizzo. Fan chiarisce ulteriormente la loro metodologia di rendimento, in cui tengono traccia dei rendimenti di un mese e includono solo le società con le ultime informazioni disponibili prima del giorno di ribilanciamento, in genere dopo che gli utili trimestrali richiedono grandi capitalizzazioni. Infine, affronta una domanda sull'arbitraggio di CO2 e chiarisce la differenza tra BERT e FinBERT, che usano nel loro metodo.

  • 00:50:00 Yuyu Fan discute l'uso del text mining per estrarre approfondimenti. Cita lo sviluppo di un modello di utilizzo finanziario del modello BERT, incentrato in particolare su dichiarazioni, guadagni e notizie relative alla finanza. Il modello distingue tra versioni pre-addestrate e quelle perfezionate, con etichette per probabilità di output positive, negative e neutre. Fan osserva che l'accuratezza del modello varia tra i diversi settori e stanno esplorando strade per l'aumento dei dati per migliorare la classificazione del sentiment per argomenti specifici. La sezione termina con una discussione sul processo di conversione dei dati audio in trascrizioni per l'analisi.

  • 00:55:00 Yuyu Fan di Alliance Bernstein discute l'uso del text mining per estrarre approfondimenti. L'azienda utilizza SMT per i dati dei fornitori di alta qualità, nonché servizi di trascrizione e soluzioni dei fornitori per le collaborazioni. Stanno anche sperimentando un modello chiamato Whisper di Open AI, che utilizza modelli di trasformatore su larga scala per la trascrizione audio, inclusa la trascrizione multilingue. Tuttavia, a causa dei limiti di tempo, la sessione di domande e risposte termina qui.
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
  • 2022.10.26
  • www.youtube.com
Welcome to the first of the UBS and CFEM AI, Data and Analytics Speaker Series!Yuyu Fan of Alliance Bernstein spoke about "Leveraging Text Mining to Extract ...
 

Ciamac Moallemi (Columbia): "Fornitura di liquidità e market making automatizzato"



Ciamac Moallemi (Columbia): "Fornitura di liquidità e market making automatizzato"

In questa discussione completa, Ciamac Moallemi, professore della Columbia University, approfondisce le complessità della fornitura di liquidità e del market making automatizzato (AMM) da varie angolazioni. Sottolinea l'importanza degli AMM nell'affrontare le sfide computazionali e di archiviazione affrontate dalle piattaforme blockchain e la loro capacità di generare rendimenti positivi per i fornitori di liquidità. Per illustrare il concetto, Moallemi presenta il costo della selezione avversa per la volatilità in UniSwap V2, rivelando un costo annuale di circa $ 39.000 su un pool di $ 125 milioni. Sottolinea l'importanza della volatilità e del volume degli scambi nel determinare i rendimenti dei fornitori di liquidità e chiarisce come gli AMM gestiscono gli arbitraggisti e i trader informati.

Moallemi sottolinea i vantaggi dell'utilizzo degli AMM sulla blockchain ed esplora i ruoli delle funzioni di valore in pool e delle funzioni di legame. Sottolinea l'importanza della copertura dei rischi e dei costi associati alle strategie di ribilanciamento. Inoltre, Moallemi introduce il proprio modello per la fornitura di liquidità e il market making automatizzato, confrontandolo con i dati reali della blockchain di Ethereum. Discute di come il suo modello possa potenzialmente migliorare gli AMM riducendo i costi pagati agli intermediari. Moallemi propone vari approcci per mitigare le inefficienze causate da prezzi non ottimali, come l'utilizzo di un oracolo come fonte di dati e la vendita di diritti di arbitraggio ai partecipanti autorizzati, consentendo loro di negoziare contro il pool senza commissioni.

Inoltre, Moallemi chiarisce i vantaggi degli AMM rispetto ai tradizionali limit order book, in particolare in termini di semplicità e accessibilità. Sottolinea come gli AMM livellano il campo di gioco per i partecipanti meno sofisticati eliminando la necessità di algoritmi complessi e risorse estese. Moallemi conclude esprimendo ottimismo sul potenziale di strutture migliori a vantaggio di una più ampia gamma di partecipanti, posizionando gli AMM come un passo nella giusta direzione.

  • 00:00:00 In questa sezione, Ciamac Moallemi della Columbia University discute la fornitura di liquidità e il market making automatizzato, concentrandosi principalmente sui market maker automatizzati nel mondo delle criptovalute. Spiega che il problema del trading è in gran parte risolto dai registri degli ordini con limite elettronico nella finanza tradizionale, ma ci sono un paio di problemi con l'adozione di questa struttura all'ingrosso in criptovaluta. Moallemi discute i costi computazionali e di archiviazione dell'utilizzo della blockchain per il trading e di come i market maker automatizzati possono affrontare questi problemi utilizzando algoritmi di determinazione dei prezzi per quotare sia i prezzi di acquisto che quelli di vendita di un asset, fornendo liquidità al mercato.

  • 00:05:00 In questa sezione, il relatore discute le sfide dell'utilizzo di libri di ordini limite per il trading in un ambiente con velocità di aggiornamento elevate e calcolo e archiviazione limitati. Il market making richiede la partecipazione di market maker attivi e può essere difficile avviarsi nel mondo delle criptovalute, in particolare per i nuovi token. Per affrontare queste sfide, le persone hanno sviluppato market maker automatizzati (AMM), che utilizzano fornitori di liquidità per mettere in pool un pool di asset come ETH e dollari USA. Questi AMM sono efficienti dal punto di vista computazionale e non richiedono ordinamento o confronto, rendendoli ideali per gli ambienti blockchain. Ai fornitori di liquidità vengono pagate commissioni per il trading contro il pool e il prezzo è fissato in funzione di ciò che è nel pool.

  • 00:10:00 In questa sezione, Ciamac Moallemi discute la fornitura di liquidità e il market making automatizzato (AMM) dal punto di vista dei fornitori di liquidità, delineando i costi ei benefici dell'utilizzo di sistemi AMM come UniSwap. Moallemi spiega che mentre i fornitori di liquidità passiva possono guadagnare commissioni attraverso i sistemi AMM, c'è sempre un costo per il market-making, come la selezione avversa. Utilizzando un esempio concreto di UniSwap V2, Moallemi mostra che il costo della selezione avversa per la volatilità è in genere di tre punti base, con un costo annualizzato di circa 39.000 su un pool del valore di $ 125 milioni. Nonostante il costo, Moallemi osserva che i sistemi AMM possono generare un rendimento positivo per i fornitori di liquidità, ma è essenziale valutare accuratamente i rischi ei costi coinvolti.

  • 00:15:00 In questa sezione, Ciamac Moallemi della Columbia University discute la fornitura di liquidità e il market making automatizzato. Moallemi evidenzia i driver alla base dei rendimenti dei fornitori di liquidità, in particolare l'importanza della volatilità e del volume degli scambi. Descrive anche un calcolo back-of-the-envelope per la scomposizione del rendimento LP, che include il rendimento dell'hedge, le commissioni di negoziazione e il costo della leva. Moallemi spiega che il costo della leva è un costo di selezione avversa derivante dai prezzi fissati su una borsa centralizzata e dagli AMM che negoziano a prezzi imprecisi, subendo lo slippage. Ciò porta a opportunità di arbitraggio, con gli arbitraggisti che traggono profitto dal pool, risultando in un gioco a somma zero. Vengono discusse anche le differenze tra trader informati e arbitraggisti.

  • 00:20:00 In questa sezione, Ciamac Moallemi discute la difficoltà di misurare il trading informato e come nasce la volatilità, utilizzando un modello classico di selezione avversa. Parla anche dell'interpretazione del prezzo delle opzioni e della comodità di lavorare in tempo continuo utilizzando formule di forum chiuso. Moallemi menziona altri argomenti popolari nel mondo del market making come i mercati di previsione e i market maker automatizzati. Spiega poi come la blockchain funziona come un computer, tenendo traccia delle transizioni e dei pagamenti, con Ethereum che è una versione più complessa e costosa del sistema. Nonostante sia lenta e costosa, la blockchain è ancora una parte vitale dei mercati di trading e previsione.

  • 00:25:00 In questa sezione, Ciamac Moallemi discute l'importanza della finanza nell'utilizzo di computer lenti, specialmente in scenari che richiedono piccole transazioni o semplici compiti computazionali. Mostra un grafico che riflette la percentuale di risorse spese sul sistema Ethereum per applicazioni legate alla finanza, con il trading come sottocategoria più grande e Uniswap come protocollo o contratto intelligente più significativo. Sebbene la maggior parte degli scambi di criptovalute avvenga sugli scambi, anche gli scambi decentralizzati come Uniswap sono significativi, con un aggregato di circa un trilione di dollari scambiati. Moallemi presenta un assetto di Black-Scholes a tempo continuo con volatilità stocastica come modello per il trading di due asset, un asset rischioso indicato con "x" e un asset privo di rischio chiamato numerario indicato con "y", con il prezzo di mercato come prezzo dell'attività rischiosa in termini di numeratore.

  • 00:30:00 In questa sezione del video, Ciamac Moallemi spiega il concetto di fornitura di liquidità e market making automatizzato nel settore finanziario e come funzionano. Parla di come i rendimenti di questo processo siano una passeggiata casuale e di come questo concetto sia un modello molto standard in finanza. Quindi prosegue spiegando il concetto di market maker automatizzato come market maker a funzione costante, in cui la funzione è mantenuta costante dalla funzione di legame. I fornitori di liquidità contribuiscono con riserve e gli operatori possono solo spostarsi in un altro punto della curva, il che mantiene costante la funzione. La pendenza della linea diagonale fornisce il prezzo istantaneo. Il meccanismo sa quale inventario ha per soddisfare l'invariante e dire sì o no alle negoziazioni.

  • 00:35:00 In questa sezione, Ciamac Moallemi discute i vantaggi dell'utilizzo del market making automatizzato (AMM) sulla blockchain rispetto agli scambi tradizionali come Binance. Essere sulla blockchain consente diversi servizi come il prestito garantito o l'ottimizzazione del portafoglio, che non sono possibili sugli scambi tradizionali. Inoltre, il trading sulla blockchain può essere una subroutine di un programma per computer, una funzionalità non disponibile negli scambi tradizionali. Mentre le commissioni per gli AMM sono proporzionali alla quantità, il livello del fornitore di liquidità può cambiare nel tempo, influenzando la distribuzione delle commissioni. Il modello di mercato coinvolge due tipi di trader: arbitragger che monitorano costantemente lo scambio centralizzato e il mercato esterno e noise trader che traggono utilità dall'essere sulla blockchain. L'analisi presuppone fornitori di liquidità costanti, pagamenti in contanti per commissioni e ignora il tempo discreto rispetto a quello continuo nella blockchain.

  • 00:40:00 In questa sezione, Ciamac Moallemi spiega il concetto di fornitura di liquidità e market making automatizzato. Usa l'esempio del trading di x per y e la parte più lenta è il tasso al quale può essere scambiato. Descrive come il problema sia meglio descritto passando a variabili duali che sono i prezzi che supportano gli iperpiani. Spiega che la funzione del valore del pool è un oggetto critico e si presume che la funzione sia regolare e differenziabile due volte in modo continuo. Moallemi discute anche il caso del prodotto costante e le proprietà della funzione di legame, che gli arbitraggisti sono incentivati a bilanciare. Gli arbitraggisti monitorano costantemente il mercato, lasciando il valore minimo nel pool per guadagnare più denaro possibile.

  • 00:45:00 In questa sezione, Ciamac Moallemi della Columbia University discute gli ingredienti chiave necessari per la fornitura di liquidità e il market making automatizzato, compresa la strategia di ribilanciamento e l'uso dell'arbitraggio. La strategia di ribilanciamento prevede l'acquisto e la vendita di attività rischiose allo stesso modo degli arbitraggisti, ma negoziando sulla borsa centralizzata a prezzi di mercato equi. Il teorema della perdita della leva rispetto al ribilanciamento caratterizza il processo come non negativo, non decrescente e prevedibile, dimostrando che i valori della riserva del pool perdono sistematicamente denaro rispetto al trading in borsa. Questi ingredienti chiave sono importanti per un'efficace fornitura di liquidità e market making.

  • 00:50:00 In questa sezione, Ciamac Moallemi discute i rischi ei costi associati alla strategia di ribilanciamento e come possono essere potenzialmente coperti. Spiega che la variazione istantanea del valore di un portafoglio ha due componenti: la prima componente è il rischio di mercato, il che significa che è esposta al mercato, mentre la seconda componente è localmente priva di rischio e prevedibile, ma ha un costo di gestione sistematico. Moallemi scompone ulteriormente la formula per la leva istantanea e il modo in cui è influenzata dalla varianza istantanea e dalla quantità di liquidità disponibile all'attuale livello di prezzo. Dimostra anche come la formula può essere applicata al costante market maker del prodotto.

  • 00:55:00 In questa sezione, Moallemi spiega che il valore del pool non andrà mai a zero, ma potrebbe diventare meno prezioso di un'alternativa. La strategia di ribilanciamento può sistematicamente fare soldi nel tempo, poiché vende quando i prezzi salgono e acquista quando i prezzi scendono. Inoltre, Moallemi discute le ipotesi del modello, affermando che per le pool più liquide è ragionevole ipotizzare un mercato esterno, ma per la coda lunga questa non è una buona ipotesi. Tuttavia, il modello è ancora utile come modello predittivo e fornisce prezzi coerenti. Moallemi spiega quindi un modo per utilizzare il modello come modello predittivo, osservando le commissioni raccolte da LP e la variazione del valore del pool e coprendo il rischio di mercato con operazioni di ribilanciamento negativo sulla finanza.

  • 01:00:00 In questa sezione, Ciamac Moallemi della Columbia University discute i risultati empirici del suo modello per la fornitura di liquidità e il market making automatizzato. Confronta il profitto e la perdita coperti (P&L) dell'utilizzo della sua formula con i dati effettivi della blockchain di Ethereum e scopre che sono vicini, indicando che il suo modello è corretto. Quindi esamina la volatilità giornaliera e le fluttuazioni di profitti e perdite di un pool Uniswap di esempio con $ 200 milioni in monete. Le fluttuazioni di profitti e perdite sono dovute al rischio di mercato e Moallemi dimostra che possono essere coperte utilizzando la sua formula, con un rendimento positivo e un elevato indice di Sharpe, anche se potrebbe non essere necessariamente una strategia redditizia a causa dei costi di trading e di finanziamento. Suggerisce che questo strumento può essere utilizzato per migliorare i market maker automatizzati riducendo i costi pagati agli intermediari.

  • 01:05:00 In questa sezione, Ciamac Moallemi discute i modi per mitigare le inefficienze causate da prezzi bassi nella fornitura di liquidità e nel market making automatizzato. Suggerisce di utilizzare un oracolo come fonte di dati per prendere i prezzi da scambi come Binance per incorporare prezzi esterni in contratti intelligenti e impedire il trading fuori mercato. Inoltre, Moallemi presenta l'idea di vendere i diritti di arbitraggio ai partecipanti autorizzati che possono negoziare contro il pool senza pagare commissioni, dando loro la priorità di sfruttare discrepanze di prezzo minori e fare soldi. Questi partecipanti restituirebbero parte del loro profitto all'LPS per aiutare a mitigare i prezzi negativi e garantire che sia gli LP che i noise trader traggano vantaggio dalla strategia. Moallemi risponde anche alle domande sull'implementazione degli AMM per il trading su Binance e lo shorting nei mercati delle criptovalute. Osserva che lo shorting può essere costoso a causa dei costi di finanziamento e che il volume e la volatilità sono altamente correlati, il che può rendere rischiosa la strategia di essere long sul volume ma short sulla volatilità.

  • 01:10:00 In questa sezione, Moallemi spiega i problemi con il protocollo Requesting for Quote (RFQ) nei contratti intelligenti, in quanto richiede l'attesa che gli altri rispondano, il che rompe l'atomicità dei contratti intelligenti. Tuttavia, una popolare alternativa indiretta, chiamata liquidità just-in-time, può essere utilizzata per anticipare e fornire liquidità a grandi ordini prima che vengano elaborati. Moallemi spiega anche come i market maker tradizionali coprono il rischio e detengono azioni per brevi periodi prima di vendere, mentre i fornitori di liquidità dovrebbero anche coprirsi per gestire il rischio di mercato. Il modello del pool di liquidità funziona meglio nelle criptovalute perché hanno computer lenti e un gran numero di monete disponibili.

  • 01:15:00 In questa sezione, il relatore discute i vantaggi dei market maker automatizzati (AMM) rispetto ai limit order book, in particolare in termini di semplicità e accessibilità. Spiegano che la natura complessa dei libri degli ordini con limite li rende difficili da utilizzare per i market maker e persino per i trader senza algoritmi e un esercito di PHD, creando condizioni di parità per gli investitori istituzionali che utilizzano anche algoritmi. Tuttavia, gli AMM semplificano il processo, consentendo ai partecipanti medi di trarne vantaggio senza la necessità di conoscenze o risorse approfondite. Il relatore vede il potenziale per strutture migliori a vantaggio dei partecipanti meno sofisticati, rendendo gli AMM un passo nella giusta direzione.
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
  • 2022.09.14
  • www.youtube.com
Abstract: In recent years, automated market makers (AMMs) and, more specifically, constant function market makers (CFMMs) such as Uniswap, have emerged as t...
 

Andreea Minca (Cornell ORIE): Clustering di reti finanziarie eterogenee



Andreea Minca (Cornell ORIE): Clustering di reti finanziarie eterogenee

La professoressa Andreea Minca, rinomata esperta nel campo delle reti finanziarie presso Cornell ORIE, ha dedicato la sua ricerca all'esplorazione delle complessità del raggruppamento di reti finanziarie eterogenee. Introduce un termine di regolarizzazione innovativo per affrontare le sfide uniche poste da queste reti, in particolare la presenza di valori anomali con schemi di connessione arbitrari. Questi valori anomali ostacolano le prestazioni degli algoritmi di clustering spettrale e trasformano il clustering in un problema computazionalmente impegnativo noto come problema combinatorio NP-hard.

Per identificare questi valori anomali in base ai loro schemi di connessione, Minca utilizza il modello a blocchi stocastico e il modello a blocchi stocastico corretto per il grado. Questi modelli offrono garanzie teoriche per un recupero preciso senza fare ipotesi sui nodi anomali, se non conoscendone il numero. L'eterogeneità insita nelle reti finanziarie complica ulteriormente il rilevamento di valori anomali basati esclusivamente sui gradi dei nodi.

Minca approfondisce il processo di partizionamento della rete in cluster e valori anomali costruendo una matrice di partizione e una permutazione di nodi. Esemplifica questo approccio applicandolo all'analisi del sistema bancario coreano. Inoltre, Minca utilizza un campionatore Gibbs per colmare le lacune nella rete, consentendo un'efficiente allocazione del rischio e la diversificazione degli investimenti raggruppando portafogli sovrapposti in base alla loro forza e al livello di sovrapposizione.

Nel suo lavoro, Minca sottolinea l'importanza di generare cluster che esibiscono un'interconnettività significativa piuttosto che cluster senza connettività. Propone un approccio che offre cinque alternative per la diversificazione nell'ambito di un quadro di parità di rischio di cluster, evidenziando la necessità di un'attenta considerazione quando si utilizzano algoritmi di clustering per ottenere la diversificazione nelle reti finanziarie. Minca consiglia di quantificare le prestazioni degli algoritmi di clustering utilizzando categorie di investimento standard e sottolinea l'importanza di un processo decisionale informato quando si utilizzano queste tecniche.

Nel complesso, la ricerca della professoressa Andreea Minca fornisce preziose informazioni sulle complessità del raggruppamento di reti finanziarie eterogenee, offrendo approcci innovativi e soluzioni pratiche per affrontare le sfide associate a queste reti. Il suo lavoro contribuisce al progresso dell'analisi del rischio, alla selezione del portafoglio e alla comprensione delle dinamiche strutturali dei sistemi finanziari.

  • 00:00:00 La professoressa Andreea Minca discute il suo lavoro sullo sviluppo di algoritmi per raggruppare le reti finanziarie sulla base di due diversi esempi. Il primo esempio è sulle reti di portafogli sovrapposti con applicazioni nella selezione del portafoglio, e il secondo esempio è sulla rete delle esposizioni, che è correlata all'analisi del rischio sistemico e alla comprensione del livello di rischio nella rete. L'obiettivo è abbinare gli algoritmi di clustering alle reti finanziarie e creare cluster significativi che siano vulnerabili all'illiquidità o al default in un'istituzione. Più grandi sono i cluster, maggiore è il potenziale impatto dello stress su un membro di quel cluster, evidenziando l'importanza di comprendere le strutture della rete finanziaria.

  • 00:05:00 Andreea Minca discute le sfide del clustering delle reti finanziarie, comuni a tutte le reti del mondo reale. Il problema del clustering esiste perché i nodi tendono a formare gruppi in cui la connettività intragruppo è maggiore della connettività intergruppo. Esistono vari algoritmi di clustering, ma l'eterogeneità delle reti finanziarie rappresenta una sfida in quanto le reti finanziarie mostrano eterogeneità in termini di gradi, pesi e connettività intercomunitaria diversa. Inoltre, la presenza di valori anomali rende difficile l'applicazione di algoritmi preconfezionati in quanto potrebbero avere gli stessi schemi di connessione dei nodi in linea, ma non possono essere trattati come un cluster a sé stante. Diversi problemi riguardano il raggruppamento delle reti finanziarie, rendendo difficile l'applicazione degli algoritmi esistenti.

  • 00:10:00 Andreea Minca di Cornell ORIE discute le sfide affrontate quando si raggruppano reti finanziarie eterogenee e l'introduzione di un nuovo termine di regolarizzazione per superarle. Una delle sfide principali è la presenza di valori anomali che hanno schemi di connessione arbitrari e si comportano come avversari, ostacolando le prestazioni degli algoritmi di clustering come il clustering spettrale. Lo stesso problema di clustering è un problema combinatorio NP-difficile, che può essere rilassato per un programma semidefinito che ha algoritmi trattabili. L'obiettivo è dimostrare che determinate condizioni sono valide per il ripristino dei veri cluster e il termine di regolarizzazione introdotto penalizza i valori anomali con schemi di connessione insoliti.

  • 00:15:00 Andreea Minca discute l'applicazione del modello a blocchi stocastico e del modello a blocchi stocastico con correzione del grado per rilevare modelli di raggruppamento in reti finanziarie eterogenee. L'obiettivo è rilevare i valori anomali in base ai loro modelli di connessione. Le garanzie teoriche fornite garantiscono un recupero esatto senza fare ipotesi sui nodi anomali, se non conoscendone il numero. Le condizioni del divario di densità si basano sulla differenza tra la densità del bordo tra cluster e all'interno del cluster. I risultati sono più robusti rispetto alla letteratura precedente in quanto sono indipendenti dal numero di valori anomali e dipendono solo dal numero di valori interni. L'eterogeneità nelle reti finanziarie rende difficile rilevare i valori anomali in base ai gradi, poiché i nodi possono avere gradi elevati a causa della struttura dei nodi nello stesso cluster.

  • 00:20:00 Andreea Minca spiega il concetto di eterogeneità nelle reti finanziarie e come influisce sugli algoritmi di clustering. Usa l'esempio del sistema bancario coreano per illustrare come le banche e le compagnie assicurative nello stesso settore possono mostrare eterogeneità e non dovrebbero essere classificate come valori anomali. Minca osserva che la distribuzione dei gradi a coda pesante nelle reti finanziarie richiede uno sguardo attento ai modelli di connettività e ai contributi ai limiti dell'intervallo di gradi di ciascun nodo. Sottolinea inoltre la necessità di termini di penalità nell'algoritmo che tengano conto del grado poiché non è possibile utilizzare una penalizzazione omogenea per tutti i nodi. Infine, Minca delinea i fondamenti del modello di clustering, che include la specifica di parametri di eterogeneità e matrici di connettività per ciascun cluster.

  • 00:25:00 Andreea Minca discute le sfide del clustering in presenza di valori anomali quando si utilizzano metodi di clustering standard. L'obiettivo di rilevare i valori anomali è generare un allarme rosso senza ostacolare il raggruppamento stesso o ostacolare erroneamente la classificazione delle note interne. Regolando la connettività attraverso i parametri di eterogeneità, la matrice di adiacenza può essere scritta in modo che corrisponda alla matrice di adiacenza del primo valore anomalo per trovare la matrice di permutazione che mappa dall'immagine osservata alla struttura sottostante di cluster e valori anomali. Questi aggiustamenti aiutano a soddisfare molte scelte di modellazione nelle reti finanziarie.

  • 00:30:00 In questa sezione del video, Andreea Minca spiega il processo di ricerca di una matrice di partizione e permutazione dei nodi per identificare la struttura dei cluster e dei valori anomali nelle reti finanziarie. L'algoritmo si basa sulla ricerca di una matrice di partizione che indichi quali nodi appartengono allo stesso cluster, mentre voci arbitrarie rappresentano valori anomali. Per illustrare il concetto, Minca mostra un esempio di rete finanziaria coreana, dove l'obiettivo dell'algoritmo è determinare la corretta identificazione di ogni settore presente nella rete.

  • 00:35:00 Andreea Minca, professore alla Cornell ORIE, discute il suo lavoro con la creazione di reti semi-sintetiche e algoritmi di test. Spiega che crea una rete basata sui dati pubblicati dalla Bank of Korea sulla dimensione delle attività e delle passività per tutti gli istituti finanziari e li collega sulla base di un flusso aggregato da qualsiasi compagnia di assicurazioni a qualsiasi banca. Quindi utilizza un algoritmo di massimizzazione della modularità per identificare quali istituti finanziari appartengono a quale settore in base al modello di connettività osservato. L'algoritmo introduce anche un parametro di ottimizzazione e un vincolo di matrice di partizione per minimizzare la differenza di modularità.

  • 00:40:00 Andreea Minca spiega la sfida della ricerca di matrici di partizione nel clustering di reti finanziarie eterogenee, che è un problema intrattabile a causa di un vincolo specifico. Per ovviare a ciò si introduce un rilassamento del problema dove gli elementi della matrice sono compresi tra 0 e 1, ed è semidefinito positivo. L'eterogeneità del problema viene affrontata attraverso termini di penalizzazione, in cui una penalità sul termine diagonale penalizza potenziali valori anomali il cui grado è oltre la variazione normale. Due parametri di regolazione controllano la forza della penalizzazione diagonale e sono determinati dal grado osservato dei nodi, consentendo l'identificazione di valori anomali e quelli con una forte appartenenza alla comunità. L'esempio dell'industria coreana utilizzato nel video è un'istantanea delle esposizioni nella rete coreana e non vi è alcun componente di serie temporali.

  • 00:45:00 Andreea Minca di Cornell ORIE parla del raggruppamento di reti finanziarie eterogenee e di come ricreare reti campione coerenti con i valori aggregati utilizzando un campionatore Gibbs per colmare le lacune. Le prestazioni dell'algoritmo possono essere testate tramite il tasso di errata classificazione e la probabilità di recupero, che tende a uno a una certa velocità man mano che la dimensione del campione diventa grande. Utilizzando il settore coreano come esempio, Minca dimostra come la matrice di connettività possa rappresentare la probabilità di connessione tra diversi settori e come i risultati di clustering siano ottenuti dalla matrice.

  • 00:50:00 Andreea Minca discute la sfida di identificare il settore finanziario corretto per ogni istituzione in una rete basata sui loro modelli di connettività. Spiega che un algoritmo deve essere robusto per l'eterogeneità della connettività e che i tassi di classificazione errata vengono utilizzati come criteri di prestazione. Minca confronta i tassi di classificazione errata dell'algoritmo che ha presentato e di altri algoritmi esistenti, evidenziando che l'algoritmo basato sul clustering spettrale è il peggiore. Ciò sottolinea la necessità di modificare gli algoritmi esistenti per tenere conto dei problemi incontrati dalle reti finanziarie. Inoltre, Minca accenna brevemente alle applicazioni dell'algoritmo nella gestione del portafoglio di investimenti. Ricreando una rete di portafogli sovrapposti, i punti di forza dell'interazione delle istituzioni possono essere misurati in base alle loro partecipazioni in portafoglio e ciò potrebbe potenzialmente aiutare nel processo decisionale di investimento.

  • 00:55:00 Andreea Minca discute l'algoritmo di clustering e come può essere applicato a portafogli finanziari sovrapposti per allocare in modo efficiente il rischio e diversificare gli investimenti. Raggruppando i portafogli in base alla loro forza e al livello di sovrapposizione, l'algoritmo è in grado di recuperare cinque cluster che sono diventati più grandi in un decennio, indicando una maggiore sovrapposizione. Ciò fornisce uno strumento per la generazione di cluster che sono più efficaci di altri metodi di clustering esistenti. Inoltre, Minca spiega come un algoritmo aggiuntivo colmi le lacune dell'esempio coreano e crei reti individuali coerenti con i dati aggregati del governo.

  • 01:00:00 Andreea Minca discute la questione del raggiungimento della diversificazione attraverso algoritmi di clustering per le reti finanziarie. Mostra che avere un cluster con una connettività inter-cluster estremamente elevata e un altro senza connettività non raggiungerebbe la diversificazione. Invece, presenta un approccio che identifica cinque alternative per la diversificazione nell'ambito di un approccio di parità di rischio di cluster. Risponde anche a domande sulla prestampa del suo lavoro, sulla disponibilità di uno strumento e sulla sensibilità dell'algoritmo al numero di cluster, suggerendo anche l'uso di categorie di investimento standard per quantificare le prestazioni degli algoritmi di clustering.

  • 01:05:00 Andreea Minca discute il tema degli algoritmi di clustering e del recupero dei cluster, utilizzando l'esempio del recupero di cinque cluster da cinque strategie di investimento. Nota inoltre che può essere difficile confrontare i risultati del clustering da scelte diverse senza una buona conoscenza del dominio o ipotesi sul numero di cluster. Tuttavia, non ci sono risultati teorici su questo argomento, il che evidenzia l'importanza di prendere decisioni ben informate quando si utilizzano algoritmi di clustering.
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
  • 2022.04.27
  • www.youtube.com
Abstract: For the degree corrected stochastic block model in the presence of arbitrary or even adversarial outliers, we develop a convex-optimization-based c...
Motivazione: