L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2727

 
Aleksey Nikolayev #:

Le sue ipotesi sembrano troppo forti. Nel senso che se fosse possibile realizzarle, sarebbe praticamente un graal. Vorrei risolvere un problema più modesto e specifico: trovare un modo generale per trovare un compromesso tra la lunghezza sufficiente della trayne e l'assenza di esempi obsoleti in essa.

A mio parere, questo problema è fondamentale per le applicazioni di MO e matstat nel nostro campo.

Non avete provato a sperimentare? Dopotutto, secondo il vostro approccio teorico alla questione, dopo un aumento critico della dimensione del campione, i modelli nel campione saranno vecchi, non più funzionanti, il che significa che l'apprendimento dovrebbe deteriorarsi in senso qualitativo e i risultati su nuovi dati saranno peggiori quando il campione viene aumentato.

 
Aleksey Nikolayev #:

Otteniamo un'analisi a posteriori di un modello già addestrato. Vorrei integrarla con un'analisi a priori per la fase di selezione del campione di addestramento.

Lo penso anch'io. Ho deciso di utilizzare l'ultimo vertice formato dello zigzag per semplicità, ma vorrei qualcosa di più elaborato.

Inizio a estrarre solo pezzi funzionanti dai nuovi dati e applico un filtro sotto forma di un secondo modello per lavorare sia sui vecchi che sui nuovi dati, poi lo verifico su altri nuovi dati, come nell'articolo.

Anche questa è una sorta di adattamento, ma sulla base degli errori del modello. Come se selezionassimo almeno quelle varianti che è in grado di classificare bene, quindi c'è qualcosa in loro oltre alla casualità (almeno su training e validazione e qualche altra validazione).

Se a priori si stabilisce qualcosa, probabilmente ha senso prendere qualsiasi monitoraggio di lunga durata, che fornirà almeno un markup adeguato. Raccogliere i segnali.


Ho elaborato un nuovo spammer di caratteristiche e obiettivi (sembra essere informativo, e lo è, rispetto al solito campionamento casuale). Ma ci sono alcune varianti, non l'ho ancora testato.

 
Aleksey Vyazmikin #:

Non avete provato a sperimentare? Dopotutto, secondo il vostro approccio teorico in questa domanda, dopo un aumento critico della dimensione del campione, i modelli nel campione arriveranno vecchi, non più funzionanti, e quindi l'apprendimento dovrebbe deteriorarsi in senso qualitativo e su nuovi dati i risultati saranno peggiori quando il campione viene aumentato.

Probabilmente vi renderete conto che è un compito computazionale assolutamente immane allenarsi su un gran numero di varianti per la lunghezza della storia per un gran numero di punti nel tempo. Anche se per miracolo si riuscisse a raccogliere tutte queste statistiche, si porrebbe il problema di una sistematizzazione significativa di questo mucchio di informazioni. Sicuramente una diversa lunghezza della storia risulterà ottimale per ogni momento. E come interpretare questo dato e, soprattutto, come estrapolarlo nel futuro?

Vorrei fare il percorso inverso, cioè trovare un'euristica per ridurre drasticamente il numero di varianti per la lunghezza della storia di allenamento (letteralmente fino a poche varianti).

 
Maxim Dmitrievsky #:

Inizio ad estrarre solo i pezzi funzionanti dai nuovi dati e applico il filtro come secondo modello per lavorare sia sui vecchi che sui nuovi dati, quindi lo verifico su altri nuovi dati come nell'articolo.

Anche questa è una sorta di adattamento, ma sulla base degli errori del modello. Come se si selezionassero almeno le varianti che il modello è in grado di classificare bene, in modo che ci sia qualcosa in loro oltre alla casualità (almeno per quanto riguarda l'addestramento e la convalida e qualche altra convalida).

Se a priori si stabilisce qualcosa, probabilmente ha senso prendere qualsiasi monitoraggio di lunga durata, che fornirà almeno un markup adeguato. Raccogliere i segnali.


Ho ideato un nuovo spammer di caratteristiche e obiettivi (sembra essere informativo, e così è rispetto al solito campionamento casuale). Ma ci sono alcune varianti, non l'ho ancora testato.

Dovrò rifletterci su. Non capisco bene come tradurlo nelle mie idee e nei miei concetti.

 
Aleksey Nikolayev #:

Devo pensarci su. Non capisco come tradurlo nel linguaggio delle mie percezioni e dei miei concetti.

Inoltre, il passaggio dai tick alle barre riduce di molto il potere predittivo.

ma elimina i potenziali conflitti con il dts).

 
Maxim Dmitrievsky #:

Inoltre, il passaggio dai tick alle barre riduce notevolmente la capacità predittiva.

ma elimina i potenziali conflitti con i dts :)

A proposito, questa è anche un'importante questione pratica e teorica. Si può formulare come una dipendenza del bid-ask spread reale dal volume (liquidità, volatilità), calcolare la regressione corrispondente, confrontare il forex con gli strumenti di borsa, ecc. Un'altra cosa è che è interessante solo per coloro i cui TS scambiano grandi volumi).

 
Aleksey Nikolayev #:

Probabilmente vi renderete conto che è un compito computazionale assolutamente immenso addestrare un gran numero di varianti per un gran numero di momenti nel tempo per tutta la durata della storia. Anche se per miracolo si riuscisse a raccogliere tutte queste statistiche, si porrebbe il problema di una sistematizzazione significativa di questo mucchio di informazioni. Sicuramente una diversa lunghezza della storia risulterà ottimale per ogni momento. E come interpretarla e, soprattutto, come estrapolarla nel futuro?

Vorrei fare il percorso inverso, cioè trovare un'euristica per ridurre drasticamente il numero di varianti per la lunghezza della storia di allenamento (letteralmente a poche varianti).

Il problema dell'esperimento è risolvibile, ho fatto qualcosa di simile.

All'epoca mi venne l'idea che avrei dovuto studiare dei metodi per stimare la comparabilità del campione. Ma non sono riuscito a implementarlo, perché non capivo la formula.

 
Aleksey Vyazmikin #:

Il problema dell'esperimento è risolvibile, ho fatto qualcosa di simile.

È tecnicamente risolvibile, probabilmente. Il problema è come interpretare i risultati di un tale esperimento.

Aleksey Vyazmikin #:

Allora mi è venuta l'idea che dovremmo studiare dei metodi per valutare la comparabilità di un campione. Ma non riuscivo a realizzarlo - non capivo la formula.

Matstat ha molti test per verificare l'omogeneità dei campioni, ad esempio. Se ovviamente ho capito bene la sua terminologia.

 
Aleksey Nikolayev #:

A proposito, anche questa è un'importante questione pratica e teorica. Si può formulare come una dipendenza del bid-ask spread reale dal volume (liquidità, volatilità), calcolare la regressione corrispondente, confrontare il forex con gli strumenti di borsa e così via. Un'altra cosa è che è interessante solo per coloro i cui TS scambiano grandi volumi).

È un tale pasticcio che nulla è chiaro. Da dove prendono queste quotazioni con i volumi, quali sono i fornitori, se esistono o meno e tutto il resto. Alla fine, anche se ci riuscissero, bandirebbero un ts così tossico come tutti gli altri su principi simili. Oppure corrono in posti diversi con un cappello e raccolgono quello che ci cade dentro prima del pendaglio magico.

Benvenuti TS da un'ora di lunghezza della transazione, è possibile su diversi strumenti, sembrano a nessuno particolarmente sforzo in termini di tossicità, ma è difficile fare un tale difficile, probabilmente perché non si sforzano.
 
Maxim Dmitrievsky #:
È una tale confusione da risultare incomprensibile. Da dove prendono queste quotazioni con i volumi, quali fornitori usano, se esistono o meno, e tutto il resto. Alla fine, anche se dovesse funzionare, banneranno un TS così tossico come tutti gli altri su principi analoghi.

Credo che fxsaber abbia scritto che i problemi iniziano con alcuni grandi fatturati. Forse i vostri TS sono stati vittime di una popolarità troppo alta tra i copisti)

Motivazione: