L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2269

 
Maxim Dmitrievsky:

Ho scritto il mio gan, non c'è niente di complicato. Non è ricorsivo però, dovrò rifarlo.

Un esempio su Torch.

ecco un altro esempio

Quando avrò abbastanza tempo, cercherò di capirlo.

 
Rorschach:

Avrò tempo per cercare di capirlo.

Ho fatto un confronto tra diversi modelli generativi da libreria sopra, attraverso la mia lib. Si scopre che GMM funziona meglio per i dati tabulari (dataframe con incrementi). Poi vengono le copule, le seconde più efficienti. I modelli di rete neurale come il tabulare Gan e altri hanno funzionato peggio. Ma forse ho fatto qualcosa di sbagliato. C'è anche questa opzione.

 
Maxim Dmitrievsky:

Ho fatto un confronto tra diversi modelli generativi dalla libreria di cui sopra, attraverso la mia lib. Si scopre che GMM funziona meglio per i dati tabulari (dataframe con incrementi). Poi vengono le copule, le seconde più efficienti. I modelli di rete neurale come il tabulare Gan e altri hanno funzionato peggio. Ma forse ho fatto qualcosa di sbagliato. C'è anche questa opzione.

Le reti sembrano avere una scarsa tolleranza al rumore, forse è per questo che i risultati sono peggiori.

Volevo mescolare il rumore con i dati ad ogni epoca, ma non l'ho mai fatto.

 
Rorschach:

Le reti non sembrano tollerare bene il rumore, il che può essere il motivo per cui i risultati sono peggiori.

Volevo aggiungere del rumore ai dati ad ogni epoca, ma non l'ho mai fatto.

Sembra che stiano facendo una media molto alta. L'output è costituito da campioni simili, con poche variazioni. Non importa come si modifica il vettore latente, si ottengono valori troppo vicini tra loro.

 
Maxim Dmitrievsky:

E' come se stessero facendo una media molto alta. L'output è costituito da campioni simili, con poche variazioni. Non importa come cambi il vettore latente, i valori sono troppo vicini.

Che ne dite di ridurre la profondità della storia?

 
Rorschach:

Che ne dite di ridurre la profondità della storia?

Ho fatto diverse cose, l'uscita di entrambi autoencoder e gm dà valori fortemente mediati. Se l'autoencoder per definizione comprime, non è chiaro perché le GAN lo facciano. Anche l'abbandono non aiuta, a quanto pare.

 
Maxim Dmitrievsky:

L'uscita dell'autocodificatore e del gm dà valori altamente mediati. Se l'autocodificatore per definizione comprime, non è chiaro perché le GAN lo facciano. Anche l'abbandono non aiuta, a quanto pare.

La media e la sfocatura sono più o meno la stessa cosa, giusto? Ho trovato questo articolo .

 
Rorschach:

La media e la sfocatura sono più o meno la stessa cosa, giusto? Ho trovato questo articolo .

Beh, sì, la compressione dei dati.

Lo capisco con i numeri, ma i dati tabellari funzionano peggio.

ed è per questo che c'è TabularGAN. Nel pacchetto di cui sopra.

 
Maxim Dmitrievsky:

Beh, sì, la compressione delle informazioni.

Lo capisco con le cifre, ma i dati tabellari sono peggio

Leggete la diagonale, sembra che si tratti di una diversa distribuzione del rumore e di una metrica inappropriata.

Meglio controllare con dati di test in condizioni di serra.
 
Rorschach:

Interessante il tema dell'inversione della griglia.

Alimentare il rumore agli ingressi. Ottieni uno spettro all'uscita.

https://arxiv.org/pdf/1806.08734.pdf

Motivazione: