L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2052

 
Maxim Dmitrievsky:

È chiaro che non è un idiota. Il test è semplice, ma probabilmente non è aggiornato.

Se è come in Idiocracy, risulterà anche complicato))

 
Rorschach:

Se è come in Idiocracy, sarà anche difficile))

Posso pensare a un sacco di persone che conosco o concorrenti locali che non ce la faranno

 
Aleksey Vyazmikin:

Se dà una previsione per una barra o più, che non è sufficiente per prendere una decisione, non è molto meglio di un MA. Mentre si è interessati alle deviazioni da questo MA fittizio per i guadagni.

fino a dove si arriva, fino a dove si arriva.

Stavo armeggiando con la rnn con il tester questa mattina - si sta riqualificando sugli incrementi. Sul treno è buono, non sul tester è cattivo.

Non ne ho bisogno se i risultati non sono migliori della foresta. ) Catbust, tra l'altro, è in grado di mostrare un quadro più interessante. In generale, è una cosa bella, ma non serve a niente.
 

Neural Network Porn... Presto caricherò la parte 2 con le conclusioni, sulla RNN (GRU)

ч.2. Test normale alla fine del video. Prima di allora, non volevo assolutamente allenarmi come si deve.


E un piccolo riassunto di come più o meno la stessa cosa funziona con il catbust, dove il risultato è migliore:


 
Maxim Dmitrievsky:

Neural Network Porn... Presto caricherò la parte 2 con le conclusioni, sulla RNN (GRU)

ч.2. Test normale alla fine del video. Prima di allora, non volevo assolutamente allenarmi come si deve.


E un piccolo riassunto di come circa lo stesso funziona con il catbust, dove il risultato è migliore:


Non usate Numba per l'accelerazione?

 
Rorschach:

Non usate Numba per accelerare le cose?

Gli stessi loop sono veloci senza di esso, finora non ne ho bisogno.

Se possibile, la vettorizzazione è ovunque, tutto è veloce lì

Z.I. difetto evidente - non si può insegnare per logloss o cross-entropia, è necessario imbullonare una metrica almeno. L'ho capito solo ora. A causa di questo, i risultati non sono molto buoni, molto probabilmente.

L'invito è venuto dall'ods? Forse ci sono altri modi, dovrò chiedere
 
Maxim Dmitrievsky:

i cicli stessi funzionano rapidamente senza di esso, finora, nessuna necessità

se possibile, vettorizzazione ovunque, tutto è veloce lì

Z.I. difetto evidente - non si può insegnare per logloss o cross-entropia, si deve avvitare in una metrica di precisione almeno. L'ho capito solo ora. A causa di questo, i risultati non sono molto buoni, molto probabilmente.

Hai ricevuto l'invito da ods? forse ci sono altri modi, devo chiedere

A volte gli array numpy richiedono più tempo per il calcolo rispetto alle liste python. Ho anche notato che avvolgere il codice in una funzione provoca una velocizzazione.

Non ancora arrivato, non so quando sarà la mia prossima visita a NS.

 
Rorschach:

Su a volte trovo che gli array di numpy impiegano più tempo per essere valutati rispetto alle liste di python. Ho anche notato che avvolgere il codice in una funzione dà un'accelerazione.

Non l'ho ancora fatto, non ho fretta, non so quando ci sarà la prossima corsa in NS.

che è strano. Probabilmente contando elemento per elemento invece che vettore per vettore.

nampai come sui plus dovrebbe volare, con un piccolo overhead
 
Maxim Dmitrievsky:

che è strano. Probabilmente contando elemento per elemento invece che vettore per vettore.

Nampai come i plus dovrebbe volare, con un po' di overkill.

Sì, se devi farlo in un ciclo.

Ho contato qualcosa come 500 volte per numba, ma non è esatto. Dovete mettere questo codice in una funzione e metterci @njit. @vectorize funziona alla velocità di @njit, quindi non ha senso armeggiare con esso, solo se si conta sulla gpu. Ma la gpu è ancora più problematica, gli array non possono essere dichiarati all'interno della funzione e il codice deve essere privo di loop altrimenti sarà molto lungo
 

E questo è come il catbust è stato addestrato sugli stessi dati (in 5 secondi)

52: imparare: 0.7964708 prova: 0.7848837 migliore: 0.7860866 (27) totale: 604ms rimanente: 5.09s

Set di dati di origine:

Modello addestrato (la seconda metà dello scambio è il campione di prova):


Non sempre, naturalmente, dipende dal campionamento (ed è casuale, cioè ha bisogno di un sovracampionamento). A volte così:

34: impara: 0.5985972 prova: 0.5915832 migliore: 0.5927856 (9) totale: 437ms rimanente: 5.81s



Motivazione: