L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 962

 
Maxim Dmitrievsky:

Ho solo i prezzi di ingresso, non soffro di chip :) la cosa principale è la selezione degli obiettivi

MaximDmitrievsky:

Non so cosa fare dopo, nessuno ha idee, sono troppo pigro per pensare

idee?

si alimentano i prezzi, la deviazione dei prezzi, il logaritmo dei prezzi.... e quale dovrebbe essere l'output? - imho, il meccanismo di quotazione massima, è quello che si può trovare sul piccolo TF

cercare di indovinare quale sarà il primo aggiornato (rotto) sulla nuova barra High[1] o Low[1] - se si impara a prevedere, allora è un profitto, perché si conosce già la direzione del movimento del prezzo

;)

 
Igor Makanu:

idee?

alimentazione dei prezzi, deviazioni di prezzo, logaritmo dei prezzi .... e quale dovrebbe essere l'output? - imho, meccanismo di quotazione massima, che è quello che si può trovare su piccoli TF usando il prezzo

cercare di indovinare quale sarà il primo aggiornato (rotto) sulla nuova barra High[1] o Low[1] - se si impara a prevedere, allora è un profitto, perché si conosce già la direzione del movimento del prezzo

;)

I meccanismi di citazione sono un chit separato :)

Vorrei usarlo su timeframe da 5 a 15 minuti. Ho già mostrato negli screenshot che cattura alcune regolarità che non sono legate al quoting. Ma funziona non molto a lungo sull'oscillatore, al massimo 2X di traccia.

È interessante guardare la ripartizione, dovrei provarla.

 

Storia/Futuro = 30000/1000. Input - serie temporale delle differenze di Close e Open: iClose(NULL, 0, i+j+1+Shift) - iOpen(NULL, 0, i+j+1+Shift), dove j è da 0 a 99 (totale 100). L'obiettivo è il colore della barra (0,1).

Sui grafici solo il periodo OOS (futuro).

Non c'è diffusione. Il livello per inserire l'ordine è 0.


Spread - 2 punti. Livello per inserire un ordine - 0.

Spread - 2 punti. Livello per inserire l'ordine - 0,1

Spread - 2 punti. Livello per entrare nell'ordine - 0,15.

Distribuzione dei predicati tra le classi. Precisione - 0,525.


 
Ilya Antipin:


Ripartizione dei predicati tra le classi. La precisione è di 0,525.

Qualche campione è minuscolo - ho 100-200 mila campioni, e se prendo una fetta di 1000, c'è una buona probabilità che ci sia un'accoppiata migliore.

 

È molto facile fare una cosa brillante. È difficile raggiungere lo stato in cui sono fatte le cose geniali. Amedeo Modigliani :)

quindi devi provare diversi tipi di erbe

 
Maxim Dmitrievsky:

Beh, c'è un modello, i treni si reggono bene in diverse modifiche, alcuni funzionano al 100% e più da treni su oos, come qui... (4 mesi di formazione 10 mesi di OOS) poi merda

Non vedo l'utilità di testare le demo dato che tutto è già chiaro.

Sì, è un peccato che il tuo demo non ci sia più. E tutto perché sei sul CB troppo cercando, anche se ha portato l'articolo, che dice che il CB per scegliere il modello non può, e sul forum un sacco di volte ha scritto la stessa cosa.

 
Ildottor Trader:

Sì, è un peccato che il tuo demo non ci sia più. E tutto perché sei sul OOS troppo guardare, anche se lo stesso articolo dove è scritto che sul modello OOS non può scegliere, e sul forum qui molte volte ha scritto la stessa cosa.

Ecco cosa risulta...

Copierò il mio ragionamento/suggerimento su questo argomento da un altro thread:

Mi sembra un po' troppo feedback per stimare il modello, ecco perché mi sono chiesto perché stai facendo la selezione solo per questa parte.
Sì, funziona in un caso particolare (hai ottenuto buoni risultati in tutti i segmenti), ma mi sembra che non sia universale.

Dopo tutto, potreste imbattervi in dati che non sono così buoni. E il modello, per esempio, potrebbe essere addestrato al 40% di errore sul grafico di allenamento e poi, solo per caso, mostrare il 30% di errore sul grafico di test. Ma diciamo che il secondo modello ha imparato fino al 35% in entrambe le sezioni. Il secondo modello è ovviamente migliore. Ma selezionando solo la trama di prova, verrà selezionata la prima. Per il confronto, ci sono opzioni per valutare il modello:
valutazione solo sulla trama di allenamento,
o sulla somma di tutte le trame,
o come in Darch, (ai dati di validazione presentati) da Err = (ErrLeran * 0.37 + ErrValid * 0.63) - questi coefficienti sono di default ma possono essere cambiati.

L'ultima opzione è la più interessante, poiché tiene conto di entrambi gli errori, ma con una grande ponderazione della trama di convalida.
In realtà si può estendere la formula, per esempio, a Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Forse dovremmo anche fare una selezione per delta errori, per esempio, se ErrLeran e ErrTest differiscono di più del 5%, allora rifiuteremo questo modello (San Sanich ne parlava). E dal resto per fare una scelta.
 
elibrario:
Ecco cosa risulta...

Copierò il mio ragionamento/suggerimento su questo argomento da un altro thread:

Mi sembra che non ci sia abbastanza OOS per valutare il modello, ecco perché mi sono chiesto perché state selezionando solo da questa sezione.
Sì, funziona in un caso particolare (hai ottenuto buoni risultati in tutti i segmenti), ma mi sembra che non sia universale.

Dopo tutto, potreste imbattervi in dati che non sono così buoni. E il modello, per esempio, potrebbe essere addestrato al 40% di errore sul grafico di allenamento e poi, solo per caso, mostrare il 30% di errore sul grafico di test. Ma diciamo che il secondo modello ha imparato fino al 35% in entrambe le sezioni. Il secondo modello è ovviamente migliore. Ma selezionando solo la trama di prova si seleziona la prima. Per il confronto, ci sono opzioni per valutare il modello:
valutazione solo sulla trama di allenamento,
o sulla somma di tutte le trame,
o come in Darch, (ai dati di validazione presentati) da Err = (ErrLeran * 0.37 + ErrValid * 0.63) - questi coefficienti sono di default ma possono essere cambiati.

L'ultima opzione è la più interessante, poiché tiene conto di entrambi gli errori, ma con una grande ponderazione della trama di convalida.
In linea di principio, si può estendere la formula, per esempio, a Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Forse dovremmo anche fare una selezione per delta errori, per esempio, se ErrLeran e ErrTest differiscono di più del 5% - dovremmo rifiutare un tale modello (San Sanich ne stava parlando). E per fare una selezione tra gli altri.
IMHO, a parte le formule di somma degli errori, abbiamo bisogno di più proporzioni del loro rapporto, sembra che qualcuno abbia scritto qui che gli errori per sezioni dovrebbero essere correlati come Train <= Valid <= Test.
 
Ivan Negreshniy:
IMHO, oltre alle formule di somma degli errori, abbiamo bisogno di più proporzioni del loro rapporto, sembra che qualcuno abbia scritto qui che gli errori per sezioni dovrebbero essere correlati come Train <= Valid <= Test.
Il treno è minimizzato dall'errore di formazione, altre aree possono oscillare casualmente su e giù. La cosa principale è che non deve oscillare troppo.
 
elibrario:
Il treno è minimizzato dall'errore di formazione, le altre sezioni possono penzolare in modo casuale, verso l'alto o verso il basso. La cosa principale è non ciondolare troppo.

E lei, per se stesso, cosa giustifica l'ammissibilità delle deviazioni verso il basso se non il puro caso?

E poi qual è il vostro compito principale, se non quello di combattere questa casualità, perché nega il significato sia della convalida che di OOS e MO in generale)).

Motivazione: