L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2386

 
Aleksey Vyazmikin:

Inoltre, questo approccio è qualcosa che ho fatto per molti anni.

Tuttavia, l'ho rimandato un po' adesso, perché è davvero lento, il che rende impossibile cambiare l'obiettivo rapidamente (cercarne uno buono), e anche le singole regole smettono di funzionare, non importa come le controlli sulla storia.

Maxim, puoi aiutarmi, fare uno script in python che ciclicamente creerà un modello (o 100 modelli) a partire dai dati del file CSV, poi analizzarlo sull'importanza dei predittori con i mezzi standard di CatBoost, poi vietare/consentire l'uso dei predittori (CatBoost può farlo) per condizioni definite e creare di nuovo un nuovo modello. Questo metodo permetterà di assegnare i predittori importanti che porteranno al miglioramento del modello. Sto usando un metodo simile, ma è molto scomodo per me, perché ogni ciclo, dopo aver setacciato/aggiunto i predittori, devo riavviare il ciclo di apprendimento manualmente.

non ancora all'altezza

e non credo in un tale approccio (conosco multipli migliori e più veloci)

 
Maxim Dmitrievsky:

Non ancora.

e non credo in questo approccio (conosco multipli migliori e più veloci)

L'approccio funziona - non è una questione di fede.

E quale approccio è più veloce e migliore, confrontiamo l'efficacia!

 
Aleksey Vyazmikin:

L'approccio lavorativo non è una questione di fede.

E quale approccio è più veloce e migliore, confrontiamo l'efficacia!?

Affinché non sia una questione di fede, c'è bisogno di qualche prova.

Rimuovendo le caratteristiche dal modello si cambia la loro Interazione, quindi è possibile riorganizzarle finché si vuole
 
Come sappiamo - qualsiasi NS, Forest, Boost può riprodurre qualsiasi funzione di tipo MA al suo interno, e altri filtri digitali. E sembrerebbe che non abbia senso alimentare le stesse MA se si alimentano solo 50-100 barre.
Nelle reti neurali profonde, forse.
Ma nei boost regolati e nelle impalcature, no.
Per esempio in katbust la profondità dell'albero raccomandata = 6. Sono 2^6=64 spaccature. Se abbiamo bisogno di MA30, allora in media ogni barra sarà divisa 2 volte (a metà e una delle metà ancora a metà). Per riprodurre approssimativamente il MA (con un errore del 10%), dobbiamo fare la divisione di ogni barra almeno 10 volte. Questa è una profondità di 9-10 necessaria.
Ma una divisione profonda non permetterà all'albero di generalizzarsi.
Così, si scopre che gli alberi superficiali possono generalizzare, ma è impossibile riprodurre qualsiasi caratteristica richiesta all'interno (come MA). Ciò significa che le MA, i CCI e tutto il resto che vogliamo controllare come caratteristiche devono essere passati insieme alle barre.

Non sono l'unico a credere che le barre da sole siano sufficienti per i sistemi di alberi. Se ci sono ancora dei sostenitori, suggerisco di dare i loro argomenti.
 
Maxim Dmitrievsky:

Quindi non è una questione di fede, servono delle prove.

Rimuovendo le caratteristiche dal modello si cambia la loro Interazione, quindi è possibile riorganizzarle per tutto il tempo che si vuole

Definiamo cosa è necessario dimostrare.

Perché, secondo me, ci può essere un processo di rimozione di un predittore, formalmente un predittore può passare la selezione come buono per la radice (spesso) divisa per la ragione che ha buoni indicatori per esso - spesso la corrispondenza con altri predittori migliora il risultato - principio avido, ma questo principio funziona con data set nel suo insieme, nessun controllo sulle caratteristiche spaziali (frequenza di occorrenza dell'evento attraverso il campione a causa del loro risultato), è una situazione di aggregazione di esiti di eventi su 1/5 del campione per esempio solo da lì era Oppure una situazione simile, ma lì la ragione è diversa - anche il modello è stabile, ma si scopre che il predittore correla bene con l'obiettivo nel momento in cui la performance finanziaria del risultato della transazione è principalmente troppo piccola nel più o troppo grande nel meno, e questo è un punto molto sottile che il modello non sa come tenere in conto quando si allena.

Quindi l'obiettivo non è solo quello di migliorare il modello di classificazione stesso su diversi intervalli di tempo, ma anche di migliorarlo in termini di risultato finanziario.

 
Aleksey Vyazmikin:

Definiamo cosa è necessario dimostrare.

Perché, secondo me, ci può essere un beneficio dalla rimozione di un predittore, formalmente un predittore può passare la selezione come buono per la radice (spesso) divisa per la ragione che ha buoni indicatori per esso - spesso la corrispondenza con altri predittori migliora il risultato - principio avido, ma questo principio funziona con il set di date nel suo insieme, non ci sono controlli sulle caratteristiche spaziali (frequenza di occorrenza degli eventi in tutto il campione in relazione al loro esito), è la situazione di accumulare esiti di eventi su 1/5 del campione per esempio solo da quello ci sono stati O una situazione simile, ma lì la ragione è diversa - anche il modello è stabile, ma si scopre che il predittore correla bene con l'obiettivo nel momento in cui la performance finanziaria del risultato della transazione è per lo più troppo piccola nel più o troppo grande nel meno, e questo è un punto molto sottile che il modello non sa come tenere in conto quando si allena.

Quindi l'obiettivo non è solo quello di migliorare il modello di classificazione stesso a diversi intervalli di tempo, ma anche di migliorarlo in termini di risultato finanziario.

Non sono pronto a codificare e poi sostenere idee incomprensibili con risultati incomprensibili

 
Maxim Dmitrievsky:

non è pronto a codificare e quindi a sostenere idee poco chiare con risultati poco chiari

Quindi ditemi che considerate solo le vostre idee corrette e degne di essere discusse.

 
Aleksey Vyazmikin:

Quindi dite che solo le vostre idee sono giuste e degne di essere discusse.

piuttosto ragionevole. Non ho capito nulla dalla descrizione.

Ho già scritto sul riordinamento insensato dei personaggi, l'ho fatto un paio di anni fa.

 
Maxim Dmitrievsky:

piuttosto ragionevole. Non capisco nulla dalla descrizione.

Ho già scritto sull'insensatezza di riordinare le caratteristiche, l'ho fatto un paio di anni fa.

Se non capite dalla descrizione, fate domande, cosa esattamente non è chiaro - cercherò di spiegare meglio.

Ho fatto la stessa cosa un paio di anni fa, e ho rinunciato per lo sforzo, non per la mancanza di senso.

Qui sotto c'è una tabella dei risultati del vecchio esperimento, il lavoro va così:

1. Il numero di predittori è tagliato in 9 pezzi.

2. Si creano combinazioni tra chunks - 512

3. Poi si fa una stima di come i campioni si comportano in media con la presenza/assenza di ogni pezzo.

4. Viene fatta un'ipotesi sul significato del chunk (positivo/negativo).

5. I pezzi significativi sono suddivisi in quelli più piccoli, e quelli meno significativi sono combinati in un unico pezzo (non necessariamente che debbano andare in ordine)

6. Si formano nuove combinazioni 512

7. Se viene trovato un piccolo pezzo che influisce negativamente sul campione, viene escluso da un'ulteriore enumerazione fino a quando il miglioramento del risultato si ferma, poi i pezzi esclusi possono essere provati aggiungendo e analizzando il risultato allo stesso modo. Le influenze positive, invece, sono aggregate in un unico gruppo.

Ecco un esempio del cambiamento degli indicatori con 32 iterazioni di questo tipo.



Il metodo può ovviamente essere migliorato, ma questo richiede la sperimentazione e i risultati del suo esito.

Sì, il miglioramento non è per tempi, ma i risultati permettono anche di pensare a quali predittori sono migliori o peggiori per il risultato e perché.

E, voglio provare a lavorare specificatamente con le statistiche di CatBoost e rimuovere/aggiungere predittori (e i loro gruppi) proprio per la ragione che potrebbe essere più veloce dell'overrun che ho usato in precedenza.

Un altro vantaggio è che troppi predittori portano a spaccature rare, e l'attivazione delle foglie può essere molto rara nel campione al di fuori dell'allenamento (l'ho mostrato nello screenshot prima), il che diminuisce deliberatamente la qualità dell'allenamento e la sua valutazione.

 
Aleksey Vyazmikin:

Se non capisci dalla descrizione, fai domande su ciò che non è chiaro - cercherò di spiegare meglio.

Ho fatto la stessa cosa un paio di anni fa, e ho rinunciato a causa del lavoro che comporta, non dell'inutilità.

Una perdita di tempo senza senso.

Motivazione: