L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3023

 
Maxim Dmitrievsky #:

È facilmente automatizzabile e funziona senza l'intervento umano.

un algoritmo simile è stato mostrato nell'ultimo articolo.

In sostanza, si tratta di filtrare gli errori del modello e di inserirli in una classe separata "non fare trading", meglio se attraverso un secondo modello che impara a separare il grano dalla pula.

e solo i chicchi rimangono nel primo modello

È lo stesso che con le regole ad albero, ma da un lato. Ma le regole devono essere saccheggiate e confrontate tra loro, e all'uscita c'è già una TS raffinata.

Ho giustificato sopra che non si possono scartare gli errori dei modelli.

Vorrei cambiare la mia opinione.

Ma per questo scopo è necessario.

Valutazione del modello iniziale sulla selezione di formazione e al di fuori di essa.

Valutazione di un modello "pulito" al di fuori della selezione di formazione che NON corrisponde ai due modelli precedenti.

È possibile?

 
СанСаныч Фоменко #:

Giustificato sopra che non si possono ignorare gli errori dei modelli.

Vorrei cambiare la mia opinione.

Ma per farlo.

Valutazione del modello iniziale con e senza la selezione di formazione

Stima di un modello "pulito" al di fuori della selezione di addestramento, che NON corrisponde ai due modelli precedenti.

Possiamo?

Ho aggiunto un paio di schermate qui sopra

Gli algoritmi per separare il grano dalla pula in questo modo possono essere diversi, vi mostro come lo faccio io.

A sinistra della linea tratteggiata c'è l'OOS, che non partecipa in alcun modo all'addestramento.

apprendimento su segni semplici come gli incrementi

la curva gialla è il grafico delle quotazioni in sé, non guardatelo. Ma è possibile utilizzarla per capire in quali situazioni il modello funziona meglio/peggio.
 

Se si eliminano molti errori in una volta sola, l'insegnante degenera (potrebbero esserci molti errori e zero grani), quindi si eliminano gradualmente ad ogni iterazione

e l'errore su OOS diminuisce gradualmente, in questo caso r^2 aumenta

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
In sostanza, si tratta di un analogo di bestinterval di fxsaber, solo che qui il TS viene preparato in una sola volta
 
Aleksey Vyazmikin #:

Penso che sia tutto elencato. Si tratta di un libro di Jeremy Howard, fondatore di Kaggle e framevoc fast.ai.

Fast.ai.

Libro in originale

Libro in russo

Versione gratuita

 
Maxim Dmitrievsky #:

Se si eliminano molti errori in una volta sola, l'insegnante degenera (potrebbero esserci molti errori e zero grani), quindi si eliminano gradualmente ad ogni iterazione

e l'errore OOS diminuisce gradualmente, in questo caso r^2 aumenta.

In sostanza è un analogo di bestinterval di fxsaber, solo che in questo caso la TS viene preparata in una volta sola.

Per me c'è un adattamento eccessivo alla citazione.

Dove si trova "Fuori campione"?

 
Forse, se si fa un po' di confusione con gli alberi e poi si tirano fuori le regole, il risultato sarà migliore.
 
СанСаныч Фоменко #:

Per me la citazione è super adatta.

Dov'è "Fuori campione"?

Non fa più ridere.

 
Aleksey Vyazmikin #:

Propongo di fare questo cappello con un albero in python con una scelta di foglie, in kolab, potete mettere i vostri dataset lì.

Se avete qualche idea su cosa sia meglio/peggio, su regole per prendere solo il meglio o attraverso alcuni filtri, suggeritelo.

Voglio fare un confronto, facendo passare un set di dati attraverso entrambi gli approcci. Così capiremo come stanno le cose :)

 
Maxim Dmitrievsky #:

È facilmente automatizzabile e funziona senza l'intervento umano.

un algoritmo simile è stato mostrato nell'ultimo articolo.

In sostanza, si tratta di filtrare gli errori del modello e di inserirli in una classe separata "non fare trading", meglio se attraverso un secondo modello che impara a separare il grano dalla pula.

e solo i chicchi rimangono nel primo modello

È lo stesso che con le regole ad albero, ma da un lato. Ma le regole devono essere saccheggiate e confrontate tra loro, e all'uscita c'è già una TS raffinata.

Ad esempio, la prima iterazione della selezione dei grani dalla pula (a sinistra della linea tratteggiata verticale - OOS):

Ed ecco la decima:


Sì, il punto è lo stesso: lavorare in definitiva con dati che descrivono meglio i predittori.

Come farlo nel modo più efficiente è ancora una questione aperta: ogni metodo ha pro e contro.

 
Rorschach #:

Penso che sia tutto elencato. Si tratta di un libro di Jeremy Howard, fondatore di Kaggle e di framevoc fast.ai.

Fast.ai.

Il libro in versione originale

Libro in russo

Versione gratuita

Grazie! Dovrò cercarne uno gratuito in russo - il traduttore a volte fa delle perle e mi parla di salamoia, il che può essere utile :)

Motivazione: