L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1376

 
Aleksey Vyazmikin:

Perché studiare per meno del 10% dell'intero campione, un maggiore campionamento non dovrebbe portare a un miglioramento?

E perché più di 5k? Se non puoi allenarti su di loro, non puoi allenarti su altro.

 
Aleksey Vyazmikin:

Perché allenare meno del 10% dell'intero campione, l'aumento del campione non dovrebbe portare a un miglioramento?

E un sistema sovrallenato, dove pensa che possa portare?

 
Farkhat Guzairov:

E per quanto riguarda un sistema riqualificato, dove pensate che questo possa portare?

Più grande è il campione, più difficile è adattare il modello, in termini di più foglie/alberi richiesti.

 
Yuriy Asaulenko:

Per x - numero di trade, per y - la quantità di profitto in pip .


È un 4 cifre o un 5 cifre?

 
sibirqk:


È un segno 4 o un segno 5?

Non è affatto un segno).
 
Yuriy Asaulenko:
Non è affatto un segno)).
Allora cosa significa - profitto in pps?
 
sibirqk:
Cosa significa, allora, mettere un profitto in pip?
Questo è uno strumento di scambio. Mostra la possibilità di profitto sul sistema più semplice. Il resto non è ancora importante.
 
Vladimir Perervenko:

Non è proprio così. Avete per esempio train[2000, ] e test[500, ]. Ci si allena su train con pesi di esempio iniziali = 1,0, si fanno test[] per predire il modello allenato. In base alla qualità di ogni prefisso di test gli si dà un peso. Poi combinare treno e test e formare un nuovo campione di allenamento, addestrare il modello, testarlo e così via fino a quando tutti i campioni di allenamento hanno pesi ottenuti in questo modo. Si può applicare un fattore di riduzione per le barre più vecchie, ma non l'ho controllato. Tutto questo è per la classificazione, naturalmente.

Controllato con ELM, dà buoni risultati.

Buona fortuna

Non vedo come questo possa migliorare le prestazioni del modello sui nuovi dati.

Per esempio, se la classe non è definita correttamente, mettiamo un peso decrescente, come opzione estrema 0. Così in un ulteriore addestramento sarà uguale a eliminare queste righe dal campione e su una traina tutto andrà bene con una precisione del 100%, sui test, che nello stesso modo segnano il cerchio - anche tutto andrà bene. Ma con dati completamente nuovi non saremo in grado di scartare le linee e sarà ciò che il modello è veramente in grado di fare.

O viceversa, hai aumentato il peso per gli esempi sbagliati?

 
elibrario:

Non vedo come questo possa migliorare le prestazioni del modello sui nuovi dati.

Per esempio, se la classe non è definita correttamente, mettiamo un peso decrescente, come variante estrema 0. Così nell'addestramento successivo sarà equivalente ad abbandonare queste righe dal campione e tutto andrà bene con il 100% di precisione sul vassoio, sui test, che abbiamo anche circolarmente segnato - tutto andrà bene anche. Ma su dati completamente nuovi non saremo in grado di scartare le linee e ci sarà già quello che il modello è veramente capace di fare.

O avete invece aumentato la ponderazione per gli esempi sbagliati?

Naturalmente il declassamento è per gli esempi "cattivi". Se si rilancia - è il classico aumento.

Fai un esperimento e controlla.

Ora non lo faccio più. Rimuovo o evidenzio gli esempi rumorosi durante il preprocessing prima dell'allenamento.

Buona fortuna

 
Yuriy Asaulenko:

Perché avete bisogno di più di 5.000? Se non puoi imparare con esso, non puoi imparare con altro.

Questo va nel caveau delle dichiarazioni stupide.

Aleksey Vyazmikin:

Più grande è il campione, più difficile è adattare il modello, in termini di più foglie/alberi richiesti.

Esattamente giusto, più sono meglio è (meno di 100k è rumore), ma dobbiamo considerare che il mercato cambia, e come tenerne conto nella formazione è un grande segreto.

Motivazione: