L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 448

 
mytarmailS:
qual è la funzione obiettivo nel vostro classificatore?
Non c'è una funzione obiettivo, funziona secondo il principio che più lontano dalla media per tutti i predittori nella popolazione, più velocemente dovrebbero convergere verso questa media, cioè funziona secondo il principio del classificatore bayesiano, trova pesi tali che nella popolazione i predittori darebbero la più grande deviazione dalla media in ogni caso, e alla fine dovrebbero convergere indietro. Dato che prendiamo i predittori come stazionari, è chiaro che la media è 0. Se l'uscita è >0, vendiamo se <, compriamo.
 
Maxim Dmitrievsky:

Sono giunto alla conclusione che MLP è un brutto mostro, brutto ritardato e poco promettente per il trading, soprattutto perché copia il meccanismo di funzionamento dei neuroni reali in modo molto primitivo e non nel modo in cui avviene realmente nel cervello :) L'unico NS normale e prospettico è la convoluzione ns per il riconoscimento dei modelli, mentre non sono in grado di prevedere, e se così un ensemble di classificatori semplici e veloci è sufficiente.

Il classificatore bayesiano è migliore, ma peggiore di RF.

È interessante notare che sono arrivato alla conclusione esattamente opposta sui "behemoths brutti").

RF richiede la selezione dei predittori, che è un compito non banale dato il requisito di essere almeno linearmente indipendenti. MLP I modifica semplicemente le serie temporali, e il requisito di indipendenza lineare è risolto da un comitato di diversi NS i cui ingressi sono serie temporali scaricate (analogamente a diversi TF). I ritardi di NS, per il commercio reale, suppongo, sono insignificanti.

Cosa succederà al vero TS non lo so ancora, ma NS sembra essere abbastanza allenabile. Vedere un pezzo di output grafico di NS addestrato. Non posso ancora dire con certezza quanto bene sia addestrato). Ma è allenabile)).


 
Yuriy Asaulenko:

È interessante che sono arrivato alla conclusione esattamente opposta riguardo ai "behemoths brutti").

RF richiede la selezione dei predittori, che è un compito non banale dato il requisito della loro indipendenza almeno lineare. MLP I modifica semplicemente le serie temporali, e il requisito di indipendenza lineare è risolto da un comitato di diversi NS i cui ingressi sono serie temporali scaricate (analogamente a diversi TF). I ritardi di NS, per il commercio reale, suppongo, sono insignificanti.

Cosa succederà al vero TS non lo so ancora, ma NS sembra essere abbastanza allenabile. Vedere un pezzo di output grafico di NS addestrato.


Basta gettare i predittori sotto forma di oscillatori sul grafico e vedrete se sono dipendenti linearmente o non lineari). Non sono necessari numeri. Il NS può riqualificarsi, non può inventarsi delle correlazioni super non lineari se non ci sono fin dall'inizio o sono inconsistenti

Oppure è necessario utilizzare una macchina nucleare prima di NS, come in Jpredictor che aumenta la dimensione degli input con polinomi e poi lascia quelli più informativi attraverso SVM e qualche altra merda, ma d'altra parte a causa di questi polinomi può sovrallenarsi come un diavolo

 
Maxim Dmitrievsky:

Perché, basta lanciare i predittori come oscillatori su un grafico e si può vedere se sono dipendenti linearmente o non linearmente). Non servono numeri. NS può anche riqualificarsi, non può inventare dal nulla delle correlazioni super non lineari, se non ci sono fin dall'inizio o sono incoerenti.

Non tutto è così semplice come sembra. Mi sembra che SanSanych stia armeggiando con i predittori già da un anno, rimbalzando da una foresta all'altra (da un pacchetto all'altro).

Maxim Dmitrievsky:

O forse è necessario usare un kernel prima di NS, come in Jpredictor che aumenta la dimensionalità degli input usando polinomi e poi lascia quelli più informativi attraverso SVM e qualche altra stronzata.

L'indipendenza lineare e la non linearità non hanno niente a che vedere l'una con l'altra. Sono concetti diversi.Indipendenza lineare
Линейная независимость — Википедия
Линейная независимость — Википедия
  • ru.wikipedia.org
имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
 
Maxim Dmitrievsky:

Perché, basta gettare i predittori sotto forma di oscillatori sul grafico e lì si può vedere se sono dipendenti linearmente o non lineari)

PS A proposito, gli MLP, a differenza dei P. a singolo strato, sono intrinsecamente non lineari, e abbastanza capaci di generalizzare i segni non lineari.
 
Yuriy Asaulenko:
PS A proposito, gli MLP, a differenza dei P. a singolo strato, sono intrinsecamente non lineari, e abbastanza capaci di generalizzare le caratteristiche non lineari.

Loro possono, anche la radio può, ma non sono meno sovraimparati
 
Maxim Dmitrievsky:
Non c'è un obiettivo, funziona sul principio che più lontano dalla media per tutti i predittori nell'aggregato, più velocemente dovrebbero convergere verso questa media, cioè funziona sul principio del classificatore bayesiano, trova tali pesi che nell'aggregato i predittori darebbero la più grande deviazione dalla media in ogni caso, e come risultato dovrebbero convergere indietro. Poiché prendiamo i predittori nella forma stazionaria è chiaro che la media è 0. Se l'uscita è >0, vendiamo se <, compriamo.
Non ho capito bene se l'addestramento è con o senza addestratore; se è così, qual è il segnale di acquisto per il classificatore?
 
mytarmailS:
Non è molto chiaro, allenamento con un insegnante o senza? se con un insegnante qual è il segnale di acquisto per il classificatore?
Senza un insegnante nell'ottimizzatore i pesi sono raccolti, già discusso articolo ed esempio, guarda nell'argomento RNN Reshetov
 
Maxim Dmitrievsky:
Generalmente NS non ha nessun vantaggio rispetto a RF, ci vuole molto tempo per leggere, l'errore è maggiore... se volete un allenamento veloce allora sicuramente RF+optimizer

Sulla velocità del NS.

Ho fatto un esperimento di velocità appositamente per questo scopo. Per questo ho preso un MLP con struttura a strati [15,15,15,8,2]. La dimensione del campione di allenamento è: input - 15 x 10378, output - 2 x 10378.

L'addestramento MLP su questi dati di 10 epoche è di circa 10 minuti.

Lavorando direttamente con i dati - l'input 15 x 10378 è calcolato in meno di 3 secondi. Cioè ~0,0003 c/campione.

Più che sufficiente per la costruzione di TC).

 
Yuriy Asaulenko:

Sulla velocità del NS.

Specialmente per questo ho fatto un esperimento sulla velocità. Per questo ho preso un MLP con struttura a strati [15,15.15,8,2]. La dimensione del campione di allenamento è: input - 15 x 10378, output - 2 x 10378.

L'addestramento MLP su questi dati di 10 epoche è di circa 10 minuti.

Lavorando direttamente con i dati - l'input 15 x 10378 è calcolato in meno di 3 secondi. Cioè ~0,0003 c/campione.

Un tempo più che sufficiente per costruire un TS).

Qualcosa di troppo veloce, tale dovrebbe essere addestrato mb un'ora o diverse ore, con quale algoritmo L-BFGS? Ho anche fatto 15 ingressi ma solo uno strato nascosto di 15-20 neuroni, ho addestrato un TS allibiano... quindi non ho aspettato e ho ridotto la dimensione dei vettori di ingresso) Ho addestrato 3 ingressi con 10k vettori in 5-10 minuti con uno strato nascosto. E non è un backpropagation lento ma veloce con 1-3 epoche. CPU i5

Immagina che anche con 10 minuti non hai una strategia pronta e devi cercare tra N numeri di predittori, lunghezze di vettori, numero di strati nascosti, ecc... nel tuo ottimizzatore per trovare una strategia...