L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 487

 
Ivan Negreshniy:

Si suppone che le foreste casuali abbiano un piccolo errore, perché tutte le variabili sono usate negli alberi decisionali e non c'è una restrizione nell'uso della memoria come nelle reti neurali - il numero di neuroni. Lì si possono usare solo operazioni separate per "offuscare" il risultato, come la restrizione dei livelli, il taglio degli alberi o il backgammon. Non so se l'implementazione di MQ di alglib ha il pruning, il bagging sì

Se questa variabile è più piccola di 1, l'errore dovrebbe salire.


lo è, ma l'errore era ancora in media, come descritto sopra... ora è normale

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

A proposito, anche diminuendo r di o.1 l'errore aumenta molto. Sopra r 0,9 sotto 0,8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

A r = 0,66 (come nella versione classica di RF)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

E i risultati mostrano che la tabella di moltiplicazione risolve già male

 
Ivan Negreshniy:

Si suppone che le foreste casuali abbiano un piccolo errore, perché tutte le variabili sono usate negli alberi decisionali e non c'è una restrizione nell'uso della memoria come nelle reti neurali - il numero di neuroni. Lì si possono usare solo operazioni separate per "offuscare" il risultato, come la restrizione dei livelli, il taglio degli alberi o il backgammon. Non so se l'implementazione di MQ di alglib ha il pruning, backgammon sì

Se questa variabile è più piccola di 1, l'errore dovrebbe salire.

perché l'errore sia piccolo come quello di @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
devi fare 1 operazione sbagliata per 500000000000000000000000000. è impossibile in qualsiasi strumento.

il mio rispetto.
 
Andrey Kisselyov:
perché l'errore sia piccolo come quello di @Maxim Dmitrievsky
Ho bisogno di 1 affare sbagliato per 50000000000000000000000. è impossibile farlo su qualsiasi strumento.

Sinceramente.

Ti sto dicendo che ogni albero decisionale si ricorda praticamente tutti i modelli e può non esserci alcun errore in un set di allenamento con un campionamento del 100%, cioè R=1.

Sì, è un overfitting, ma è così che funziona l'algoritmo, ecco perché usano tutti i tipi di trucchi nelle foreste casuali.

 
Ivan Negreshniy:

Che dire degli accordi, vi sto dicendo che ogni albero di decisione praticamente ricorda tutti i modelli e potrebbe non esserci alcun errore nel campionamento al 100% cioè R=1.


per questo è necessario guardare fuori dalla borsa, per stimare il modello, ma poi si dovrebbe impostare r=0,66 max.

 
Ivan Negreshniy:

Che dire degli accordi, vi dico che ogni albero di decisione ricorda praticamente tutti i modelli e non ci può essere alcun errore al 100% di campionamento, cioè R=1.

Ma dalle tue parole capisco che ogni albero ricorderà qualche schema, che potrebbe non ripetersi in seguito. Ma poiché non c'è ripetizione, non possiamo dire come funzionerà e prendere la sua probabilità 1 come assioma, invece di prenderla 0,5 perché non è nota.

con rispetto.
 
Maxim Dmitrievsky:

per questo è necessario guardare fuori dal sacco, per valutare il modello, ma poi r=0,66 max mettere sì

Probabilmente bisogna riprenderlo, ma il one bagging non è una tecnica molto forte per la previsione - IMHO
 
Ivan Negreshniy:
Probabilmente c'è bisogno di raccogliere, ma il tagging da solo non è una tecnologia molto forte per la predizione - IMHO

Beh, questo è tutto per ora... :) poi se aggancio un lib decente con diplinking, lo guarderò

ma la velocità!

 
Maxim Dmitrievsky:

lo è, ma l'errore era ancora in media, come descritto sopra... ora è normale

A proposito, anche quando r è ridotto di o.1 l'errore aumenta notevolmente. Sopra r 0,9 sotto 0,8

A r = 0,66 (come nella versione classica di RF)

E posso vedere dai risultati che la tabella di moltiplicazione risolve già molto male.

Quando ho aumentato la soglia per il segnale NS l'ho compensato con l'aumento della quantità di dati di input necessari, di conseguenza l'errore è diminuito, ma anche le varianti di input sono diventate meno.






Sinceramente.
 
Andrey Kisselyov:
Non ho approfondito come funziona la foresta. ma dalle tue parole capisco che ogni albero memorizza un modello, che successivamente potrebbe non ripetersi. in questo caso (dato che non c'è ripetizione), non possiamo dire quanto sia probabile che abbia funzionato nel più e prendere come assioma la sua probabilità di 1, invece di portarla a 0,5 perché è essenzialmente sconosciuta. quindi otteniamo che la foresta non sbaglia quasi mai (dalle tue parole).

con rispetto.
R=1 significa che ogni albero può memorizzare l'intero set di formazione dei modelli e 0,66 significa solo il 66%, e ogni albero seleziona i modelli con ritorno, cioè gli stessi modelli possono essere ripetuti da molti alberi nella foresta.
 
Andrey Kisselyov:
Quando ho aumentato la soglia del segnale NS ha compensato aumentando il numero di ingressi richiesti, di conseguenza l'errore è diminuito, ma c'erano anche meno opzioni per gli ingressi.




Sinceramente.

Beh, è una questione di azzeccare i chip e l'obiettivo, anche se sembrerebbe che cosa potrebbe essere più semplice di una tabella di moltiplicazione, ma anche lì non c'è un piccolo errore

Motivazione: