L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 408

 

Buon pomeriggio a tutti.


Lasciami chiarire, quali pacchetti ML usano i partecipanti, o è tutto fatto tramite MQL?

 

Sorprendentemente il file è leggibile, la qualità del modello è scarsa, chi vuole controllare su validazione....

File:
 
Mihail Marchukajtes:

Sorprendentemente il file è leggibile, la qualità del modello è debole, chi vuole controllare su validazione....

In un file è scritto
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985

cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli ingressi di rumore stanno davvero incasinando il risultato RNN.

 
elibrario:

Il file dice
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985

cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli input di rumore rovinano molto il risultato RNN.


Lo fa, la generalizzabilità del modello è del 52%, quindi...
 
Aleksey Terentev:

Buon pomeriggio a tutti.


Lasciami chiarire, quali pacchetti ML usano i partecipanti, o è tutto fatto tramite MQL?

Di regola, tutto è fatto in R, con l'eccezione di alcuni appassionati che stanno cercando di riscrivere alcuni modelli in MQL. Per quanto riguarda i pacchetti - dipende da quale modello si usa - alberi, reti neurali, reti neurali profonde, ecc.

A quale modello è interessato?

Buona fortuna

 
Vladimir Perervenko:

Di regola, tutto è fatto in R, tranne alcuni appassionati che cercano di riscrivere alcuni modelli in MCL. Per quanto riguarda i pacchetti, dipende da quale modello si usa - alberi, reti neurali, reti neurali profonde, ecc.

A quale modello è interessato?

Buona fortuna


Hai dimenticato l'ottimizzatore di Reshetov, è usato anche qui ....
 
elibrario:

Il file dice
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985

cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli input di rumore rovinano molto il risultato RNN.


Un normale MLP 20-5-1 può farlo per lo stesso problema:

Errore medio sulla formazione (60,0%) trama =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Tempo di calcolo=0,77 min.

Anche se a volte dà anche il 50%, credo di aver bisogno di più di 2 cicli di riqualificazione.
---------------------------------

Rete nnet 20-1-1 di R :
Previsto
Reale 0 1 Errore
0 0.41 0.09 0.18
1 0.24 0.26 0.48

Leggermente peggio, ma lo risolve solo in un paio di secondi.

Ma la RNN ha un errore = 0, sulla sezione di allenamento. E anche questo è bello. Probabilmente scriverò sul blog il mio esperimento

 
elibrario:

Un normale MLP 20-5-1 può produrre questo allo stesso problema:

Errore medio nella formazione (60,0%) trama =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Tempo di calcolo=0,77 min
---------------------------------

Rete nnet 20-1-1 da R :
Previsto
Reale 0 1 Errore
0 0.41 0.09 0.18
1 0.24 0.26 0.48

Leggermente peggio, ma lo risolve solo in un paio di secondi.

Qui dobbiamo capire un po' diversamente, che risolvere un problema non è una cosa difficile, ma è la questione di come il modello si comporterà in futuro. Possiamo imparare rapidamente e senza errori. Ma con i nuovi dati non avremo nulla. Predikshin ha una caratteristica molto buona: su nuovi dati funziona con lo stesso tasso di errore dell'allenamento. Perché non si riqualifica e bla bla bla. E le altre reti possono imparare questo esempio molto rapidamente, ma mostrano risultati molto peggiori su nuovi dati... IMHO
 
Mihail Marchukajtes:

Dobbiamo renderci conto che risolvere il problema non è un compito difficile, ma il modo in cui il modello si comporterà dopo è la questione. Possiamo imparare rapidamente e senza errori. E con i nuovi dati non avremo nulla. Predikshin ha una caratteristica molto buona: su nuovi dati funziona con lo stesso tasso di errore dell'allenamento. Perché non si riqualifica e bla bla bla. E le altre reti possono imparare questo esempio molto rapidamente, ma mostrano risultati molto peggiori su nuovi dati... IMHO

Ecco i nuovi dati:

Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio al test (20,0%) sito =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2

 
elibrario:

Ecco i nuovi dati:

Errore medio sulla convalida (20,0%) plot =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) trama =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2


Non sto discutendo, potrebbe essere... :-)