Apprendimento automatico per i robot - pagina 5

 
Ivan Negreshniy:

Certo che l'ho provato, e non solo io, per esempio nel thread su MO, c'è chi l'ha fatto, ripetendo il mantra sulla spazzatura in entrata e apparentemente dimenticando che la spazzatura sull'output formale quando si allena con un insegnante non è molto meglio, mentre la selezione e il rimescolamento dei vettori di caratteristiche non salva dall'overfitting.

Sto cercando di marcare i segnali manualmente, ma il sistema dovrebbe essere equamente distribuito, o dovrei marcare solo gli ingressi con la logica?

Come se la cava la rete con la non stazionarietà? E se la cava del tutto, per esempio la dimensione di uno stesso modello può essere di 15 battute o di 150?

 
mytarmailS:

Sto cercando di marcare i segnali manualmente, ma il sistema dovrebbe essere equamente distribuito, o dovrei marcare solo gli ingressi con la logica?

Come si comporta la rete con la non stazionarietà? E la gestisce del tutto, per esempio, la dimensione di uno stesso modello può essere di 15 battute o di 150?

Alcuni modelli sono sensibili al numero di segnali e richiedono l'allineamento, altri non lo fanno, penso che possiamo iniziare con un'impalcatura casuale e una griglia autoscritta che sono abbastanza senza pretese, e per quanto riguarda la dimensione del modello, possiamo prendere il massimo come base.
 
Ivan Negreshniy:

Ora per organizzare e discutere gli esperimenti:

  • Ogni autore volenteroso crea modelli con segnali di trading della sua strategia e li pubblica in questo thread.
  • Io elaboro i modelli, creo Expert Advisors o indicatori, e li pubblico qui in forma compilata.
  • Tutti gli altri possono liberamente scaricare modelli e robot, testarli e dare la loro opinione di esperti.

Perché è così complicato. Può essere fatto in un modo molto più semplice.

Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo e molti no. Su questo campione, insegniamo il sistema con metodi di MO. Il MO lo classificherà e troverà dei modelli.

L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che semplicemente non può ricordare così tanti scambi - l'unica spiegazione è che il MO in realtà trova e generalizza alcuni modelli.

Sì, ma tutti questi miracoli si osservano solo su una sequenza di allenamento).

 
Yuriy Asaulenko:

Perché essere così complicati. Può essere fatto in un modo molto più semplice.

Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo, molti no. Su questo campione, addestriamo il sistema con i metodi di MO. Il MO lo classificherà e troverà dei modelli.

L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che semplicemente non può ricordare così tanti scambi - l'unica spiegazione per questo è che il MO in realtà trova e generalizza alcuni modelli.

Sì, ma tutti questi miracoli si osservano solo su una sequenza di allenamento).

Beh, sì, a pieno overfitting la sequenza di allenamento può essere al 100%, ma il compito non è quello di memorizzare, ma di generalizzare e ottenere risultati in avanti.

Ecco perché nell'esperimento si suggerisce di allenarsi non su operazioni casuali o su tutte le possibili operazioni redditizie, ma su operazioni (segnali) filtrati dalle letture di qualsiasi indicatore.

Così, tutti i segnali conterranno già una dipendenza formalizzata con BP, e la rete neurale dovrà solo determinarla e stabilire un modello di esclusione dei segnali cattivi che non sono inclusi nel campione.

 
Yuriy Asaulenko:

Perché essere così complicati. Può essere fatto in un modo molto più semplice.

Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo, molti no. Su questo campione, addestriamo il sistema con i metodi di MO. Il MO lo classificherà e troverà dei modelli.

L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che non è semplicemente in grado di ricordare così tanti scambi - l'unica spiegazione è che il MO trova e generalizza alcuni modelli.

Sì, ma tutti questi miracoli si osservano solo su una sequenza di apprendimento).

la tua conoscenza di MO tende ancora a zero, purtroppo

quindi la tua rete neurale interna non può ancora raggiungere un consenso su ciò che è
 
Maxim Dmitrievsky:

la tua conoscenza del Ministero della Difesa è ancora, purtroppo, a zero.

Ecco perché la tua rete neurale interna non riesce ancora a raggiungere un consenso: che senso ha farlo?

Non eccitarti troppo, Maxim). Tutti sanno già che l'unica cosa più dura di te sono le palle.

 
Ivan Negreshniy:

Beh, sì, su una formazione con overfitting completo può essere al 100%, ma il compito non è quello di memorizzare, ma di generalizzare e ottenere risultati su un mercato in avanti.

Questo è il motivo per cui nell'esperimento si suggerisce di allenarsi non su operazioni casuali o su tutte le possibili operazioni redditizie, ma su operazioni (segnali) filtrati dalle letture di qualsiasi indicatore.

Così, tutti i segnali conterranno già una dipendenza formalizzata con BP, e la rete neurale dovrà solo determinarla e stabilire un modello di esclusione dei segnali cattivi che non sono inclusi nel campione.

Con una dimensione del campione di allenamento molto più grande della dimensione NS, la riqualificazione è quasi irrealistica.

Con piccoli campioni, la riqualificazione si ottiene su un conteggio di una volta. Diciamo che vi sono stati dati 200 scambi reali.

 
Yuriy Asaulenko:

Con una dimensione del campione di allenamento molto più grande della dimensione NS, la riqualificazione è quasi irrealistica.

Con piccoli campioni, la riqualificazione si ottiene su un numero di volte. Supponiamo che vi siano dati 200 scambi reali.

Dipende dai dati, dai parametri e dal tipo di modello, per esempio negli alberi il numero di livelli è aumentato dinamicamente, come nella mia rete il numero di neuroni, anche se c'è un limite di densità condizionale di informazioni, ma è determinato solo dal campione di allenamento, si può fare pruning, commissioni, ecc.

E l'overlearning, non è necessariamente ricordare tutti i campioni, è semplicemente ricordarli senza generalizzazione, per esempio in presenza di informazioni contraddittorie che vengono sostituite e non possono essere mediate.

 
Ivan Negreshniy:

Dipende dai dati, dai parametri e dal tipo di modello, per esempio negli alberi il numero di livelli aumenta dinamicamente, così come nella mia rete il numero di neuroni, anche se c'è un limite di densità di informazione condizionata, ma è determinato solo dal campione di allenamento, si può fare pruning, commissioni, ecc.

E l'overlearning, non è necessariamente memorizzare tutti i campioni, è semplicemente memorizzarli senza generalizzazione, per esempio in presenza di informazioni contraddittorie che vengono sostituite e non possono essere mediate.

Perché non scarichiamo qualche strategia super-duper da Market, la eseguiamo nel tester (ci fidiamo del tester)), e applichiamo i risultati a NS, RF, SVM o qualcos'altro. E non dobbiamo aspettare - lo proviamo sulla demo e vediamo i risultati.

 
Yuriy Asaulenko:

Perché non fare il seguente esperimento: scaricare qualche strategia super-duper da Market, eseguirla nel tester (ci fidiamo del tester)), e sottoporre i risultati a NS, RF, SVM o altro. E non dobbiamo aspettare - lo proviamo sulla demo e vediamo i risultati.

Così non si può, compilato con protezione moderatore rifiuterà perché avete bisogno della fonte, e la fonte rifiuterà perché è necessario per proteggere i diritti del venditore - circolo vizioso funziona :))

Ma non c'è nulla di cui sorprendersi qui, perché lo stato giuridico dei robot di diverse professioni e nell'ambiente oggetto, finora, è povero...

Motivazione: