L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 598

[Eliminato]  
Aleksey Terentev:
1) Come vanno le cose nella formazione? Non vedo come vengono applicati i pesi.
2) Sono disponibili i pesi del neurone stesso?
3) Come mezzo, potete prendere la derivata della MA di chiusura o veloce del 1-4° ordine. O incrementi.
4) Metterei la dimensione dello strato nascosto uguale all'input.

i pesi vanno fino agli adders, tutto è classico, poi il peso è alimentato alla funzione di attivazione. era solo scomodo firmare tutto sul touchpad

come "ambiente" - qui assumiamo un'azione già eseguita dal NS esternamente, per esempio, una transazione... cioè la memoria del sistema per n azioni a ritroso; lo stesso vale per il feedback - quale azione ha portato a quale risultato

quindi farò un livello interno uguale a quello di ingresso... e forse ne aggiungerò un altro più tardi

[Eliminato]  
Yuriy Asaulenko:

Sprecherete solo il vostro tempo. Non funzionerà su dati reali.

Per esempio: una risposta sbagliata da NS, e influenzerà tutte quelle successive.


Beh, non proprio, solo ns terrà conto della serialità e dell'efficacia delle transazioni come un fattore aggiuntivo... questa è solo un'opzione, non sto dicendo che è definitiva

Per questo chiedo altre idee.

+ è un elemento adattivo incorporabile... come un transistor

e il NS principale ha altri fi

 
Maxim Dmitrievsky:

i pesi vanno fino agli adders, tutto è classico, poi il peso è alimentato alla funzione di attivazione. era solo scomodo firmare tutto sul touchpad

come "ambiente" - qui assumiamo un'azione già eseguita dal NS esternamente, per esempio, una transazione... cioè la memoria del sistema per n azioni a ritroso; lo stesso vale per il feedback - quale azione ha portato a quale risultato

quindi metterò uno strato interno uguale a quello di ingresso... e potrei aggiungerne un altro più tardi

Poi come opzione la somma dei profitti in pip. Un commercio di successo -> aumento, e viceversa.
Ma qui la sottigliezza è che in questo caso dovremmo pensare ad aggiungere la funzione Q, perché dovrebbe essere considerata come una ricompensa. O derivare una formula di apprendimento con la ricompensa in mente.
[Eliminato]  
Aleksey Terentev:
Allora come la somma del profitto in pip. Un commercio di successo -> aumento, e viceversa.
Ma qui il problema è che in questo caso dovremmo pensare ad aggiungere la funzione Q, perché deve essere considerata come una ricompensa. O derivare una formula di apprendimento con la ricompensa in mente.

Sì, ok :) buona opzione.

Finora la formula è semplice - neuroni separati, a cui vengono alimentati i risultati del commercio passato, nemmeno neuroni, ma semplicemente i valori vengono aggiunti al combinatore. Non ho ancora letto nulla sui coolerings

 
Maxim Dmitrievsky:

Sì, ok :) buona opzione.

Finora la formula è semplice - neuroni separati, a cui vengono alimentati i risultati passati del commercio, nemmeno neuroni, ma semplicemente i valori vengono aggiunti all'addizionatore. Non ho ancora letto nulla sui coolerings

Si creano due NS identici, se ne allena uno con le immagini tradizionali e l'altro con il trasferimento diretto dei pesi, dosati secondo i risultati della predizione del primo, cioè il secondo dovrebbe imparare solo dall'esperienza positiva.
[Eliminato]  
Ivan Negreshniy:
Si creano due NS identici, si insegna ad uno per immagini tradizionali e all'altro per trasferimento diretto di scale, dosato secondo il risultato della previsione del primo, cioè il secondo dovrebbe imparare solo dall'esperienza positiva.

C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)

Vorrei che capisse quando comincia a lavorare troppo male e che si riorganizzasse

 
Maxim Dmitrievsky:

C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)

Voglio che capisca quando inizia a lavorare in modo troppo accorto e a sintonizzarsi

Ovviamente avete la struttura sbagliata per questi scopi.
[Eliminato]  
Yuriy Asaulenko:
Ovviamente avete la struttura sbagliata per questi scopi.

come si fa?

 
Maxim Dmitrievsky:

come si fa?

Non ne ho idea). Ma sicuramente non così.
 
Maxim Dmitrievsky:

C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)

Vorrei che capisse quando inizia a lavorare in modo brusco e si ricostruisce

In primo luogo - non esattamente un adattamento, come è dimostrato che i comitati funzionano meglio, può essere spiegato, per esempio, su deviazioni di segno opposto di modelli separati, portando ad una maggiore precisione. In secondo luogo, il tandem NS proposto è un unico modello autoadattivo che ha dimostrato di essere vantaggioso anche nei metodi di apprendimento per rinforzo.