L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 598
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
1) Come vanno le cose nella formazione? Non vedo come vengono applicati i pesi.
2) Sono disponibili i pesi del neurone stesso?
3) Come mezzo, potete prendere la derivata della MA di chiusura o veloce del 1-4° ordine. O incrementi.
4) Metterei la dimensione dello strato nascosto uguale all'input.
i pesi vanno fino agli adders, tutto è classico, poi il peso è alimentato alla funzione di attivazione. era solo scomodo firmare tutto sul touchpad
come "ambiente" - qui assumiamo un'azione già eseguita dal NS esternamente, per esempio, una transazione... cioè la memoria del sistema per n azioni a ritroso; lo stesso vale per il feedback - quale azione ha portato a quale risultato
quindi farò un livello interno uguale a quello di ingresso... e forse ne aggiungerò un altro più tardi
Sprecherete solo il vostro tempo. Non funzionerà su dati reali.
Per esempio: una risposta sbagliata da NS, e influenzerà tutte quelle successive.
Beh, non proprio, solo ns terrà conto della serialità e dell'efficacia delle transazioni come un fattore aggiuntivo... questa è solo un'opzione, non sto dicendo che è definitiva
Per questo chiedo altre idee.
+ è un elemento adattivo incorporabile... come un transistor
e il NS principale ha altri fi
i pesi vanno fino agli adders, tutto è classico, poi il peso è alimentato alla funzione di attivazione. era solo scomodo firmare tutto sul touchpad
come "ambiente" - qui assumiamo un'azione già eseguita dal NS esternamente, per esempio, una transazione... cioè la memoria del sistema per n azioni a ritroso; lo stesso vale per il feedback - quale azione ha portato a quale risultato
quindi metterò uno strato interno uguale a quello di ingresso... e potrei aggiungerne un altro più tardi
Ma qui la sottigliezza è che in questo caso dovremmo pensare ad aggiungere la funzione Q, perché dovrebbe essere considerata come una ricompensa. O derivare una formula di apprendimento con la ricompensa in mente.
Allora come la somma del profitto in pip. Un commercio di successo -> aumento, e viceversa.
Ma qui il problema è che in questo caso dovremmo pensare ad aggiungere la funzione Q, perché deve essere considerata come una ricompensa. O derivare una formula di apprendimento con la ricompensa in mente.
Sì, ok :) buona opzione.
Finora la formula è semplice - neuroni separati, a cui vengono alimentati i risultati del commercio passato, nemmeno neuroni, ma semplicemente i valori vengono aggiunti al combinatore. Non ho ancora letto nulla sui coolerings
Sì, ok :) buona opzione.
Finora la formula è semplice - neuroni separati, a cui vengono alimentati i risultati passati del commercio, nemmeno neuroni, ma semplicemente i valori vengono aggiunti all'addizionatore. Non ho ancora letto nulla sui coolerings
Si creano due NS identici, si insegna ad uno per immagini tradizionali e all'altro per trasferimento diretto di scale, dosato secondo il risultato della previsione del primo, cioè il secondo dovrebbe imparare solo dall'esperienza positiva.
C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)
Vorrei che capisse quando comincia a lavorare troppo male e che si riorganizzasse
C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)
Voglio che capisca quando inizia a lavorare in modo troppo accorto e a sintonizzarsi
Ovviamente avete la struttura sbagliata per questi scopi.
come si fa?
come si fa?
C'è una tale variante, prima diversi NS sono addestrati su periodi diversi, poi vengono combinati in uno solo... montaggio sofisticato :)
Vorrei che capisse quando inizia a lavorare in modo brusco e si ricostruisce
In primo luogo - non esattamente un adattamento, come è dimostrato che i comitati funzionano meglio, può essere spiegato, per esempio, su deviazioni di segno opposto di modelli separati, portando ad una maggiore precisione. In secondo luogo, il tandem NS proposto è un unico modello autoadattivo che ha dimostrato di essere vantaggioso anche nei metodi di apprendimento per rinforzo.