L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1966

 
Maxim Dmitrievsky:

Passate a python, vi darò degli esempi e potrete usarli.

Non vedo il senso di discuterne sul forum, perché la RL non è un argomento da principianti.

Appena finisco il libro lo chiederò a )))) Se non si conosce il prezzo di mercato, allora si può avere ragione, non so cosa aspettarmi. Se non si conosce il tempo, può essere una strategia diversa.

 
Maxim Dmitrievsky:

Passate a python, vi darò degli esempi e potrete usarli.

Non vedo il senso di discuterne sul forum, dato che la RL non è un argomento di livello base.


Puoi mandarmi un'e-mail?

eugen420@gmail.com

 
Evgeni Gavrilovi:


Puoi mandarmelo via e-mail?

Solo a lui, il resto a pagamento.

 
Maxim Dmitrievsky:

Passate a python, vi darò degli esempi e potrete usarli.

Non vedo il senso di discuterne sul forum, dato che la RL è tutt'altro che un argomento di livello base

Farò un tentativo.

 
mytarmailS:

Farò un tentativo.

Guarda i video introduttivi su youtube. È la stessa cosa della R, solo con le sue caratteristiche speciali. Non dovrebbe esserci alcun problema con la transizione. Ma puoi prendere kotier da mt5 e aprire trade.
 
Maxim Dmitrievsky:
Guarda i video introduttivi su YouTube.

Sì, è quello che faccio))

 
mytarmailS:

Si, lo so))

La comprensione sarebbe più rapida se il manuale fosse scritto senza errori:

Lo strato cluster è una rete neuraleLVQ(Kohonen vector quantization). Lo strato cluster raggruppa i risultati dei dendriti secondo l'algoritmo standard LVQ. Ricordiamo che LQV implementa l'apprendimento online senza insegnante .

In primo luogo, le lettere negli acronimi sono confuse (correttamente LVQ), in secondo luogo, è un metodo di insegnamento CON UN TUTOR

mentre il metodo senza insegnante è chiamato VQ (vector quantizatinon), allora è molto probabilmente un neurone, non LVQ.


È importante notare che la sottorete LQV ha mantenuto la memoria dei segnali di ingresso precedenti come memoria delle ultime uscite dei neuroni LQV. Di conseguenza, la rete neurale aveva a disposizione più informazioni di quelle che venivano direttamente fornite al suo input.

Non capisco ancora questo. Quello che si intende più probabilmente sono queste connessioni delle uscite della sottorete che tornano ai neuroni. Stanno solo immagazzinando informazioni sulle azioni passate.

Cioè, la memoria memorizza la sottorete LQV.


 
Maxim Dmitrievsky:

La comprensione sarebbe più rapida se il manuale fosse scritto senza errori:

Lo strato cluster è una rete neuraleLVQ(Kohonen vector quantization). Lo strato cluster raggruppa i risultati dei dendriti secondo l'algoritmo standard LVQ. Ricordiamo che LQV implementa l'apprendimento online senza insegnante .

In primo luogo, le lettere negli acronimi sono confuse (correttamente LVQ), in secondo luogo, è un metodo di insegnamento CON UN TUTOR

e il metodo senza insegnante si chiama VQ (vector quantizatinon), allora molto probabilmente è nel neurone, non LVQ.

non so... L'ho letto 4 volte e ancora non l'ho capito, forse l'insegnante è un rinforzo lì?

+ c'è anche il voto proveniente da strati.

Maxim Dmitrievsky:

È importante notare che la sottorete LQV ha mantenuto una memoria degli ingressi precedenti come memoria delle ultime uscite dei neuroni LQV. Di conseguenza, la rete neurale aveva a disposizione più informazioni di quelle che venivano direttamente fornite al suo input.

Non capisco ancora questo. Quello che si intende più probabilmente sono queste connessioni delle uscite della sottorete che tornano ai neuroni. Stanno solo immagazzinando informazioni sulle azioni passate.

Cioè, la memoria memorizza la sottorete LQV.

Beh, sì, la memoria nella LQV è sotto forma delle ultime uscite dei neuroni della LQV, ma è, come ho capito, una memoria solo un passo indietro...

Che dire di questa fantastica analogia con il bollitore e il caffè? Questo è tutto il graal.


Non ti ha detto niente?

Mi chiedo dove insegnino questa roba. È come la cibernetica, la robotica e...

I DataSynthians sono solo fisici dell'istituto tecnico).


==============================================================

c'è anche il LVQ dinamico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Dettagli

dlvq : I dati di ingresso devono essere normalizzati per usare DLVQ.

Apprendimento DLVQ: un vettore medio (prototipo) viene calcolato per ogni classe e memorizzato in un modulo nascosto (appena creato). La rete viene quindi utilizzata per classificare ogni pattern utilizzando il prototipo più vicino. Se un pattern viene classificato erroneamente come classe y invece che come classe x, il prototipo di classe y viene allontanato dal pattern e il prototipo di classe x viene spostato verso il pattern.Questa procedura viene ripetuta iterativamente fino a quando non ci sono più cambiamenti nella classificazione. Poi nuovi prototipi vengono introdotti nella rete per ogni classe come nuove unità nascoste e inizializzati dal vettore medio dei modelli mal classificati in quella classe.

Architettura di rete: la rete ha un solo strato nascosto che contiene un'unità per ogni prototipo. I prototipi/unità nascoste sono anche chiamati vettori codebook. Poiché SNNS genera le unità automaticamente e non richiede una specificazione preliminare del numero di unità, la procedura in SNNS è chiamata LVQ dinamico .

Le funzioni predefinite di inizializzazione, apprendimento e aggiornamento sono le uniche adatte a questo tipo di rete. I tre parametri della funzione di apprendimento definiscono due tassi di apprendimento (per i casi classificati correttamente/erroneamente) e il numero di cicli per cui la rete viene addestrata prima di calcolare i vettori medi.

Riferimenti

Kohonen, T. (1988), Auto-organizzazione e memoria associativa, Vol. 8, Springer-Verlag.



=========================================================


Amico, ho letto questo LVQ, è proprio come Kohonen (SOM) ma con un insegnante.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Il%20Learning%20Vector%20Quantization%20algorithm, quelle%20instanze%20dovrebbero%20assomigliare%20.

 

Chi ha risolto il problema di quantificare un intervallo numerico con riferimento all'obiettivo? Nel mio caso si tratta di una "quantizzazione" non uniforme - un processo di autotuning all'obiettivo con un limite delle cifre minime nella gamma o la finestra stessa nell'espressione numerica - non ancora deciso.

Gli esperimenti con CatBoost mostrano che la quantizzazione influenza fortemente (in alcuni casi fino al 15% acurasi) il risultato.

 
Aleksey Vyazmikin:

Chi ha risolto il problema di quantificare un intervallo numerico con riferimento all'obiettivo? Nel mio caso si tratta di una "quantizzazione" non uniforme - un processo di autotuning all'obiettivo con un limite delle cifre minime nella gamma o la finestra stessa nell'espressione numerica - non ancora deciso.

Gli esperimenti con CatBoost mostrano che la quantizzazione influenza fortemente (fino al 15% di acurasi in alcuni casi) il risultato.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

per la discretizzazione (quantizzazione) rispetto al target