L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1966

Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Passate a python, vi darò degli esempi e potrete usarli.
Non vedo il senso di discuterne sul forum, perché la RL non è un argomento da principianti.
Appena finisco il libro lo chiederò a )))) Se non si conosce il prezzo di mercato, allora si può avere ragione, non so cosa aspettarmi. Se non si conosce il tempo, può essere una strategia diversa.
Passate a python, vi darò degli esempi e potrete usarli.
Non vedo il senso di discuterne sul forum, dato che la RL non è un argomento di livello base.
Puoi mandarmi un'e-mail?
eugen420@gmail.com
Puoi mandarmelo via e-mail?
Solo a lui, il resto a pagamento.
Passate a python, vi darò degli esempi e potrete usarli.
Non vedo il senso di discuterne sul forum, dato che la RL è tutt'altro che un argomento di livello base
Farò un tentativo.
Farò un tentativo.
Guarda i video introduttivi su YouTube.
Sì, è quello che faccio))
Si, lo so))
La comprensione sarebbe più rapida se il manuale fosse scritto senza errori:
Lo strato cluster è una rete neuraleLVQ(Kohonen vector quantization). Lo strato cluster raggruppa i risultati dei dendriti secondo l'algoritmo standard LVQ. Ricordiamo che LQV implementa l'apprendimento online senza insegnante .
In primo luogo, le lettere negli acronimi sono confuse (correttamente LVQ), in secondo luogo, è un metodo di insegnamento CON UN TUTOR
mentre il metodo senza insegnante è chiamato VQ (vector quantizatinon), allora è molto probabilmente un neurone, non LVQ.
È importante notare che la sottorete LQV ha mantenuto la memoria dei segnali di ingresso precedenti come memoria delle ultime uscite dei neuroni LQV. Di conseguenza, la rete neurale aveva a disposizione più informazioni di quelle che venivano direttamente fornite al suo input.
Non capisco ancora questo. Quello che si intende più probabilmente sono queste connessioni delle uscite della sottorete che tornano ai neuroni. Stanno solo immagazzinando informazioni sulle azioni passate.
Cioè, la memoria memorizza la sottorete LQV.
La comprensione sarebbe più rapida se il manuale fosse scritto senza errori:
Lo strato cluster è una rete neuraleLVQ(Kohonen vector quantization). Lo strato cluster raggruppa i risultati dei dendriti secondo l'algoritmo standard LVQ. Ricordiamo che LQV implementa l'apprendimento online senza insegnante .
In primo luogo, le lettere negli acronimi sono confuse (correttamente LVQ), in secondo luogo, è un metodo di insegnamento CON UN TUTOR
e il metodo senza insegnante si chiama VQ (vector quantizatinon), allora molto probabilmente è nel neurone, non LVQ.
non so... L'ho letto 4 volte e ancora non l'ho capito, forse l'insegnante è un rinforzo lì?
+ c'è anche il voto proveniente da strati.
È importante notare che la sottorete LQV ha mantenuto una memoria degli ingressi precedenti come memoria delle ultime uscite dei neuroni LQV. Di conseguenza, la rete neurale aveva a disposizione più informazioni di quelle che venivano direttamente fornite al suo input.
Non capisco ancora questo. Quello che si intende più probabilmente sono queste connessioni delle uscite della sottorete che tornano ai neuroni. Stanno solo immagazzinando informazioni sulle azioni passate.
Cioè, la memoria memorizza la sottorete LQV.
Beh, sì, la memoria nella LQV è sotto forma delle ultime uscite dei neuroni della LQV, ma è, come ho capito, una memoria solo un passo indietro...
Che dire di questa fantastica analogia con il bollitore e il caffè? Questo è tutto il graal.
Non ti ha detto niente?
Mi chiedo dove insegnino questa roba. È come la cibernetica, la robotica e...
I DataSynthians sono solo fisici dell'istituto tecnico).
==============================================================
c'è anche il LVQ dinamico - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Dettagli
dlvq : I dati di ingresso devono essere normalizzati per usare DLVQ.
Apprendimento DLVQ: un vettore medio (prototipo) viene calcolato per ogni classe e memorizzato in un modulo nascosto (appena creato). La rete viene quindi utilizzata per classificare ogni pattern utilizzando il prototipo più vicino. Se un pattern viene classificato erroneamente come classe y invece che come classe x, il prototipo di classe y viene allontanato dal pattern e il prototipo di classe x viene spostato verso il pattern.Questa procedura viene ripetuta iterativamente fino a quando non ci sono più cambiamenti nella classificazione. Poi nuovi prototipi vengono introdotti nella rete per ogni classe come nuove unità nascoste e inizializzati dal vettore medio dei modelli mal classificati in quella classe.
Architettura di rete: la rete ha un solo strato nascosto che contiene un'unità per ogni prototipo. I prototipi/unità nascoste sono anche chiamati vettori codebook. Poiché SNNS genera le unità automaticamente e non richiede una specificazione preliminare del numero di unità, la procedura in SNNS è chiamata LVQ dinamico .
Le funzioni predefinite di inizializzazione, apprendimento e aggiornamento sono le uniche adatte a questo tipo di rete. I tre parametri della funzione di apprendimento definiscono due tassi di apprendimento (per i casi classificati correttamente/erroneamente) e il numero di cicli per cui la rete viene addestrata prima di calcolare i vettori medi.
Riferimenti
Kohonen, T. (1988), Auto-organizzazione e memoria associativa, Vol. 8, Springer-Verlag.
=========================================================
Amico, ho letto questo LVQ, è proprio come Kohonen (SOM) ma con un insegnante.
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Il%20Learning%20Vector%20Quantization%20algorithm, quelle%20instanze%20dovrebbero%20assomigliare%20.
Chi ha risolto il problema di quantificare un intervallo numerico con riferimento all'obiettivo? Nel mio caso si tratta di una "quantizzazione" non uniforme - un processo di autotuning all'obiettivo con un limite delle cifre minime nella gamma o la finestra stessa nell'espressione numerica - non ancora deciso.
Gli esperimenti con CatBoost mostrano che la quantizzazione influenza fortemente (in alcuni casi fino al 15% acurasi) il risultato.
Chi ha risolto il problema di quantificare un intervallo numerico con riferimento all'obiettivo? Nel mio caso si tratta di una "quantizzazione" non uniforme - un processo di autotuning all'obiettivo con un limite delle cifre minime nella gamma o la finestra stessa nell'espressione numerica - non ancora deciso.
Gli esperimenti con CatBoost mostrano che la quantizzazione influenza fortemente (fino al 15% di acurasi in alcuni casi) il risultato.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
per la discretizzazione (quantizzazione) rispetto al target