L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2809

 
Valeriy Yastremskiy #:

La libreria non tiene conto del tipo? Il tipo di dati è come i dati per i calcoli più economici. La stessa matrice dovrebbe essere progettata per i calcoli.

Non ho trovato un analogo di numpy per R, le matrici non sono così veloci e R stesso consuma molta memoria a causa del suo paradigma.

Naturalmente, una libreria di terze parti può essere lenta, chi la controllerebbe?

Non so con cosa fare il confronto, quindi non voglio caricare un set di dati da un gigabyte per confrontare la velocità.
 
Алексей Тарабанов #:

Non è possibile.

E l'addestramento con i rinforzi?
 
mytarmailS #:
E l'apprendimento per rinforzo?

Il topkstarter ha scritto un articolo su DQN su hubr su R.

Bisogna capire che l'apprendimento per rinforzo è solo un'ottimizzazione complicata.

In alcuni casi può funzionare, in altri no.

 
Maxim Dmitrievsky #:

Non riesco a trovare un analogo di numpy per R..

..
Se è richiesta la velocità, allora la tabella di dati, se l'analogo veloce di dataframes allora tibble, se una grande quantità di dati allora una grande matrice.

 
mytarmailS #:
..
Se si tratta di velocità, allora la tabella dati, se si tratta di un analogo veloce dei dataframe, allora il tibble, se si tratta di una grande quantità di dati, allora la matrice grande.

Volevo alleviare le sofferenze di Alexey) È certamente più facile da usare fin dall'inizio... ma comunque.

 
Maxim Dmitrievsky #:

Il topikstarter ha scritto un articolo su DQN sull'hub su R

bisogna capire che l'apprendimento per rinforzo è solo un'ottimizzazione sapientemente progettata

In alcuni casi può funzionare, in altri no.

Nel contesto della domanda sulla memoria...
In RL è possibile aggiornare la matrice delle azioni e la matrice di valutazione dello stato o dell'azione per sempre, è come una memoria con aggiornamento costante. Ma non so se ho ragione.
 
mytarmailS #:
Beh, nel contesto della domanda sulla memoria.
In RL si può aggiornare eternamente la matrice delle azioni e la matrice della valutazione degli stati o della valutazione delle azioni, che è come una memoria con aggiornamento costante.... Ma non so se ho ragione.

può adattare gli stati ai nuovi dati, ma è tutto a livello o come Mashka, cioè con un ritardo.

È più importante scegliere una ricompensa, un obiettivo, in pratica. Il sistema lancia gli scambi in direzioni diverse e ad ogni iterazione migliora sempre di più.

 
Maxim Dmitrievsky #:

Volevo alleviare le sofferenze di Alexey ) È certamente più facile da usare... ma comunque

Se Alexey volesse pensare e ascoltare, ci vorrebbero 2 minuti con il mio script....
 
Maxim Dmitrievsky #:

può adeguare gli stati ai nuovi dati, ma tutto su base livellata o di tipo Mashka, cioè con ritardo.

È più importante selezionare la ricompensa, cioè l'obiettivo in sostanza. Il sistema lancia da solo le operazioni in diverse direzioni e a ogni iterazione migliora sempre di più.

la memoria è un NS con pesi addestrati, lo si addestra a ogni passo, si spostano i pesi un po'... non molto, ecco perché c'è un ritardo.

e non è possibile trasferirlo al terminale.

 
Maxim Dmitrievsky #:

La memoria è un NS con pesi addestrati, lo si riqualifica ad ogni passo, spostando un po' i pesi... non molto, quindi il ritardo .

.
Una rete addestrata o qualsiasi AMO addestrato o anche Mashka è memoria. Sì, si può accettare questa analogia....

Ma quando si "riqualifica" una rete neurale addestrata, si cambiano i pesi, si dimentica il passato a favore del presente....

Non si tratta di riqualificazione, ma di riqualificazione a ogni passo, come Mashka nella finestra scorrevole, che non ricorda cosa c'è fuori dalla finestra scorrevole, anche se era lì....
Motivazione: