L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2808
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Il vostro script è in esecuzione da più di un giorno e non ha ancora creato un singolo file basato sui risultati dello screening. Non so, forse è il momento di spegnerlo?
Dipende dallo zhekez e dalla dimensione del campione. Se il vostro processore è multi-core, parallelizzate l'esecuzione. Di seguito è riportata una variante di esecuzione parallela
Quattro volte più veloce di quella seriale. Hardware e software
Buona fortuna
è tutto lì. La velocità ne risentirà in modo catastrofico. I dataframe sono le bestie più lente con un grande overhead.
Non si tratta di schede video, ma di capire che queste cose non contano attraverso i dataframe in uno stato sobrio.
Cosa si intende per "dataframes" - spiegatelo agli ignoranti in questa lingua.
Suggerimento: è necessario utilizzare vettori di 100.000 osservazioni per vedere la correlazione tra di essi?
Sto cercando vettori altamente correlati, cioè con una correlazione superiore a 0,9. Non so se sia necessario - dovrete sperimentare.Non so se sia necessario o meno: dovreste sperimentare. Il campione non è stazionario: per metà del campione non c'era correlazione, e poi bang, e poi è comparsa.
Inoltre, ho provato tutti i coefficienti a passi di 0,1.
Non c'è di che.
È questo il grido dell'anima?
Dipende da zhekez e dalla dimensione del campione. Se il processore è multi-core, parallelizzare l'esecuzione. Di seguito è riportata una variante di esecuzione parallela
È 4 volte più veloce dell'esecuzione seriale. Hardware e software
Buona fortuna
Quindi il parallelismo non aumenta il consumo di RAM?
Sebbene il codice di mytarmailS sia più affamato di RAM, è 50 volte più veloce, forse ci sono alcune limitazioni delle librerie utilizzate - lo script ha lavorato per più di 30 ore e non ha creato un singolo file.
Grazie per gli esempi di codice complicato - in R sono piuttosto solo un consumatore, non riesco a capire cosa correggere nello script principale.
Intendi dire che per ogni tipo di dati dovrebbe esserci un metodo per calcolare corr?
matrix è un tipo di dati integrato in R, ha qualcosa come matrix.corr() vector.
Cosa si intende per "dataframes" - spiegate agli ignoranti di questo linguaggio.
Era piuttosto un messaggio agli scrittori di R :) si tratta di tabelle per una comoda visualizzazione dei dati e per alcune manipolazioni tipiche, come l'estrazione di sottocampioni (come in sql).
Non sono state progettate per essere eseguite in loop su dati così grandi come quelli che avete voi, e saranno più lente degli array di 20-100 volte. Per quanto riguarda la memoria, lo avete già capito da soli.
Penso che qui vada bene:
Non so quanto sia veloce il tipo incorporato "matrice", ma usa il caret, che può anche rallentare. Il tipo incorporato non ha un'operazione vettoriale per calcolare la correlazione o qualcosa del genere.
Da dove vengono questi pensieri
perché si rallenta un tipo incorporato con il lobo sinistro, che dovrebbe avere il proprio calcolo di corr, il più velocemente possibile per esso
Perché rallentare un tipo incorporato che dovrebbe avere il proprio calcolo di Korr il più veloce possibile?
La libreria non tiene conto del tipo? Il tipo di dati è come i dati per i calcoli più economici. La stessa matrice dovrebbe essere progettata per i calcoli.
Come diventare più intelligenti in futuro senza diventare più stupidi in passato? Algoritmicamente... senza creare terabyte di conoscenza.
Non è così.