L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3253

 
Maxim Dmitrievsky #:
Che te ne pare?

https://www.mql5.com/ru/docs/constants/chartconstants/enum_timeframes

Identificatore

Descrizione

PERIODO_CORRENTE

Periodo corrente

PERIODO_M1

1 minuto

PERIODO_M2

2 minuti

PERIODO_M3

3 minuti

PERIODO_M4

4 minuti

PERIODO_M5

5 minuti

PERIODO_M6

6 minuti

PERIODO_M10

10 minuti

PERIODO_M12

12 minuti

PERIODO_M15

15 minuti

PERIODO_M20

20 minuti

PERIODO_M30

30 minuti

PERIODO_H1

1 ora

PERIODO_H2

2 ore

PERIODO_H3

3 ore

PERIODO_H4

4 ore

PERIODO_H6

6 ore

PERIODO_H8

8 ore

PERIODO_H12

12 ore

PERIODO_D1

1 giorno

PERIODO_W1

1 settimana

PERIODO_MN1

1 mese

Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
  • www.mql5.com
Периоды графиков - Константы графиков - Константы, перечисления и структуры - Справочник MQL5 - Справочник по языку алгоритмического/автоматического трейдинга для MetaTrader 5
 
Non sarò in grado di farlo così rapidamente, non prima di stasera o dell'altro giorno.
 
Maxim Dmitrievsky #:
Non potrò farlo così presto, più vicino alla sera, o l'altro giorno.
Il tempo è buono))))
 
Overflow di memoria su TF piccoli. La memoria trabocca con 16 osu e un file di swap (swap su un mac) di 30 giga. C'è una matrice di correlazione di 50k per 50k, per esempio.

Pandas e Nampay si bloccano, non sono progettati per dati di grandi dimensioni. Proverò dask. O filtrare la cronologia.

In breve, il MO non è adatto all'hardware ordinario, che questo approccio.
 
Maxim Dmitrievsky #:
Overflow di memoria su TF piccoli. La memoria trabocca con 16 osu e un file di swap (swap su un mac) di 30 giga. C'è una matrice di correlazione 50k per 50k, per esempio.

Pandas e Nampay si bloccano, non sono progettati per dati di grandi dimensioni. Proverò dask. Oppure filtrare la cronologia.

In breve, che MO non tira su hardware ordinario, che questo approccio.
State facendo la quantizzazione? Lo scopo principale della quantizzazione è ridurre la dimensione dei dati. Da 4 byte float a 1 byte uchar o char.
Una matrice di 16 g diventerà di 4 g.
.


E tutti i calcoli vengono eseguiti nella RAM: è necessario aggiungerne altra. La memoria è oggi poco costosa.

 
Forester #:
Eseguite la quantizzazione? Lo scopo principale della quantizzazione è ridurre le dimensioni dei dati. Da 4 byte float a 1 byte uchar o char.
Una matrice di 16 g diventerà di 4 g.
.


Tutti i calcoli vengono eseguiti nella RAM: è necessario aggiungerne altra. La memoria è oggi poco costosa.

Non so come calcolare la correlazione

Non è così facile aggiungere memoria a un macbook). È ancora estremamente inefficiente per le serie temporali, devo rifarlo in qualche modo.

Soprattutto perché scenderò di un altro TF e avrò bisogno di 5 volte più risorse.

Sarà efficiente calcolare attraverso SQL?

 
Maxim Dmitrievsky #:

Non so come calcolare la correlazione in seguito

Non è facile aggiungere memoria a un macbook) È ancora molto inefficiente per le serie temporali, devo rifarlo in qualche modo.

Soprattutto perché scenderò a un TF inferiore e avrò bisogno di 5 volte più risorse.

Esiste una funzione di calcolo della doppia correlazione in alglib. Credo che basti cambiare tutte le variabili in char/uchar e tutto funzionerà. Ci sono decine di altre funzioni usate che devono essere rifatte. E da CMatrixDouble si passa ad array dinamici o a qualcos'altro.

Pearson product-moment correlation matrix                        |
//| INPUT PARAMETERS:                                                |
//|     X   -   array[N,M], sample matrix:                           |
//|             * J-th column corresponds to J-th variable           |
//|             * I-th row corresponds to I-th observation           |
//|     N   -   N>=0, number of observations:                        |
//|             * if given, only leading N rows of X are used        |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//|     M   -   M>0, number of variables:                            |
//|             * if given, only leading M columns of X are used     |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//| OUTPUT PARAMETERS:                                               |
//|     C   -   array[M,M], correlation matrix (zero if N=0 or N=1)  |
//+------------------------------------------------------------------+
static bool CBaseStat::PearsonCorrM(const CMatrixDouble &cx,const int n,
                                    const int m,CMatrixDouble &c)


E se avete un programma fatto in casa, dovrete fare anche la quantizzazione, se non avete un pacchetto già pronto che lo faccia.

 
Maxim Dmitrievsky #:
sarebbe efficiente leggere l'SQL?
Non lo so
 
Maxim Dmitrievsky #:
Overflow di memoria su TF piccoli. La memoria trabocca con 16 osu e un file di swap (swap su un mac) di 30 giga. C'è una matrice di correlazione 50k per 50k, per esempio.

Pandas e Nampay si bloccano, non sono progettati per dati di grandi dimensioni. Proverò dask. Oppure filtrare la cronologia.

In breve, che MO non tira su hardware ordinario, che questo approccio.

Perché hai bisogno di una matrice di correlazione?

C'è un modello, c'è una matrice di storia con cui confrontare il modello, qual è il problema?

 
mytarmailS #:

Perché è necessaria una matrice di correlazione?

C'è un modello, c'è una serie di dati storici con cui confrontare il modello, qual è il problema?

Non c'è alcun modello, i modelli sono ricercati dalla matrice di correlazione.

Motivazione: