Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3253

 
Maxim Dmitrievsky #:
Wie ist das?

https://www.mql5.com/ru/docs/constants/chartconstants/enum_timeframes

Kennung

Beschreibung

PERIOD_CURRENT

Aktueller Zeitraum

PERIOD_M1

1 Minute

PERIOD_M2

2 Minuten

PERIOD_M3

3 Minuten

PERIOD_M4

4 Minuten

PERIOD_M5

5 Minuten

PERIOD_M6

6 Minuten

PERIOD_M10

10 Minuten

PERIOD_M12

12 Minuten

PERIOD_M15

15 Minuten

PERIOD_M20

20 Minuten

PERIOD_M30

30 Minuten

PERIOD_H1

1 Stunde

PERIOD_H2

2 Stunden

PERIOD_H3

3 Stunden

PERIOD_H4

4 Stunden

PERIOD_H6

6 Stunden

PERIOD_H8

8 Stunden

PERIOD_H12

12 Stunden

PERIOD_D1

1 Tag

PERIOD_W1

1 Woche

PERIOD_MN1

1 Monat

Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
  • www.mql5.com
Периоды графиков - Константы графиков - Константы, перечисления и структуры - Справочник MQL5 - Справочник по языку алгоритмического/автоматического трейдинга для MetaTrader 5
 
Ich werde es nicht so schnell schaffen, nicht vor heute Abend oder am nächsten Tag.
 
Maxim Dmitrievsky #:
Ich werde es nicht so bald tun können, eher am Abend oder am nächsten Tag.
Das Wetter ist gut))))
 
Speicherüberlauf bei kleinen TFs. Der Speicher überläuft bei 16 Osu und einer Auslagerungsdatei (Swap auf einem Mac) von 30gig. Nun, es gibt eine 50k x 50k Korrelationsmatrix, zum Beispiel.

Pandas und Nampay stürzt ab, es ist nicht für große Daten ausgelegt. Ich werde dask versuchen. Oder die Historie filtern.

Kurz gesagt, dass MO nicht auf gewöhnliche Hardware ziehen, dass dieser Ansatz.
 
Maxim Dmitrievsky #:
Speicherüberlauf bei kleinen TFs. Der Speicher überläuft mit 16 osu und Auslagerungsdatei (Swap auf einem Mac) von 30gig. Es gibt eine Korrelationsmatrix 50k mal 50k, zum Beispiel.

Pandas und Nampay stürzt ab, es ist nicht für große Daten ausgelegt. Ich werde dask versuchen. Oder filtern Sie die Geschichte.

Kurz gesagt, dass MO nicht auf gewöhnliche Hardware ziehen, dass dieser Ansatz.
Sind Sie tun Quantisierung? Der Hauptzweck der Quantisierung ist es, die Datengröße zu reduzieren. 4 Byte Float zu 1 Byte uchar oder char.
Aus 16g Matrix werden 4g.
.


Und alle Berechnungen werden im RAM durchgeführt - Sie müssen mehr hinzufügen. Speicher ist heutzutage billig.

 
Forester #:
Führen Sie Quantifizierungen durch? Der Hauptzweck der Quantisierung besteht darin, die Datengröße zu verringern. 4 Byte Float zu 1 Byte uchar oder char.
Aus einer 16g-Matrix werden 4g.
.


Und alle Berechnungen werden im RAM durchgeführt - Sie müssen mehr hinzufügen. Speicher ist heutzutage billig.

Ich weiß nicht, wie man die Korrelation berechnen kann.

Es ist nicht so einfach, einem Macbook Speicher hinzuzufügen). Es ist immer noch extrem ineffizient für Zeitreihen, ich muss es irgendwie neu machen

Vor allem, da ich eine weitere TF verwenden werde und 5 Mal mehr Ressourcen benötige.

Wird es effizient sein, über SQL zu berechnen?

 
Maxim Dmitrievsky #:

Ich weiß nicht, wie ich die Korrelation nachträglich berechnen kann.

Es ist nicht einfach, einem Macbook Speicher hinzuzufügen) Es ist immer noch sehr ineffizient für Zeitreihen, ich muss es irgendwie neu machen

Vor allem, da ich auf eine niedrigere TF runtergehen werde und 5 mal mehr Ressourcen brauche.

Es gibt eine Funktion zur Berechnung der doppelten Korrelation in alglib. Ich denke, man kann einfach alle Variablen in char/uchar ändern und alles wird funktionieren. Es gibt Dutzende anderer verwendeter Funktionen, die ebenfalls überarbeitet werden müssen. Und von CMatrixDouble gehen Sie zu dynamischen Arrays oder etwas anderem.

Pearson product-moment correlation matrix                        |
//| INPUT PARAMETERS:                                                |
//|     X   -   array[N,M], sample matrix:                           |
//|             * J-th column corresponds to J-th variable           |
//|             * I-th row corresponds to I-th observation           |
//|     N   -   N>=0, number of observations:                        |
//|             * if given, only leading N rows of X are used        |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//|     M   -   M>0, number of variables:                            |
//|             * if given, only leading M columns of X are used     |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//| OUTPUT PARAMETERS:                                               |
//|     C   -   array[M,M], correlation matrix (zero if N=0 or N=1)  |
//+------------------------------------------------------------------+
static bool CBaseStat::PearsonCorrM(const CMatrixDouble &cx,const int n,
                                    const int m,CMatrixDouble &c)


Und wenn Sie ein selbstgemachtes Programm haben, müssen Sie auch die Quantisierung durchführen, wenn Sie kein fertiges Paket haben, das das kann.

 
Maxim Dmitrievsky #:
wäre es effizient, SQL durchzulesen?
Ich weiß es nicht
 
Maxim Dmitrievsky #:
Speicherüberlauf bei kleinen TFs. Der Speicher überläuft mit 16 osu und Auslagerungsdatei (Swap auf einem Mac) 30gig. Es gibt eine Korrelationsmatrix 50k von 50k, zum Beispiel.

Pandas und Nampay stürzt ab, es ist nicht für große Daten ausgelegt. Ich werde dask versuchen. Oder filtern Sie die Geschichte.

Kurz gesagt, dass MO nicht auf gewöhnliche Hardware ziehen, dass dieser Ansatz.

Warum brauchen Sie überhaupt eine Korrelationsmatrix?

Es gibt ein Muster, es gibt eine Reihe von Geschichte zu vergleichen das Muster mit, wo ist das Problem?

 
mytarmailS #:

Warum brauchen Sie überhaupt eine Korrelationsmatrix?

Es gibt ein Muster, es gibt eine Reihe von historischen Daten, mit denen man das Muster vergleichen kann, wo liegt das Problem?

Es gibt kein Muster, Muster werden über die Korrelationsmatrix gesucht.

Grund der Beschwerde: