Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2807

 
Aleksey Vyazmikin #:

Ich habe es ausgetauscht und es schien in Ordnung zu sein.

.

 
mytarmailS #:

.

Ihr Skript verbraucht fast 9 Gigabyte RAM auf meinem Beispiel, aber es scheint zu funktionieren, werden die Dateien gespeichert. Ich weiß nicht einmal, wo der Speicher dort verbraucht wird, während die Probe nimmt ein wenig mehr als ein Gigabyte.

 
mytarmailS #:

.

Ich habe auch herausgefunden, dass Überschriften in der Tabelle (Spaltennamen) in Anführungszeichen gespeichert werden - wie kann man das ausschalten?

 

Was macht dieser Code? Um es schneller zu machen, sollten Sie alle Spalten in den gleichen Datentyp konvertieren (Float 32, 16 - nicht nötig, es wird langsamer sein) und kaRRR durch schnelle Arrays berechnen.

wenn es um die tatsächliche Korrektur des kaRma geht

 
Aleksey Vyazmikin #:

Ihr Skript verbraucht fast 9 Gigabyte RAM auf meinem Beispiel, aber es scheint zu funktionieren, die Dateien werden gespeichert. Ich weiß nicht einmal, wo der Speicher verwendet wird, während die Probe nimmt ein wenig mehr als ein Gigabyte.

Und?

R schlecht wahrscheinlich)

Aleksey Vyazmikin #:

Ich habe auch ein Problem gefunden - Überschriften in der Tabelle (Spaltennamen) werden in Anführungszeichen gespeichert - wie schaltet man das ab?

Was haben Sie getan, um das Problem zu lösen?

 
mytarmailS #:

Na und?

R ist schlecht, denke ich.)

Was haben Sie getan, um das Problem zu lösen?

Schlecht/Gut ist ein zu kritisches Urteil.

Es ist offensichtlich, dass der Paketcode nicht speichereffizient ist, aber schnell sein kann, oder das Skript kopiert die gesamte Tabelle\Auswahl viele Male.

Und was Sie getan haben - Sie haben das Problem gefunden und es einem Fachmann gemeldet, der auf Hilfe hofft.

 
Maxim Dmitrievsky #:

Was macht dieser Code? Um schneller zu sein, sollten Sie alle Spalten in denselben Datentyp konvertieren (Float 32, 16 - nicht nötig, das ist langsamer) und die Anzahl der Spalten mit schnellen Arrays berechnen.

wenn es um die tatsächliche Korrektur der KaRma geht

Soweit ich weiß, gibt es in R überhaupt kein Konzept für unterschiedliche Datentypen (int, float, etc.). Und, es wird die Speichergröße zu reduzieren, aber es wird nicht viel Einfluss auf die Geschwindigkeit. Auf Grafikkarten, ja, es wird ein Anstieg sein.

 
Aleksey Vyazmikin #:

Soweit ich weiß, gibt es in R kein Konzept für verschiedene Datentypen (int, float usw.). Und, es wird die Speichergröße zu reduzieren, aber es wird nicht die Geschwindigkeit viel beeinflussen. Auf Grafikkarten, ja, es wird ein Anstieg sein.

Alles ist vorhanden. Es wird sich katastrophal auf die Geschwindigkeit auswirken. Dataframes sind die langsamsten Biester mit dem größten Overhead.

Es geht nicht um Grafikkarten, sondern darum, zu verstehen, dass solche Dinge nicht durch Datenrahmen in einem nüchternen Zustand zählen.

 
Aleksey Vyazmikin #:

Tipp: Ist es notwendig, Vektoren mit 100.000 Beobachtungen zu verwenden, um die Korrelation zwischen ihnen zu sehen?

Ich suche nach hoch korrelierten Vektoren, d. h. mit einer Korrelation von mehr als 0,9.
 
Bitte sehr
Grund der Beschwerde: