Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3186

 
mytarmailS #:

Es geht nur um Zahlen und Umrechnungen, was meinst du damit, dass es nichts mit der WRC zu tun hat ? Es geht nur um Zahlen....

Beantworten Sie sich selbst, welches nützliche Merkmal erhalten bleibt/verloren geht. Ich habe diese Frage mit meiner Umrechnung beantwortet.

Und was ist eine Bitrate?

Die Breite des Informationsflusses (im Netzwerkkontext).

 
fxsaber #:

Ich habe damit begonnen, die Größe des minimalen Knies der ZZ zu ändern (in einem vernünftigen Rahmen für Skalierung) und die Summe der Knie zu beobachten.

Was ist ein vernünftiger Bereich für Scalping? Von ... zu?

Ich habe auf Bars von 0,00200 für EURUSD, etwas beginnt zu verdienen. Aber ich befürchte, dass es die von Ihnen oben beschriebene Einstellung gibt. D.h. die besten Varianten auf OOS, die einfach durch die Verschiebung des Fensters für das Training um 2-10% verdorben werden (d.h. 2-10% der Linien sind anders, als Ergebnis werden Bäume anders gebaut und OOS ist ganz anders, bis hin zu unrentabel).

 
fxsaber #:

ZЫ Im Allgemeinen kann man, wenn Interesse besteht, versuchen, Unterschiede zwischen den beiden Reihen zu finden, sie zu liefern.

Eher daran interessiert, eine echte Trainingsdatensatz für Ihre Daten (fit und Ziel). Um zu sehen, wie viel ich auf Scalping mit meinem Ansatz machen könnte.

 
fxsaber #:

Beantworten Sie sich die Frage, welche nützliche Eigenschaft erhalten bleibt/verloren geht. Mit meiner Umstellung habe ich eine solche Frage beantwortet.

Wenn ich Ihre Umwandlung richtig verstehe

nimmst du die Inkremente, wählst dann zufällig den Index des Inkrements und lässt ihn entweder so wie er ist oder invertierst ihn (x/-1).


Nehmen wir eine abstrakte Reihe mit einer offensichtlichen Struktur.

Wenden Sie Ihre Transformation an.

Keine Struktur wird beibehalten, es ist nur zufällig von zufällig...

Ich würde es überhaupt nicht als Simulation betrachten...



Hier ist der Code.

par(mar=c(2,2,2,2),mfrow=c(3,2))

r <- rep( c(1:10,10:1) ,3)
r |> plot(t="l",main = "начальный ряд с какой то закономерностью")

rd <- c(0,diff(r))

for(i in 1:5) {
  sa <- sample(1:length(rd),size = length(rd)/2)
  rd[sa] <- rd[sa]/-1
  rd |> cumsum() |> plot(t="l", main = "ваше преобразование")
}
 
Forester #:

Ich bin eher an einem echten Trainingsdatensatz für Ihre Daten (fic und target) interessiert. Um zu sehen, wie viel ich auf Scalping mit meinem Ansatz machen könnte.

Wählen Sie einen Broker für historische Daten nach dem höchsten potenziellen Gewinn. Zum Beispiel hat EURUSD_Broker1 einen höheren potenziellen Gewinn als EURUSD_Broker2. Nehmen Sie dann EURUSD_Broker1.

Sowohl Majors als auch Crosses können gescalped werden. Aber nicht alle. Trainieren Sie einfach mit jedem von ihnen und sehen Sie sich die Ergebnisse an. Das ist es, was ich tue, grob gesagt.

 
mytarmailS #:

Wenn ich Ihre Umrechnung richtig verstehe

nehmen Sie die Inkremente, wählen dann zufällig den Index des Inkrements und lassen ihn entweder so wie er ist oder drehen ihn um (x/-1)

Sie haben meine Umwandlung absolut richtig verstanden.

Nehmen wir eine abstrakte Reihe mit einer offensichtlichen Struktur (Regelmäßigkeit).

Die Transformation ist so einfach, dass auch ohne Graphen klar ist, dass man alles bis hin zu einem monoton steigenden Preis erhalten kann.
 
fxsaber #:

Sie haben meine Transformation absolut richtig verstanden.

Die Transformation ist so einfach, dass auch ohne Graphen klar ist, dass man alles bis hin zum monoton steigenden Preis bekommen kann.

Nun, dann kann man es nicht als Simulation bezeichnen,

und man muss sich darüber im Klaren sein, dass man alle Trends, die es gab, zerstört hat,

ebenso wie die Struktur der DEM selbst.

 
mytarmailS #:

Dann kann es sich nicht um eine Simulation handeln,

und man muss erkennen, dass man sich gegen alle bestehenden Trends gestellt hat,

ebenso wie die Struktur der DEM.

Ich bin sicher, dass ich weit weniger zerstört habe als die Alternativen. Aber es war genug.

Was die Struktur betrifft, so beruht diese Methode auf dem Gesetz der großen Zahlen, auf dem die Struktur beruht. Sie ist genau für die Fälle gedacht, in denen es Dutzende von Millionen von Originaldaten gibt.


Ich will mich nicht selbst loben, aber ich bezweifle stark, dass es eine solche Arbeit mit Ticks und so mächtigen Invarianten gibt: Zeit, Streuung, absolutes Inkrement (als Folge davon - fat tails, Nicht-Stationarität, Korrelationen usw.). D.h., es gibt hundert Millionen Invarianten der Eingangsdaten. Kein Vergleich zu den "100" statistischen Merkmalen der Modelle.


Trotz dieser einzigartigen Merkmale der Randomisierung wurde sofort ein Test gefunden, der unmissverständlich die Frage beantwortet, womit wir es zu tun haben: Randomisierung oder Realität.


Hier gibt es nichts zu argumentieren oder zu diskutieren. Es wird nicht nur ein Unterschied zwischen SB und Realität nachgewiesen, sondern ein subtiler Unterschied zwischen der ursprünglichen Serie und der Randomisierung. Der Wert liegt in dem Gegenbeispiel.

 
fxsaber #:

Sieht so aus, als hätte ich eine interessante Zufallsgeneration.


Coole Idee! Ich muss nur noch herausfinden, wie ich sie nutzen kann 😆 Im Wesentlichen stellt sich heraus, dass es sich um einen Preis-BP mit denselben Sitzungseigenschaften und derselben Volatilität wie der reale Preis handelt, aber stationär. Mit konstantem Erwartungswert und offensichtlich konstanter Varianz. Und die Schwänze sind gaußförmig. Gleichzeitig ist der Gewinn im Durchschnitt gleich Null abzüglich des gesamten Spreads.

 
fxsaber #:

Ich bin sicher, dass ich weit weniger zerstört habe als die Alternativen. Aber es war genug.

Ich glaube, Sie überschätzen diese Methode, vielleicht übersehe ich etwas.

Grund der Beschwerde: