Von der Theorie zur Praxis - Seite 336

 
Alexander_K2:

Letzter Beitrag für heute.

Also. Die brennendste Frage, die Novaja einst stellte:

Warum sollte der aktuelle Tick-Flow, der eigentlich ein Erlang-Flow ist, in einen exponentiellen Flow umgewandelt werden, um dann zum gleichen, aber bereits deutlich verzerrten Flow zurückzukehren?

Ich stimme zu - hier ist ein Fehler gemacht worden. Man sollte mit dem vorhandenen Tick-Flow arbeiten und weitere Transformationen über diesen natürlichen, nicht künstlichen Quellfluss durchführen.

Der Algorithmus der Umwandlung sieht also wie folgt aus:

1. Wir nehmen den anfänglichen Tick-Stream, lesen aber stattdessen jeden zweiten Tick - sehen Sie sich die erhaltenen Verteilungen für Zeitintervalle und Inkremente an.

2. ... jedes dritte Häkchen wird gelesen - wir betrachten die Verteilungen.

3. ...

Bis die Verteilung der Zeitintervalle einen klaren, ausgeprägten Erlang-Fluss annimmt, der die Formeln für die Wahrscheinlichkeitsdichtefunktion erfüllt, und die Verteilung der Inkremente sich immer mehr einer Normalverteilung annähert.

Das werde ich tun, und ich werde Ihnen die Ergebnisse mitteilen.

Ich danke Ihnen für Ihre Aufmerksamkeit.

Dies ist erst der Anfang jahrelanger mühsamer Forschung, die auf Hypothesen beruht und viele Doppelpunkte enthält.

und die Schlussfolgerungen sind wie ein Gral...

es ist wie ein Gral...

 
Alexander_K2:

Letzter Beitrag für heute.

Also. Die brennendste Frage, die Novaja einst stellte:

Warum sollte man den aktuellen Tick-Flow, der eigentlich ein Erlang-Flow ist, in einen exponentiellen Flow umwandeln, um dann wieder zum gleichen, aber bereits deutlich verzerrten Flow zurückzukehren?

Ich stimme zu - hier ist ein Fehler gemacht worden. Man sollte mit dem vorhandenen Tick-Flow arbeiten und weitere Transformationen über diesen natürlichen, nicht künstlichen Quellfluss durchführen.

Der Algorithmus der Umwandlung sieht also wie folgt aus:

1. Wir nehmen den anfänglichen Tick-Stream, lesen aber stattdessen jeden zweiten Tick - sehen Sie sich die erhaltenen Verteilungen für Zeitintervalle und Inkremente an.

2. ... jedes dritte Häkchen wird gelesen - wir betrachten die Verteilungen.

3. ...

Bis die Verteilung der Zeitintervalle einen klaren, ausgeprägten Erlang-Fluss annimmt, der die Formeln für die Wahrscheinlichkeitsdichtefunktion erfüllt, und die Verteilung der Inkremente sich immer mehr einer Normalverteilung annähert.

Das werde ich tun, und ich werde Ihnen die Ergebnisse mitteilen.

Ich danke Ihnen für Ihre Aufmerksamkeit.

Indem Sie jeden 2., dann jeden 3. und so weiter jeden n-ten Tick ablesen, erhalten Sie tatsächlich ein Diagramm der Schlusskursbereiche.

Und die Verteilungen aus dieser Tabelle habe ich Ihnen bereits erläutert.

Zu Beginn nimmt der zentrale Peak ab, er beginnt sich der Normalverteilung anzunähern, und dann wird die Verteilung bimodal.

Um den Prozess zu verstehen, muss man ihn an den Rändern untersuchen, und die Randmaße sind, dass man bei n=1 in die Nähe einer lognormalen Verteilung kommt und mit zunehmendem n näher an n=100 eine bimodale Verteilung hat. Das bedeutet, dass die Verteilung schon immer bimodal war, nur dass sie sich aufgrund der Diskretion bei kleinen n überschneidet und das Bild nicht klar ist.

Ihre Forschung ist also eine Erfindung des Fahrrads.

 
Yuriy Asaulenko:

Nein, so kann man keinen Elefanten verkaufen.

A_K2 zeichnet sich durch das völlige Fehlen einer systematischen Herangehensweise und des Eingehens auf die Details aus. Welche Details gibt es, wenn es keine Vision des Ganzen gibt?

Darüber hinaus.

Ich wünsche mir aufrichtig, dass A_K2 etwas produziert, das tatsächlich funktioniert. Nach seinen Beiträgen zu urteilen, wird es aber auch dieses Mal ein Fehlschuss sein.

Der Fortschritt, die Wissenschaft und die Technologie sind immer von einfachen Formen (Beschreibungen) zu komplexeren Formen übergegangen. Und es muss gesagt werden, dass bereits die einfachen Lösungen recht gut funktionierten.

Wenn Sie noch nie ein Auto entworfen haben, ist es aussichtslos, mit einem Mercedes anzufangen. Sie sollten mit etwas Einfachem anfangen, etwas wie Zhiguli - die Prinzipien sind die gleichen wie bei Mercedes, aber alles ist viel einfacher. Wenn Ihr Zhigul in Bewegung kommt, können Sie es verbessern, modernisieren, verkomplizieren und auf das Mercedes-Niveau bringen. Erinnern Sie sich daran, wie koreanische Autos vor 15 Jahren aussahen - man kann nicht anders, als zu weinen.

Es sieht so aus, als ob A_K2 wieder begonnen hat, Mercedes zu entwerfen.) Es könnte mindestens Zhigul für 4 vorherige Monate gebaut werden - es braucht keine Wissenschaft, um es zu entwerfen, und technische Lösungen sind genug).

 
Alexander_K2:

Man muss mit dem vorhandenen Tick-Strom arbeiten und weitere Transformationen an diesem natürlichen Quellstrom vornehmen, nicht an einem künstlichen.

Ich habe mich bereits schriftlich an Sie gewandt, aber anscheinend ist meine Stimme nicht ausreichend.
Ihre "echten Ticks" sind etwas Ungewöhnliches. Ich weiß nicht, was sich hinter diesem "DDE" verbirgt, aber es ist ganz und gar nicht der willkürliche Müll, den Forex Dilling normalerweise liefert. Immerhin sind die Zecken zehnmal seltener als sonst, was schon beunruhigend ist. Die erste Tasche auf Ihrem Histogramm sollte ~200ms sein, nicht eine Sekunde.

Bitte geben Sie ein paar tausend zuletzt erhaltene Ticks in die csv-Datei ein, keine Ausdünnung, kein Auffüllen von Leerstellen mit vergangenen Werten, sondern nur die Preise, die gekommen sind. Vielleicht kann jemand sie verwenden und bestätigen, dass diese Werte für den Handel viel akzeptabler sind als üblich. Und dann wird vielleicht die kollektive Intelligenz in diesem Thread vorschlagen, wie man einen Gral mit ihnen in einem Dutzend Zeilen mql-Code machen kann.

 
Alexander_K2:

Und Sie müssen nichts umwandeln? Ich glaube es nicht!!!!!!!! Das ist uninteressant.

Das Prinzip der Big-Data-Verarbeitung besteht immer darin, mit Rohdaten zu arbeiten, die ein Maximum an Informationen enthalten, aber verschiedene Metriken hinzuzufügen oder sie zu verkleinern, ohne Informationen zu verlieren.

Wenn man anfängt, die Informationen zu vermischen, ist es offensichtlich, dass der Wert und die Angemessenheit solcher Algorithmen sofort abnimmt.

 
Alexander_K2:

Aber vor sechs Monaten haben wir besprochen, dass die erste Priorität darin besteht, die unterschiedlichen Tick-Flows der verschiedenen Broker in eine einzige universelle Ansicht zu bringen. Nein?

Das eine widerspricht dem anderen nicht.

Eine universelle Sichtweise bedeutet nicht, dass es notwendig ist, sie auf den gleichen Tick-Flow zu bringen...
 

Danke, hier ist ein Vergleich der Verteilungen der Gewinne und Autokorrelationen für die letzten 1000 audcad-Gebotswerte. In der obersten Zeile stehen Ihre Zecken. Die untere Zeile zeigt den Inhalt des Terminals. Es gibt einen Unterschied, aber ich kann aus den Tabellen nicht erkennen, was besser ist. Mir gefällt, dass der Histogramm-Peak nicht wie im Terminal abgekürzt wird.

Einige Stationaritätstests:

Ihre Zecken sind.

> Box.test(pricesDiff, lag=20, type="Ljung-Box")

        Box-Ljung test

data:  pricesDiff
X-squared = 39.466, df = 20, p-value = 0.005832

> adf.test(pricesDiff, alternative = "stationary")

        Augmented Dickey-Fuller Test

data:  pricesDiff
Dickey-Fuller = -11.556, Lag order = 9, p-value = 0.01
alternative hypothesis: stationary

> kpss.test(pricesDiff)

        KPSS Test for Level Stationarity

data:  pricesDiff
KPSS Level = 0.44326, Truncation lag parameter = 7, p-value = 0.05851


Und die im Terminal:

        Box-Ljung test

data:  pricesDiff
X-squared = 29.181, df = 20, p-value = 0.08426

> adf.test(pricesDiff, alternative = "stationary")

        Augmented Dickey-Fuller Test

data:  pricesDiff
Dickey-Fuller = -10.252, Lag order = 9, p-value = 0.01
alternative hypothesis: stationary

> kpss.test(pricesDiff)

        KPSS Test for Level Stationarity

data:  pricesDiff
KPSS Level = 0.3404, Truncation lag parameter = 7, p-value = 0.1


Der p-Wert in Ihrem Box-Ljung-Test ist um eine Größenordnung niedriger, was gut ist.


Und das Wichtigste: Ihre Zecken sind ein Prozess mit Gedächtnis, er ist sehr unmarkiert. Ich weiß nicht, wie ich es in Zahlen ausdrücken soll, aber in meinem Modell sind Ihre Zecken leichter vorherzusagen als normale Zecken.


Ich frage mich, ob es noch andere Tests gibt, um die Vorhersehbarkeit zu beurteilen?

 

Abstände zwischen den Ticks aus Alexanders Datei 01AUDCAD_Real 14400 (in 1-Sekunden-Schritten)


 
Alexander_K2:

Wenn das der Fall ist, dann sollte natürlich jeder nur in einem diskreten Strom von Zitaten wie dem meinen arbeiten und das war's. Ist das nicht richtig?

Das habe ich vor einem Monat auch gedacht. Da Sie eine logarithmische Verteilung (oder Pascal) hatten, wollte ich auch eine erhalten, indem ich ausdünnte, um gut zu werden. Nach ein paar Wochen und dem Versuch "Ich ändere p auf 0,71 statt 0,72 und es wird schon gehen". - Ich habe es nie richtig hinbekommen, es ist alles nur ein Maßband, keine Wissenschaft.

Die Verteilung der Kursgewinne und die Zeitpausen sind nur die Folgen. Das Wichtigste ist, einen stationären, nicht markovianischen Prozess zu erhalten. Und je stationärer und nicht markovianischer, desto besser. Ich denke, dies ist die erste notwendige Transformation mit der Anforderung der nicht-Markov'schen Stationarität, und es spielt keine Rolle, welche Verteilungen sie erzeugt.
Ich habe keine Ahnung, wie man diese nicht-Markov'sche Stationarität erreichen kann, aber es scheint der richtige Weg zu sein.

Für eine solche ausgedünnte Serie kann man dann versuchen, eine zweite Umrechnung gemäß der Handelsstrategie vorzunehmen. So erreichen Sie eine Bandbreite an Retouren, wie Sie es sich für Ihr Modell gewünscht haben. Hier hängt die Umwandlung von Ihrer Strategie ab, Sie können Merkmale erstellen und Neuronen trainieren, anstatt die zweite Ausdünnung durchzuführen.


p.s. -"Nicht-Markovsche Stationarität" ist eine rein persönliche, profane Bezeichnung für diese Eigenschaft. In der Wissenschaft wird es wahrscheinlich anders genannt.

 
Novaja:

Abstände zwischen den Ticks aus Alexanders Datei 01AUDCAD_Real 14400 (Diskretion von 1 Sek.)

Nach dem Diagramm von vor ein paar Seiten zu urteilen, hat sich die Spitze von 0 auf 1 verschoben. Ich denke, es hängt von dem gehandelten Paar ab (audcad und cadjpy)


Alexander_K2:

Ich denke, es handelt sich um eine Pascal-Verteilung mit r=2, p=0,5, q=0,5

Ich habe versucht, die Pascalsche Verteilung mit solchen Parametern in R zu zeichnen, aber es hat nicht geklappt. Aber es gibt auch andere Schreibweisen anstelle von r,p,q, vielleicht habe ich etwas durcheinander gebracht.