Bernoulli, Moab-Laplace-Theorem; Kolmogorov-Kriterium; Bernoulli-Schema; Bayes-Formel; Tschebyscheff-Ungleichungen; Poisson-Verteilungsgesetz; Theoreme von Fisher, Pearson, Student, Smirnov usw., Modelle, einfache Sprache, ohne Formeln. - Seite 8

 
Mathemat:
Machen Sie, was Sie wollen. Ich kann Ihnen keinen Rat geben, da ich die Merkmale des Tickings nicht kenne.

Es geht nicht darum, einen echten Zeckenprozess zu simulieren. Im Gegenteil, alles, was ich bisher brauche, sind die klassischen Normalverteilungen in Form von OHLC. Grob gesagt läuft das Problem darauf hinaus, High und Low zu bestimmen, wenn Open = Close-1 und Close = sqrt(N), wobei N die Anzahl der Ticks ist.
 
C-4:

Es geht nicht darum, einen echten Zeckenprozess zu simulieren. Im Gegenteil, alles, was ich bisher brauche, ist eine klassische Normalverteilung in OHLC-Form. Grob gesagt besteht das Problem darin, High und Low zu bestimmen, wenn Open = Close-1 und Close = sqrt(N), wobei N die Anzahl der Ticks ist.

Soweit ich mich erinnere, ist bei einer zufälligen Serie die Länge des Kerzenkörpers (|Close-Open|) gleich der durchschnittlichen Summe der oberen und unteren Schattenlängen. Nachdem wir also Close als sqrt(N) modelliert haben, modellieren wir die obere Schattenlänge als |sqrt(N/4)| und in ähnlicher Weise den unteren Schatten. Dies ist natürlich eine Variante des symmetrischen sb (mo=0). Bei der asymmetrischen Variante ist es etwas anders
 
Avals:

Soweit ich mich erinnere, ist bei einer Zufallsreihe die Kerzenkörperlänge gleich der durchschnittlichen Summe der oberen und unteren Schattenlängen. Nachdem wir also Close als sqrt(N) modelliert haben, modellieren wir die obere Schattenlänge als |sqrt(N/4)| und in ähnlicher Weise den unteren Schatten. Dies ist natürlich eine Variante des symmetrischen sb (mo=0). Bei einem asymmetrischen Modell ist es etwas anders

aber nein, es wird falsch sein. Denn die Länge des Leuchterkörpers und die Länge des Schattens sind voneinander abhängig. Deshalb ist es besser, viele Candlesticks zu erzeugen und dann eine neue Serie als beliebige Candlestick aus dieser Menge zu erhalten, als nach einer analytischen Verteilung der Schatten zu suchen
 

Ich dachte mir, warum es nicht einfacher machen: wir nehmen vier generierte Werte: der erste wird die Differenz zwischen Open und Low sein, die Summe des zweiten und dritten wird die Differenz zwischen Low und High sein, und der vierte wird die Differenz zwischen High und Close sein:

Bei großen Datenmengen konvergiert Close zu Open, und die High-Low-Spanne hat die doppelte Varianz des Wertes der Segmente (vier Zahlen mit einer bestimmten Varianz).

 
C-4:

Es geht nicht darum, einen echten Zeckenprozess zu imitieren. Im Gegenteil, alles was ich brauche, ist die klassische Normalverteilung in Form von OHLC. Grob gesagt, besteht die Aufgabe darin, High und Low zu bestimmen, wenn Open = Close-1 und Close = sqrt(N) ist, wobei N die Anzahl der Ticks ist.

Es war einmal, vor langer Zeit, als ich zufällige künstliche Zitate erstellte. Ich habe folgendes gemacht - für jede Minute habe ich 3 unabhängige Zufallsvariablen H, L und dlt gefunden - Verschiebung pro Takt. Ich finde sie nach der Gaußschen Methode (in Punkten) mit einer erwarteten Auszahlung von Null und einer bestimmten Varianz. Gleichzeitig habe ich den erhaltenen Wert modulo genommen. Auch die Richtung der Verschiebung - sgn - habe ich zufällig gewählt, 50/50. Also Close = Open+sgn*dlt, um Hg zu finden, habe ich den größeren Wert von (Open, Close) genommen und H dazu addiert; um Lw zu finden, habe ich den kleineren Wert von (Open, Close) genommen und L davon subtrahiert.

Natürlich werden die erhaltenen Zitate mit realen verglichen (allerdings auf der Ebene der subjektiven Wahrnehmung). Ich war damals erstaunt, dass die einzige Größe, die die "Ähnlichkeit" von künstlichen Kursen mit echten Kursen definiert, die Offset-Varianz - dlt - ist. Damit sie den natürlichen Kegelschnitten ähnelt, muss die Abweichung sehr gering sein, d. h. die meisten der winzigen Abweichungen müssen gleich Null sein. Andernfalls würde ein extrem volatiler Markt entstehen. Die Varianz von Hg und Lw beeinflusste den Grad der "Zotteligkeit" der Quoten. Um einen Trend zu imitieren, habe ich die Wahrscheinlichkeit der Richtungswahl leicht verändert - 49/51 - wir haben einen starken Trend, wenn wir ihn an einem Tag betrachten.

Als Ergebnis erhielten wir ein sehr einfaches Modell der Erzeugung verschiedener Modi - ich brauchte einen hochvolatilen Trend - ich erhöhte die Varianz der Verschiebung und änderte die Wahrscheinlichkeit der Richtung. Ich brauchte eine Wohnung mit geringer Volatilität - ich habe die Verschiebungsvarianz sehr klein gemacht und die Richtung 50/50.

 
C-4:

Ich dachte mir, warum es nicht einfacher machen: wir nehmen vier generierte Werte: der erste wird die Differenz zwischen Open und Low sein, die Summe des zweiten und dritten wird die Differenz zwischen Low und High sein, und der vierte wird die Differenz zwischen High und Close sein:

Bei großen Datenmengen konvergiert Close zu Open, und die High-Low-Spanne hat die doppelte Varianz des Wertes der Segmente (vier Zahlen mit einer bestimmten Varianz).

Sind die Ideen von botscar unpassend?
 
C-4:
...Aber es ist eine sehr langsame und sinnlose Methode.

Es ist nicht so langsam, dass Sie keine Zeit hätten, sich eine Zigarette anzuzünden.

 
faa1947:
Sind Bootsrap-Ideen unangemessen?


Was ist Bootsrap?

Ganzzahlig:

Nicht so langsam, dass Sie keine Zeit mehr haben, sich eine Zigarette anzuzünden.

Ich werde versuchen, es in reinem C# zu implementieren.
 

Ich habe eine Frage zu diesem Thema

Ich versuche, den Anwendungsbereich der folgenden Ausschüttungen zu verstehen:

Verallgemeinerte Pareto-Verteilung(GPD) und Extremwert-Verteilung(GEV)

Wie verhalten sich diese Verteilungen zueinander, zu einer Normalverteilung bzw. zu einer Gleichverteilung? Mit anderen Worten: Wie kann es im wirklichen Leben zu den Ereignissen kommen, die sie beschreiben?

 
C-4:


Was ist Bootsrap?


Die gibt es in VIKI.

Die Idee besteht darin, eine zufällig verfügbare Stichprobe zu tauschen, um eine Konvergenz der Häufigkeiten mit der Wahrscheinlichkeit der in der Stichprobe verfügbaren Parameter zu erreichen.