Gedanken über den Zufall

 

Guten Tag!

Ich schreibe dies und frage mich, wie ich niemanden beleidigen oder eine Überschwemmung provozieren kann. Ich hoffe, konstruktiv zu sein, und ich frage nur (ich will nicht beweisen, nicht widerlegen, ich will nur einen Dialog).

Nimmt man eine Reihe von Kursen über viele Jahre hinweg und erstellt auf ihrer Grundlage eine Datei mit Nullen und Einsen: eine Null, wenn der nächste Kurs größer ist als der vorherige; eine Eins, wenn es umgekehrt ist - so erhält man eine pseudo-zufällige Folge. Nennen Sie es vorerst vorsichtig mit dem Präfix "pseudo".

Außerdem generieren wir ideale Trades auf der Grundlage der Pseudo-Zufallssequenz: Wenn 1, kaufen wir und steigen beim nächsten Balken aus, wenn 0, verkaufen wir und steigen beim nächsten Balken aus. Das sich daraus ergebende Aktienchart ist fast eine flache, nach oben gerichtete Linie (einschließlich des Spreads).

Nun eine Frage: Wenn wir versuchen, unsere Pseudo-Zufallsfolge mit Hilfe der Monte-Carlo-Simulation zu wiederholen, in der Erwartung, dass wir dasselbe Ergebnis wie im ersten Schritt erzielen, d. h. ideale Einträge, was werden wir erhalten? Rechnen wir: Es gibt 60.000 Stundenbalken, also gibt es 2^60.000 (!) verschiedene mögliche Reihen von Nullen/Einheiten. Nur einer von ihnen beschreibt die Eingaben perfekt. Es ist ziemlich klar, dass wir, selbst wenn wir den Computer mit 100 Billionen Generationen belasten, wahrscheinlich nicht das gewünschte Ergebnis erhalten werden. Jedes Mal gleicht unser resultierendes Eigenkapital einem Abfluss mit der Rate der Streuung. Und es (das Ergebnis) ist in der Natur zu finden! Wir haben es in unserer Geschichte. Mit anderen Worten, wir hecheln, zählen und rauchen, finden nichts und sagen: "Ok, das Problem ist nicht gelöst, ich gehe ins Bett. Erinnert Sie das nicht an das Problem der Wahrscheinlichkeit von Leben in unserem Universum? Sie scheint vergleichbare Wahrscheinlichkeitswerte in mehreren Größenordnungen zu haben.

Ich habe den allgemeinen Kontext dargelegt, es gibt eine Menge zu bedenken. Zu welcher Klasse von Problemen gehört meine Idee sozusagen?

 

Der Punkt ist, dass der Markt keine Pseudo-Zufallsfolge oder eine Zufallsfolge ist. Es gibt Muster auf dem Markt. Und wenn es Muster gibt, handelt es sich nicht mehr um eine zufällige Abfolge.

Ein klares Beispiel dafür sind Trends und flache Muster. Dies sind Regelmäßigkeiten.

Daher ist es sinnlos, etwas im Bereich der Zufälligkeit zu generieren und es mit dem Markt zu vergleichen....)))

 

1) Nr.: https://www.mql5.com/ru/code/8790

2) Möglicherweise irgendwo ja: https: //c.mql5.com/mql4/forum/2012/11/predict.gif

 
Ja, wir sprechen von reiner Anpassung und versuchen dann, eine ähnliche Reihe von Signalen künstlich zu erzeugen. Wenn wir akzeptieren (und ich glaube), dass die Zitate selbst nicht zufällig sind, dann ist rohe Gewalt ideologisch falsch, aber die Frage ist, wo die Grenzen der Anwendung dieses Ansatzes auf solche Aufgaben liegen.
 
Ich danke Ihnen.
 
alexeymosc:

Guten Tag!

Ich schreibe dies und frage mich, wie ich niemanden beleidigen oder eine Überschwemmung provozieren kann. Ich hoffe, konstruktiv zu sein, und ich frage nur (ich will nicht beweisen, nicht widerlegen, ich will nur einen Dialog).

Nimmt man eine Reihe von Kursen über viele Jahre hinweg und erstellt auf ihrer Grundlage eine Datei mit Nullen und Einsen: eine Null, wenn der nächste Kurs größer ist als der vorherige; eine Eins, wenn es umgekehrt ist - so erhält man eine pseudo-zufällige Folge. Nennen Sie es vorerst vorsichtig mit dem Präfix "pseudo".

Außerdem generieren wir ideale Trades auf der Grundlage der Pseudo-Zufallssequenz: Wenn 1, kaufen wir und steigen beim nächsten Balken aus, wenn 0, verkaufen wir und steigen beim nächsten Balken aus. Das sich daraus ergebende Aktienchart ist fast eine flache, nach oben gerichtete Linie (einschließlich des Spreads).

Nun eine Frage: Wenn wir versuchen, unsere Pseudo-Zufallsfolge mit Hilfe der Monte-Carlo-Simulation zu wiederholen, in der Erwartung, dass wir dasselbe Ergebnis wie im ersten Schritt erzielen, d. h. ideale Einträge, was werden wir erhalten? Rechnen wir mal: Es gibt 60.000 Stundenbalken, also gibt es 2^60.000 (!) verschiedene mögliche Reihen von Nullen/Einheiten. Nur eines von ihnen beschreibt die Eingaben perfekt. Es ist ziemlich klar, dass wir, selbst wenn wir den Computer mit 100 Billionen Generationen belasten, wahrscheinlich nicht das gewünschte Ergebnis erhalten werden. Jedes Mal gleicht unser resultierendes Eigenkapital einem Abfluss mit der Rate der Streuung. Und es (das Ergebnis) ist in der Natur zu finden! Wir haben es in unserer Geschichte. Mit anderen Worten, wir hecheln, zählen und rauchen, finden nichts und sagen: "Ok, das Problem ist nicht gelöst, ich gehe ins Bett. Erinnert Sie das nicht an das Problem der Wahrscheinlichkeit von Leben in unserem Universum? Sie scheint vergleichbare Wahrscheinlichkeitswerte in mehreren Größenordnungen zu haben.

Ich habe den allgemeinen Kontext dargelegt, es gibt eine Menge zu bedenken. Zu welcher Klasse von Problemen gehört meine Idee sozusagen?


Irgendwie hatte ich selbst eine ähnliche Idee. Wenn man sich ein Zitat als eine binäre Reihe vorstellt, ist es dann möglich, den Prozess zu entschlüsseln, der es erzeugt? Technisch gesehen wird eine Pseudo-Zufallsfolge durch ein Schieberegister mit linearer Rückkopplung (RSLOS) erzeugt. Unsere Aufgabe bei der Dekodierung besteht also darin, das LCLOS zu finden, das unsere Pseudo-Zufallsfolge erzeugt hat. Dieses Problem wird durch den Burlecamp-Massey-Algorithmus gelöst. Ich habe versucht, eine Preisangabe mit diesem Algorithmus zu entschlüsseln, aber es hat nicht funktioniert, obwohl es nicht viel Zeit gekostet hat. Interessanterweise kann man den gleichenBurlecamp-Massey-Algorithmus verwenden, wenn man die analogen Werte nicht durch binäre Einsen ersetzt und versucht, den Erzeugungsprozess unserer analogen Pseudozufallszahlenreihe zu entschlüsseln.In diesem Fall ist der erzeugende Prozess das autoregressive Modell von Prony x[n] = SUM a[k]*x[n-k]. Neben demBurlecamp-Massey-Algorithmus wäre auch der Levinson-Durbin-Algorithmus robuster. Das Problem mit dem analogen AR-Modell von Prony ist, dass es im Gegensatz zum binären RSLOS instabil ist und seine Vorhersagen schnell ins Unendliche gehen können. Wir können die Instabilität überwinden, indem wir annehmen, dass unser Pseudo-Zufallsquotient Rauschen hat. Anstelle eines AR-Modells, das alle historischen Daten mit einem Fehler von Null reproduziert, können wir ein approximatives AR-Modell verwenden, das z. B. mit der Methode von Bourg gelöst wird. Dies ist ein ökonometrisches Problem. Interessanterweise ist die Suche nach dem exakten Prony-Modell gleichbedeutend mit der Anpassung der Exponentialsumme SUM C[k]*EXP(B[k]*k) an unsere Reihe, wobei B[k] sowohl einen negativen als auch einen positiven Realteil haben kann (der positive Teil führt zu Instabilitäten). Das approximierte AR-Modell von Burg löst das gleiche Problem durch die Anpassung gedämpfter Exponenten. Kurz gesagt, wenn wir den Weg der Entschlüsselung einer Preisreihe gehen, gelangen wir zu ökonometrischen AR-Modellen.
 
Wow, super. Genau darüber habe ich in Embrio nachgedacht.
 
Und was die Tatsache betrifft, dass es nicht geklappt hat, habe ich über die geringe Wahrscheinlichkeit geschrieben. Das Problem kann nicht mit normalen Mitteln gelöst werden. Hier wäre ein Quantencomputer nützlich, um die Idee zu überprüfen. (Entschuldigung für das Format der Antworten, ich kämpfe mit meinem Tablet.)
 
Die Abfluggeschwindigkeit des Flugzeugs beträgt 200 km/h. Das Flugzeug befindet sich auf einem Laufband, das sich mit einer höheren Geschwindigkeit als der Startgeschwindigkeit bewegt. Wird sie sich durchsetzen?
 
mit der gleichen Geschwindigkeit wie die Strecke abheben
 
FAQ:
mit der gleichen Geschwindigkeit wie die Strecke abheben


Geschwindigkeit relativ zu was?
Grund der Beschwerde: