NS + Indikatoren. Experiment. - Seite 4

 
Wäre es hilfreich, einen weiteren Link anzugeben, der erklärt, warum Close schwieriger vorherzusagen ist - Interessante Eigenschaften von High, Low
 
klot:
Ich habe kürzlich mit ZZ in Neuroshelle Day Trader experimentiert. Ich habe die normalisierte Differenz zwischen dem Preis und mehreren festgelegten ZZ-Extremen als Input für PNN (Klassifikator) verwendet und auch Verhältnisse von Differenzen ausprobiert (d.h. harmonische Modelle, wenn Sie wollen). NS findet Wahrheiten in einem begrenzten Zeitintervall. Ich will nicht sagen, dass es ein Gral ist, aber das System profitiert von Daten, die es noch nicht gesehen hat.


Und wie genau haben Sie den Unterschied normalisiert? Die Differenz zwischen dem Preis und dem letzten Extremwert? Oder etwas anderes? Und welchen Klassifikator haben Sie verwendet? Kohonen-Charts?

Ich bin noch nicht zu ZZ gekommen. Bisher habe ich mit Kohonen experimentiert und die Daten durch muving normalisiert. Auch im Allgemeinen ist das Potenzial sichtbar, wenn auch schwach. Ich möchte die Netzausgänge an einen "Verstärker" anschließen =)). Außerdem habe ich versucht, die Candlesticks zu klassifizieren - kodiert nach verschiedenen Methoden und geladen in den Kohonen. Im Prinzip war es auch nicht schlecht, immerhin haben ähnliche Stecker die gleichen Klassen. Aber ich habe den Dreh mit der Normalisierung noch nicht raus. Ich habe versucht, sie in die Bereiche 0+1, -1+1, sigmoidal und tangential zu konvertieren. Ich habe versucht, die Daten "wie sie sind" zu verwenden. Irgendwie konnte ich keinen Vorteil der einen oder anderen Methode erkennen.

 
Rosh, haben Sie eine Idee, warum bei einem Zufallsprozess der Wert von H+L vorhersehbar (in diesem Fall: beständig) ist?
 
Ich denke, weil es viel einfacher ist, die Spanne, die den Preis begrenzt, vorherzusagen als den Schlusskurs selbst. Außerdem denke ich, dass Sie die Wahrscheinlichkeit einer Bewegung oder Umkehrung bestimmen müssen, die über den absoluten Wert des Preises selbst hinausgeht, und wann er dort ankommen wird.
 
Neutron:
Rosh, verstehen Sie, warum H+L für einen Zufallsprozess vorhersehbar (in diesem Fall beständig) ist?

Ich dachte, es sei ganz einfach: H und L sind wie ein Konfidenzintervall für eine Zufallsvariable. Wenn sich die Zahl und das Vieh nicht ändern, dann bleibt dieses Konfidenzintervall bestehen (eine Konstante). Und Schließen ist eine Vorhersage des Wertes dieses eventuellen Wertes, und er bewegt sich zwischen H und L, deshalb ist er schwieriger vorherzusagen.
 

Ich habe dieses Verständnis nicht und habe es immer noch nicht. Prival, ich akzeptiere Ihre Hypothese nicht, dass es sich um eine Art Intervall handelt (erinnern Sie sich an die 200-Punkte-Spitze auf dem Kabel, die durch einen Tick gebildet wird?) Kein Neuronetz kann es vorhersagen, aber Fibami, denke ich, ist ziemlich wahrscheinlich...

P.S. Es ist auch nicht klar: Warum wollen so lange Haarnadeln nur nach unten gehen?

 
alexx:
klot:
Ich habe kürzlich mit ZZ in Neuroshelle Day Trader experimentiert. Ich habe eine normalisierte Differenz zwischen dem Preis und mehreren festen Extremwerten von PP in den PNN (Klassifikator) eingegeben und auch Verhältnisse von Differenzen ausprobiert (d.h. harmonische Modelle, wenn Sie wollen). NS findet Wahrheiten in einem begrenzten Zeitintervall. Ich will nicht sagen, dass es ein Gral ist, aber das System profitiert von Daten, die es noch nicht gesehen hat.


Und wie genau haben Sie den Unterschied normalisiert? Die Differenz zwischen dem Preis und dem letzten Extremwert? Oder etwas anderes? Und welchen Klassifikator haben Sie verwendet? Kohonen-Charts?

Ich bin noch nicht zu ZZ gekommen. Bisher habe ich mit Kohonen experimentiert und die Daten durch muving normalisiert. Auch im Allgemeinen ist das Potenzial sichtbar, wenn auch schwach. Ich möchte die Netzausgänge an einen "Verstärker" anschließen =)). Außerdem habe ich versucht, die Candlesticks zu klassifizieren - kodiert nach verschiedenen Methoden und geladen in den Kohonen. Im Prinzip war es auch nicht schlecht, immerhin haben ähnliche Stecker die gleichen Klassen. Aber ich habe den Dreh mit der Normalisierung noch nicht raus. Ich habe versucht, sie in die Bereiche 0+1, -1+1, sigmoidal und tangential zu konvertieren. Ich habe versucht, die Daten "wie sie sind" zu verwenden. Irgendwie konnte ich weder für die eine noch für die andere Methode einen Vorteil erkennen.


Ich führe alle meine Experimente in NSDT durch. Ich nehme die Differenzen zwischen dem Preis und dem letzten Extremwert von ZZ. Und auch zwischen letztem und vorletztem Extremum, usw... Und auch Beziehungen zwischen Differenzen, - (X-A)/(A-B), (B-A)/(B-C), (B-C)/(C-D), (X-A)/(D-A), allgemeiner Versuch, harmonische Gartley-Modelle zu bauen. Ich habe alles in ein Wahrscheinlichkeitsnetz eingefügt (es gibt mehrere Varianten in NSh). Ich habe die Werte mit NSh normalisiert, also eigentlich mit dieser Formel

(x-ma(x,n))/(3*stdev(x,n)), in letzter Zeit verwende ich immer diese Formel. Und eigentlich kann man sie zum Lernen, Überprüfen und OOS verwenden. .

 

Hier ist ein Beispiel für die Normalisierung, die ich fast überall verwende.

Sie können Close durch alles Mögliche ersetzen...

Dateien:
normalise.mq4  3 kb
 
Mathemat:

Ich habe dieses Verständnis nicht und habe es immer noch nicht. Prival, ich akzeptiere Ihre Hypothese nicht, dass es sich um eine Art Intervall handelt (erinnern Sie sich an die 200-Punkte-Spitze auf dem Kabel, die durch einen Tick gebildet wird?) Kein neuronales Netz kann es vorhersagen, aber Fibami .... Ich denke, es ist durchaus möglich...

P.S. Und noch etwas verstehe ich nicht: Warum wollen die längsten Stollen nur nach unten gehen?


Ich werde versuchen, das genauer zu erklären. H und L sind nichts anderes als ein Konfidenzintervall. Der Sl-Wert überschritt diese Grenzen nicht, sagen wir mal für einen Tag. 1 Riegel täglich. Nehmen Sie nun einfach an, dass dieser Zufallswert einem Verteilungsgesetz folgt. H und L sind ungefähr mozh+-3sko, d.h. mit einer Wahrscheinlichkeit von 0,997 liegt der Zufallswert in diesen Grenzen. In dieser Situation lassen sich H und L leichter vorhersagen, da sie nahezu konstant sind, während der Steigungswert (Close) unverändert bleibt.

Stellen Sie einfach die Wahrscheinlichkeitsdichtefunktion des Wertes dar (Sie können sie auch selbst erstellen) und markieren Sie sie als positiv+3co. Generieren Sie 1000 Werte und bestimmen Sie dadurch (Stichprobe) diese Punkte, sie sind fast konstant, aber die letzte Zahl in der Generation des Zufalls (Close). Sie können das 100 Mal machen und überprüfen.

Für Bolzen hilft vielleicht folgende Methode: Sie nehmen 10 Messungen (Ticks) vor und berechnen eine Brücke. Die beiden extremsten Werte, die im Bereich von + und - liegen, werden verworfen. Und dann können Sie diese Funktion wieder verwenden. Diese Schätzung der unbekannten Größe ist genauer, da sie gegenüber solchen anomalen Ausreißern (scheinbarer Messfehler) stabil ist.

 

Unter dem Thema Interessante Eigenschaften von High, Low sprechen wir über die "anomale" Vorhersage der (H+L)/2-Reihe. Das Paradoxon ist imaginär!

Wenn die Bedingung, dass H-L (erste Annäherung an die Instrumentenvolatilität) viel kleiner ist als (H+L)/2 (erste Annäherung an den absoluten Instrumentenpreis), dann ist (H+L)/2 äquivalent zum Mittelwertverfahren von BP mit einem gleitenden Fenster von 2. Wenn ich so darüber nachdenke, ist das schon fast eine Mittelwertbildung. Andererseits hat ein gleitender Durchschnitt IMMER einen positiven Autokorrelationskoeffizienten (CAC) zwischen benachbarten Serieninkrementen (dies kann direkt bewiesen werden). Für einen BP, der durch Integration zufälliger Gradienten gewonnen wird und folglich eine gegen Null tendierende OAC der Gradienten aufweist, wird die für seine Reihe (H+L)/2 aufgezeichnete OAC also immer ungleich Null und positiv sein! Leider erlaubt diese Tatsache keine Vorhersage von BP, da es bei der Reihe (H+L)/2 immer eine Phasenverzögerung gibt, die alles in die richtige Richtung lenkt.

Zum Beispiel so.