FR H-Volatilität - Seite 10

 

Ich weiß nicht, wie man, vor allem in einem frühen Stadium, das Aufkommen von Willkür erkennen kann.

Der Eingang des Netzes sollte das N-vorletzte Segment des WP sein, und der Ausgang sollte das letzte Segment des WP sein. Bei einer geeigneten Netzkonfiguration, einer geeigneten Wahl der Aktivierungsfunktion und erfolgreichem Training wird das Netz, wenn nur N letzte Segmente in den Eingang eingespeist werden, diese N und auch das nächste (d. h. kommende) Segment wiederfinden. Es gibt nichts an der Richtung zu rütteln - sie ist klar wie sie ist, aber die Größe ...

Vielleicht kommt ja etwas dabei heraus.

 
Yurixx:

Ich weiß nicht, wie man, vor allem in einem frühen Stadium, das Aufkommen von Willkür erkennen kann.

Der Eingang des Netzes sollte das N-vorletzte Segment des WP sein, und der Ausgang sollte das letzte Segment des WP sein. Bei einer geeigneten Netzkonfiguration, einer geeigneten Wahl der Aktivierungsfunktion und erfolgreichem Training wird das Netz, wenn nur N letzte Segmente in den Eingang eingespeist werden, diese N und auch das nächste (d. h. kommende) Segment wiederfinden. Es gibt nichts an der Richtung zu rütteln - sie ist klar wie sie ist, aber die Größe ...

Vielleicht kommt ja etwas dabei heraus.


Und welche Form von Zickzack ist besser, absolut oder relativ? Und muss es normalisiert werden? Ich glaube, ich brauche eine Kohonen-Ebene und den Grossberg-Stern. Ich kann mich aber auch irren.
 
Vinin:
...ich finde, das schreit nach einer Kohonen-Schicht und einem Grossberg-Stern.

Und die Ehrenmedaille.)
Vinin, was ist ein Grossberg-Stern?

Yurixx, schlagen Sie ein NS-Blockdiagramm für diesen Fall vor, ich würde gerne darüber nachdenken.

 
Neutron:
Vinin:
...ich glaube, die Kohonen-Schicht und der Grossberg-Stern verlangen danach.

Und die Ehrenmedaille :-)
Vinin, was ist das für ein Stern?

Yurixx, schlagen Sie ein NS-Blockdiagramm nach Ihrem Ermessen für diesen Fall vor. Ich würde gerne darüber nachdenken.


Es ist ungefähr hier http://ann.hotmail.ru/vs03.htm

Aber ich werde mich wiederholen (obwohl ich es nicht mehr bin), nur ein Zitat:

Beim Training eines Counterpropagation-Netzes werden Eingangsvektoren mit entsprechenden Ausgangsvektoren verknüpft. Diese Vektoren können binär oder kontinuierlich sein. Nach dem Training erzeugt das Netz Ausgangssignale, die den Eingangssignalen entsprechen. Die Allgemeingültigkeit des Netzes ermöglicht es, die richtige Ausgabe zu erhalten, wenn der Eingangsvektor unvollständig oder verzerrt ist.
Im Lernmodus wird das Eingangssignal in das Netz eingespeist und die Gewichte werden so korrigiert, dass das Netz das gewünschte Ausgangssignal erzeugt.
Die Kohonen-Schicht funktioniert nach der "Winner takes all"-Regel. Für einen gegebenen Eingangsvektor produziert nur ein Neuron dieser Schicht eine logische Eins, alle anderen produzieren Nullen. Die Ausgabe jedes Kohonen-Neurons ist einfach die Summe der gewichteten Elemente der Eingangssignale.
Die Ausgabe der Neuronen der Grossberg-Schicht ist ebenfalls eine gewichtete Summe der Ausgaben der Neuronen der Kohonen-Schicht. Aber jedes Neuron der Grossberg-Schicht erzeugt ein Gewicht, das dieses Neuron mit dem einzigen Kohonen-Neuron verbindet, dessen Ausgang ungleich Null ist.
In der Vorverarbeitungsphase werden die Eingangssignale für die Eingangsvektoren normalisiert.
In der Lernphase klassifiziert die Kohonen-Schicht die Eingangsvektoren in Gruppen von ähnlichen Vektoren. Dies geschieht, indem die Gewichte der Kohonen-Schicht so angepasst werden, dass ähnliche Eingangsvektoren das gleiche Neuron der Schicht aktivieren. Welches Neuron durch ein bestimmtes Eingangssignal aktiviert wird, lässt sich im Voraus nur schwer vorhersagen, da die Kohonen-Schicht ohne Lehrer lernt.
Die Aufgabe der Grossberg-Schicht ist es dann, die gewünschten Ausgaben zu produzieren. Das Training der Grossberg-Schicht ist lehrerunterstütztes Lernen. Die Ausgänge der Neuronen werden wie im normalen Betrieb berechnet. Dann wird jedes Gewicht nur dann korrigiert, wenn es mit einem Kohonen-Neuron verbunden ist, das einen Ausgang ungleich Null hat. Die Höhe der Gewichtskorrektur ist proportional zur Differenz zwischen dem Gewicht und der gewünschten Ausgabe des Grossberg-Neurons.
In der Betriebsart Netzwerk wird das Eingangssignal präsentiert und das Ausgangssignal erzeugt.
Im Modell des vollständigen Gegenpropagationsnetzes ist es möglich, Ausgangssignale aus Eingangssignalen zu erzeugen und umgekehrt. Diese beiden Aktionen entsprechen der Vorwärts- und Rückwärtsausbreitung von Signalen.

 
Vinin:
Und welche Form von Zickzack ist besser, absolut oder relativ, und wird eine Normalisierung erforderlich sein? Ich glaube, es geht um die Kohonen-Schicht und den Grossberg-Stern. Ich kann mich aber auch irren.

Neutron:

Yurixx, schlagen Sie nach Ihrem Ermessen das NS-Blockdiagramm für diesen Fall vor, ich würde gerne darüber nachdenken.


Ein Flussdiagramm kann ich nicht anbieten. Die Geschichte dieses Gedankens sieht folgendermaßen aus.

Zuerst dachte ich wirklich, dass NS aus 2 Schichten bestehen sollte - Kohonen und Grosberg. Das Problem war nur, dass für kaga jedes Segment beliebig sein kann, von 1 und ... Angenommen, ich möchte N Segmente von WP eingeben und begrenzen Sigment Größe von 1 bis 50. Dann ist die Anzahl der maximalen Neuronen in der Kohonen-Schicht (vor der Clusterbildung) 50^N. Das ist eine ganze Menge. Deshalb habe ich auch an Renko gedacht. Bei H=10 variiert die Größe des ähnlichen Segments von ZZ zwischen 1 und 5. Das sind nur 5^N Neuronen - für kleine Werte von N bereits akzeptabel. Und alle Segmente, die größer als 5H sind, können mit 5H beschnitten werden.

Anschließend erkennt die Kohonen-Schicht das Muster und erregt das entsprechende Neuron. Das letzte Segment von ZZ (in diesem N nicht enthalten) wird der Grosberg-Schicht zugeführt. Die Grosberg-Schicht enthält z. B. 100 Neuronen, von denen jedes der Größe des letzten ZZ-Segments von 1 bis 100 entspricht. So wird ein Neuron der Grosberg-Schicht erregt. Während des Lernens wird das Gewicht der Verbindung vom erregten Kohonen-Neuron zum erregten Neuron der Grosberg-Schicht um 1 erhöht. Es handelt sich also nicht um ein Gegenpropagationsnetz. Aber das war mein "Plan" :-))

Und dann wurde mir klar, dass die Grosberg-Schicht nach dem Training bei der Eingabe von WP am Ausgang einfach eine Verteilungsfunktion für das zukünftige WP-Segment anzeigt. Das ist im Grunde das, was ich anstrebte. Allerdings gibt es hier 2 "Aber".

1. ich kann eine solche Verteilung viel schneller und ohne NS erstellen.

2. Die fast zweijährige Geschichte von minutiae enthält etwa 630000 Balken. Kagi ZZ mit dem Parameter H=10 hat etwa 17400 Segmente in dieser Geschichte. Und die Anzahl der Neuronen in der Kohonen-Schicht mit N=6 wird 15625 sein, d.h. es wird einen Durchschnitt von 1,1 experimentellen Werten für jedes Muster geben. Was für eine Art der Verteilung ist das? :-)

Die mit dem Übergang zur Renko-Partitionierung verbundene Clusterbildung ist also katastrophal unzureichend. Wir müssen entweder das RP mit Hilfe der Kohonen-Ebene bündeln oder (was wahrscheinlicher ist) zu konstruktiveren Ideen übergehen.

PS

Verurteilen Sie mich nicht hart, weil ich naiv bin. Meine Erfahrungen mit Netzen sind 1,5 gelesene Bücher und keine Umsetzung.

 

Ich schlage vor, dass wir mit dem einfachsten beginnen. Unterteilen wir ZZ in elementare Konstruktionen, die aus einem Scheitelpunkt bestehen. Wir normalisieren die Seiten nach der Länge des ersten Scheitelpunkts und behalten eine signifikante Stelle nach dem Komma. In diesem Fall haben wir 17400 Konstruktionen, die (für den Schritt H=10) in 50/2H*10=25 Gruppen (ungefähr) auf der Grundlage des "Seitenverhältnisses" unterteilt sind. D.h. in jeder Gruppe gibt es mehrere Hundert Muster - schon eine Statistik.

Jetzt müssen wir es nur noch in NS schreiben und herausfinden, wie der FR der vorhergesagten Bewegungslänge (grüner Vektor minus H) vom Wert des linken Randes abhängt. Nur, liebe Kollegen, NS wird für dieses Problem nicht wirklich benötigt. Oder übersehe ich etwas?

P.S. Die Abbildung rechts zeigt die PD des ZZ-Seitenverhältnisses an einem Scheitelpunkt. Dies sind H=5,10,15 und 20 Pips-Konstruktionen für EURUSD (Ticks). Es sieht so aus, als ob die Idee der Normalisierung gut ist und eine spürbare Verringerung der Dimensionalität der Eingabedaten ermöglicht.

 
Neutron:

Es bleibt noch, dies in den NS zu schieben und herauszufinden, wie der FR der vorhergesagten Bewegungslänge (grüner Vektor minus H) vom Wert des linken Randes abhängt. Nur, liebe Kollegen, NS wird für dieses Problem nicht wirklich benötigt. Oder übersehe ich etwas?

P.S. Die Abbildung auf der rechten Seite zeigt die FR des ZZ-Seitenverhältnisses an einem Scheitelpunkt. Es handelt sich um die Konstruktionen H=5,10,15 und 20 Pips für EURUSD (Ticks). Es sieht so aus, als ob die Idee der Normalisierung gut ist und eine spürbare Verringerung der Dimensionalität der Eingabedaten ermöglicht.


Ich glaube auch nicht, dass NS dafür notwendig ist. Und die Option der Normalisierung scheint sinnvoll zu sein, ich hatte sie nicht in Betracht gezogen.
 

Neutron

Ich kann mir nicht erklären, was Sie gebaut haben. Die FR (Verteilungsfunktion) sollte ein wenig anders aussehen https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9

Vielleicht ist es die SP (Wahrscheinlichkeitsdichtefunktion)? Wenn ja, können Sie etwas ausführlicher wiederholen, was auf dem rechten Diagramm zu sehen ist (was sich auf der X- und Y-Achse befindet)

 

zum Privaten

Wir haben eine Reihe von n Berechnungen durchgeführt (die Länge der rechten Seite des Zick-Zacks ausgedrückt in Einheiten der Länge der linken Seite) und eine Reihe von Werten x1,...,xi,...,xn erhalten. Dies ist die so genannte Stichprobe. Wir zeichnen die Werte xi von x auf der Abszissenachse auf. Unterteilen Sie die x-Achse in gleiche Intervalle dx und zählen Sie die Anzahl der Berechnungen nk, die dazu führen, dass die x-Werte im Intervall xk+-1/2dx liegen (dabei ist xk die Koordinate des Mittelpunkts des Intervalls auf der x-Achse). Konstruieren Sie auf jedem Intervall ein Rechteck mit der Höhe nk und der Breite dx. Das so erhaltene Diagramm wird als Histogramm bezeichnet. Sie zeigt die Dichte der Verteilung der Berechnungsergebnisse entlang der x-Achse.

Wenn die Anzahl der Berechnungen groß ist, kann die Intervallbreite klein gewählt werden (mit viel mehr Stichproben in jedem Intervall). Anstelle eines Histogramms erhalten wir dann ein Diagramm, in dem auf der Ordinatenachse ein Wert aufgetragen ist, der dem Anteil der nk/n Stichproben entspricht, die in jedes Intervall fallen. Diese Grafik wird als Verteilungskurve oder Verteilungsfunktion bezeichnet; die Funktion selbst wird als Wahrscheinlichkeitsdichtefunktion bezeichnet.

P.S. Die PDF kann normalisiert werden, in diesem Fall ist das Integral über den gesamten Bereich identisch 1.

 

Neutron

Ich danke Ihnen. Ich sehe es jetzt. Nur haben Sie die Wahrscheinlichkeitsdichtefunktion (PDF) konstruiert und nicht die PDF (Verteilungsfunktion), denn die PDF hat 3 Eigenschaften. 1. Sie (PDF) ist nicht degressiv. 2. wenn x gegen unendlich tendiert, dann tendiert die PDF gegen 1. Natürlich, wenn alles normalisiert ist. SP und PDF sind durch ein Integral verbunden (PDF ist ein Integral des SP).

Diese Grafik wird als Verteilungskurve oder Verteilungsfunktion bezeichnet und die Funktion selbst als Wahrscheinlichkeitsdichtefunktion." ist nicht ganz korrekt