Marktknigge oder gute Manieren im Minenfeld - Seite 10

 

Hallo Paralocus, ich denke, du kannst gleich hier anfangen und dann sehen wir weiter.

Übrigens, für alle Interessierten: Die Strategie "Verluste einfrieren und Gewinne wachsen lassen" oder "Gewinne einfrieren und Verluste wachsen lassen" (je nachdem, ob der Markt im Trend liegt oder stagniert, je nach gewähltem Handelshorizont) ist bei der Wiederanlage von Kapital nicht optimal. In diesem Fall ist es rentabler, jeden Schritt mit Reinvestitionen zu beheben! D.h. wenn wir 10 kontinuierliche profitable Transaktionen haben, dann ist es profitabler, Provisionen an Maklerfirmen zu zahlen und sie zu reinvestieren, als eine Position die ganze Zeit zu halten und am Spread zu sparen.

Das ist das Paradoxon, von dem es nicht weit zur Bernullisierung der Transaktionen ist, und danach - zur effektiven Nutzung der Grundgleichung des Handels in der analytischen Form (im Gegensatz zu Vince) ohne Probleme mit der Parametrisierung.

 
Neutron >> :

Hallo Paralocus, ich denke, du kannst gleich damit anfangen und dann sehen wir weiter.


Ich danke Ihnen!

Ich habe drei Perceptrons auf der Eingabe (bisher drei), die die erste Schicht darstellt. Die Zusammensetzung der Schicht ist wie folgt:

Ein Perceptron für den RSI, eines für den CCI und eines für die Stochastik. Alle Eingänge und Ausgänge sind normalisiert (-1 ; +1). Die Perceptrons werden von Genetikern auf das einfachste Schema trainiert - auf Splitting.

Nun möchte ich eine zweite Schicht mit zwei Perceptrons hinzufügen, von denen eines nur für den Kauf und das andere nur für den Verkauf trainiert ist. Frage:

Reicht es aus, dass die Perzeptronen der zweiten Schicht sozusagen in ihrem eigenen Spezialgebiet trainiert werden, wobei dieselben Daten der ersten Schicht verwendet werden, oder

Die Perzeptronen der ersten Schicht müssen auch separat für den Kauf und separat für den Verkauf trainiert werden?

 
paralocus писал(а) >>

Ich danke Ihnen!

Ganz und gar nicht!

Sehen Sie, Paralocus, das NS ist im Wesentlichen ein universeller Addierer, und mathematisch macht es keinen Unterschied, ob Sie die Neuronen in der Ausgangsschicht einzeln für Verkauf oder Kauf schärfen oder die dritte Schicht aus einem einzigen Neuron mit hypertangentialer Aktivierung aufbauen, dessen Ausgangspolarität auf Kauf oder Verkauf und die Amplitude auf die Erfolgswahrscheinlichkeit (Gewissheit des Netzes darin) hinweisen wird. Unter diesem Gesichtspunkt besteht keine Notwendigkeit, die Neuronen der ersten Schicht zwangsweise zu spezialisieren - sie werden im Laufe des Trainings bestimmt, wobei zu berücksichtigen ist, dass die Rechenleistung des NS nicht zunimmt, wenn man von einer zweischichtigen zu einer dreischichtigen Architektur übergeht (mit Ausnahme einiger exotischer Fälle), und die Tatsache, dass die Länge der Trainingsstichprobe proportional zum Quadrat aller Gewichte des Netzes ist (und die Stichprobe, wenn möglich, minimal sein sollte, damit eine unmittelbare Reaktion auf die Marktereignisse erfolgt), sowie die Anwendung des Prinzips von Occams Rasiermesser (keine Notwendigkeit, unnötig zu multiplizieren).

P.S. Ja, es ist wichtig, dass die Wahrscheinlichkeitsdichte des Eingangssignals für NS den Erwartungswert Null hat und im Intervall +/-1 gleichmäßig verteilt ist (Regal). Dies erhöht die Lernfähigkeit und die Leistung des Netzes erheblich.

 
Neutron >> :

Noch nicht!

Sehen Sie, Paralocus, das NS ist im Wesentlichen ein universeller Addierer, und mathematisch gesehen macht es keinen Unterschied, ob Sie die Neuronen in der Ausgangsschicht einzeln für Verkauf oder Kauf schärfen oder die dritte Schicht aus einem einzigen Neuron mit hypertangentialer Aktivierung bilden, dessen Ausgangspolarität auf Kauf oder Verkauf und die Amplitude auf die Erfolgswahrscheinlichkeit (das Vertrauen des Netzes) hinweisen wird. Unter diesem Gesichtspunkt besteht keine Notwendigkeit, die Neuronen der ersten Schicht zwangsweise zu spezialisieren - sie werden im Laufe des Trainings bestimmt, wobei zu berücksichtigen ist, dass die Rechenleistung des NS nicht zunimmt, wenn man von einer zweischichtigen zu einer dreischichtigen Architektur übergeht (mit Ausnahme einiger exotischer Fälle), und die Tatsache, dass die Länge der Trainingsstichprobe proportional zum Quadrat aller Gewichte des Netzes ist (und die Stichprobe, wenn möglich, minimal sein sollte, damit eine unmittelbare Reaktion auf die Marktereignisse erfolgt), sowie die Anwendung des Prinzips von Occams Rasiermesser (keine Notwendigkeit, unnötig zu multiplizieren).

P.S. Ja, es ist wichtig, dass die Wahrscheinlichkeitsdichte des Eingangssignals für NS den Erwartungswert Null hat und im Intervall +/-1 gleichmäßig verteilt ist (Regal). Dies erhöht die Lern- und Leistungsfähigkeit des Netzes erheblich.

Einiges davon ist klar, aber vieles ist neu! Um nichts zu verpassen, frage ich einfach nach...

1. NS ist in der Tat ein universeller Addierer, und es macht aus mathematischer Sicht fast keinen Unterschied, ob man die Neuronen in der Ausgabeschicht einzeln für Verkauf oder Kauf schärft, oder die dritte Schicht aus einem einzigen Neuron mit hypertangentialer Aktivierung aufbaut, dessen Ausgabe von der Polarität her auf Kauf oder Verkauf und von der Amplitude her auf die Erfolgswahrscheinlichkeit (das Vertrauen des Netzes darin) hinweisen wird.

Das mit dem Addierer verstehe ich, aber was ist mit dem Neuron mit hypertangentialer Aktivierung - was ist das für ein Biest? Ich normalisiere Eingänge und Ausgänge mit Sigmoid, und um sicherzustellen, dass das Signal an Eingängen und Ausgängen korrekt ist (-1<max und Minima < +1), habe ich den Perseptron-Indikator subtil umgeschrieben. Das heißt, wir nehmen drei Eingangsneuronen und geben ihre Ausgänge an das vierte Neuron (mit hypertangentialer Aktivierung), dessen Ausgang absolut transparent sein kann als eine probabilistische Schätzung eines erfolgreichen Ergebnisses eines Handels in der angegebenen Richtung (in Richtung der aktiven Polarität) ... oder?


2. Unter diesem Gesichtspunkt besteht keine Notwendigkeit, die Neuronen der ersten Schicht zwangsweise zu spezialisieren - sie werden im Laufe des Trainings von selbst bestimmt

Das heißt, die Neuronen der Eingabeschicht sollten einfach darauf trainiert werden, die Eingabedaten in "rechts" und "links" zu trennen. Ich bin etwas verwirrt darüber, wie "sie im Prozess des Trainings bestimmt werden" - ist damit das Training der Hypertangente des Ausgangsneurons gemeint oder das Training aller Ausgangs- und Eingangsneuronen auf einmal? Wenn der Genetiker nicht mehr als 8 Parameter gleichzeitig optimieren kann, während es in einem solchen Raster mindestens 12 Parameter gibt (... die Parameter der Truthähne nicht mitgezählt) - was sollen wir tun? Wenn Sie separat trainieren wollen - zunächst jeden Eingabeparameter separat und dann nur den Ausgabeparameter (wie ich es jetzt tue), wäre das nicht ein Fehler?


3. die Tatsache, dass die Länge einer Trainingsstichprobe proportional zum Quadrat aller Gewichte des Netzes ist (und die Stichprobe, wenn möglich, minimal sein muss, um schnell auf die Marktereignisse zu reagieren).

Wie ist das? Quadrieren wir alle Gewichte des Netzes, addieren wir diese Quadrate und erhalten wir die Länge der Trainingsstichprobe, die proportional zu dieser sein sollte?

Über die Nutzlosigkeit langer Proben weiß ich bereits Bescheid - ich bin sozusagen durch "wissenschaftliches Ausprobieren" darauf gekommen. Ich habe sogar das Datum gefunden (2008.12.02), ab dem die Daten für das Raster einfach unbrauchbar sind - keine Korrelation mit der tatsächlichen Marktdynamik.


4 Die beste Option scheint ein zweischichtiges NS mit einer versteckten Schicht und einem Ausgangsneuron zu sein.

Hier verstehe ich etwas nicht... Wenn es eine Eingabeschicht aus Neuronen, eine Ausgabeschicht aus Neuronen und eine versteckte Schicht aus Neuronen gibt, dann sind es bereits drei. Warum gibt es also ein zweischichtiges Netz?


5. Ja, es ist wichtig, dass die Eingangswahrscheinlichkeitsdichte für den NS den Erwartungswert Null hat und gleichmäßig im Intervall +/-1 verteilt ist (Regal). Dadurch wird die Effizienz des Trainings und die Leistung des Netzes erheblich gesteigert.

Ich selbst verstehe die Notwendigkeit der Normierung des Eingangssignals (auf der Ebene der Intuition), deshalb transformiere ich das Eingangssignal so, dass der Ausgang die gleiche Form hat, aber im Bereich -/+1. Aber wie ist die Wahrscheinlichkeitsdichte eines normalisierten RSI verteilt? Das Eingangssignal meines RSI-Neurons sieht zum Beispiel so aus:


Reicht das aus, oder ist noch etwas anderes erforderlich?

P/S Ich habe kein Problem mit dem Rasiermesser, die Hauptsache ist, dass ich weiß, was ich schneiden muss...:-)

 
paralocus писал(а) >>

1. Ich verstehe das mit dem Addierer, mit dem hypertangentialen Aktivierungsneuron - was ist das für ein Ding? Ich normalisiere Eingänge und Ausgänge mit Sigmoid, und um sicherzustellen, dass die Eingänge und Ausgänge Signal korrekt ist (-1<max und Minima < +1), habe ich leicht verändert Perseptron Indikator. Das heißt, wir nehmen drei Eingangsneuronen und geben ihre Ausgänge an das vierte Neuron (mit hypertangentialer Aktivierung), dessen Ausgang absolut transparent sein kann als eine probabilistische Schätzung eines erfolgreichen Ergebnisses eines Handels in der angegebenen Richtung (in Richtung der aktiven Polarität) ... oder?

Es handelt sich um ein Neuron, dessen Aktivierungsfunktion (FA) eine hyperbolische Tangente ist (Wertebereich +/- 1) - das ist praktisch, um eine Kauf-/Verkaufsentscheidung zu treffen, und wenn |FA|<const - raus aus dem Markt.

Alle NS-Neuronen müssen einen nichtlinearen FA haben (mit einigen Ausnahmen - mit Ausnahme des letzten Neurons). Außer der Lerngeschwindigkeit hängt nichts von der spezifischen Art des FA ab.

2. Unter diesem Gesichtspunkt besteht keine Notwendigkeit, die Neuronen der ersten Schicht zwangsweise zu spezialisieren - sie werden im Laufe des Trainings von selbst bestimmt.

Das heißt, die Neuronen der Eingabeschicht sollten einfach darauf trainiert werden, die Eingabedaten in "rechts" und "links" zu trennen. Ich bin etwas verwirrt darüber, wie "sie im Trainingsprozess bestimmt werden" - ist damit das Training der Hypertangente des Ausgangsneurons gemeint oder das Training aller Ausgangs- und Eingangsneuronen? Wenn der Genetiker nicht mehr als 8 Parameter gleichzeitig optimieren kann, während es in einem solchen Raster mindestens 12 Parameter gibt (... die Parameter der Truthähne nicht mitgezählt) - was sollen wir tun? Wäre es ein Fehler, wenn ich separat trainiere - zunächst jeden Eingabeparameter separat und dann nur den Ausgabeparameter (wie ich es jetzt tue)?

Natürlich sollten wir alle auf einmal ausbilden, sonst haben wir ein Problem damit, uns durch den Wald zu wurschteln. Ich habe mich nicht mit Genetik beschäftigt, kann also nicht helfen.

3. die Tatsache, dass die Länge der Trainingsstichprobe proportional zum Quadrat aller Gewichte des Netzes ist (und die Stichprobe, wenn möglich, minimal sein sollte, um schnell auf die Marktereignisse zu reagieren).

Wie war das? Quadrieren Sie alle Gewichte des Netzes, addieren Sie dann diese Quadrate und erhalten Sie die Länge der Trainingsmenge?

Es gibt eine optimale Länge der Trainingsmenge P, die die minimale Summe von Approximationsfehler und Generalisierungsfehler ergibt. Dieses Optimum wird eindeutig durch die Anzahl der Synapsen w im Netz und die Dimension des Eingangs d (Anzahl der Netzeingänge) bestimmt:

Popt=k*w*w/d, wobei k eine dimensionslose Konstante der Größenordnung 1 ist und der Tatsache der Marktvariabilität Rechnung trägt.

Das Kriterium des Optimums ist die Angemessenheit des Netzfehlers in der Testprobe und in der Trainingsprobe, d.h. wenn ein normal trainiertes Netz 55% richtig rät, wird es im Test mit den neuen Daten ungefähr das gleiche Ergebnis zeigen. Außerdem gibt es für solche NS kein Problem der Umschulung, das mit der Erhöhung der Anzahl der Iterationen in der ORO-Methode verbunden ist - es gibt kein lokales Minimum des Fehlers - die Funktion ist momentoton und tendiert asymptotisch zur Konstante.

4. eine optimale Variante sieht zweischichtiges NS mit einer versteckten Schicht und einem Ausgangsneuron vor.

Hier kann ich nicht folgen... Wenn es eine Eingabeschicht aus Neuronen, eine Ausgabeschicht aus Neuronen und eine versteckte Schicht aus Neuronen gibt, dann sind es bereits drei. Warum also ist das Netz zweischichtig?

Es ist eine Frage der Terminologie. Ich möchte die Eingabeschicht nicht als etwas Besonderes herausstellen. Daher meinte ich die NS, die nur zwei Schichten hat - die Eingabeschicht (auch versteckt) und die Ausgabeschicht (bestehend aus einem einzigen Neuron).

Doch wie ist die Wahrscheinlichkeitsdichte des normalisierten RSI verteilt? Reicht das aus, oder ist noch etwas anderes erforderlich?

Ich weiß es nicht. Stellen Sie die Wahrscheinlichkeitsdichteverteilung der ersten Differenzreihe Ihres RSI dar und betrachten Sie das Diagramm - es sollte einen Bereich mit maximaler Amplitude +/-1 geben.

 
Neutron писал(а) >>

Ich will die Eingabeschicht nicht als etwas Besonderes herausstellen. Daher meinte ich die NS mit nur zwei Schichten - Eingabeschicht (auch versteckt) und Ausgabeschicht (bestehend aus einem Neuron).

Das Netz besteht also aus mehreren parallelen Perceptrons in der ersten Schicht und einem in der Ausgangsschicht, wobei die Anzahl der Eingänge des Ausgangsperceptrons gleich der Anzahl der Perceptrons in der ersten Schicht ist?

 
Neutron >> :

Natürlich müssen wir alles auf einmal trainieren, sonst haben wir ein Problem - "in den Wäldern und aus den Wäldern". Ich hatte noch nie mit einem Genetiker zu tun, daher kann ich Ihnen nicht weiterhelfen.


Na also! Und ich hatte gehofft, mein Netz später zu einem Selbstlernnetz "verbessern" zu können...

Ich verdaue die Antworten, die ich bekommen habe... >> Ich werde zeichnen, was ich verstehe

 
FION писал(а) >>

Das Netz besteht also aus mehreren parallelen Perceptrons in der ersten Schicht und einem in der Ausgangsschicht, wobei die Anzahl der Eingänge des Ausgangsperceptrons gleich der Anzahl der Perceptrons in der ersten Schicht ist?

Das ist richtig.

Der Eingang jedes Perzeptrons hat jedoch einen separaten zusätzlichen Eingang für einen konstanten +1 Offset. Dies beschleunigt das Lernen und erhöht die Leistungsfähigkeit des Netzes.

 
Neutron писал(а) >>

Das ist richtig.

Der Eingang jedes Perseptrons hat jedoch einen separaten zusätzlichen Eingang für einen konstanten +1 Offset. Dies beschleunigt das Lernen und erhöht die Leistungsfähigkeit des Netzes.

Ich verstehe. Der konstante Offset verschiebt lediglich den Aktivierungspunkt auf der Hypertangens-Kurve leicht.

 

Neutron schrieb >>.


Ich habe Folgendes herausgefunden:

Die Hypertangente wird aussortiert. Bisher habe ich sigmoid verwendet und musste vom Ergebnis eins abziehen, mit th ist das nicht mehr nötig. Soweit ich es verstanden habe, zeigt die Abbildung die optimale Architektur von NS für den Markt. Die Anzahl der Eingänge ist 12 und die Anzahl der Synapsen ist 4. Mit der Formel Popt=k*w*w/d erhalten wir also 144/4 = 36... Sind das 36 Balken? Oder 36 bei Kauf-/Verkaufssituationen? Habe ich es richtig verstanden?

Grund der Beschwerde: