Marktknigge oder gute Manieren im Minenfeld - Seite 27

 
:-)
 

Hundert Epochen sind genug, wenn das Vorzeichen vorhergesagt wird?

Eine weitere Frage: Wenn das Netz gerade erst initialisiert wurde, benötigt es N Epochen des Trainings, und wenn das Netz bereits trainiert ist, d. h. in jedem nachfolgenden Schritt (nach der nächsten Vorhersage), benötigt es ebenfalls N Epochen, oder reicht eine aus?

 

Gute Frage, Paralocus.

Ich kann nur Empfehlungen geben. Nach meinen experimentellen Daten liegt die Anzahl der Trainingsepochen für NS mit binärer Eingabe zwischen 10 und 100 Iterationen für 2 bzw. 8 Neuronen in der versteckten Schicht. Für den Analogeingang - 300-500. Alles sollte experimentell getestet werden.

Es werden jeweils N Epochen benötigt.

 

Ich verstehe.

Hier ist der Gittercode:

код сюда не влез, поэтому в аттаче

Zu meiner Schande bin ich immer noch verwirrt über eine einfache Frage - die Berechnung der Epochenlänge.

Es scheint klar - P = k*w^2/q, wobei k = (2...4); w - Anzahl der Synapsen, q - Anzahl der Eingänge. Offensichtlich habe ich eine terminologische Verwirrung in meinem Kopf. Was ist ein Input und was ist eine Synapse?

Könnten Sie das noch einmal klarstellen? Im Leben ist es immer so, dass die einfachsten Dinge am schwierigsten zu verstehen sind -:)

Dateien:
nero2.mqh  7 kb
 

Es scheint zu funktionieren -:)


 

Synapse(w), das ist das, was das Neuron links hat. Input(d), bezieht sich auf die Anzahl der Synapsen an jedem Neuron der ersten (versteckten) Schicht. Für ein einzelnes Neuron NS ist die Anzahl der Synapsen gleich der Anzahl der Eingänge. Für das NS, das aus zwei Schichten besteht und zwei Neuronen in der ersten Schicht (versteckt) und ein Neuron in der zweiten Schicht (Ausgang) enthält: w=2d+3 . Die Eingabe eines Neurons mit einem konstanten Offset von +1 wird als reguläre Eingabe betrachtet. Für ein solches Netz mit d=100 ist die Anzahl der Synapsen w=2*100+3=203. Optimale Länge des Trainingsvektors P=k*w^2/d=2*(2d+3)*(2d+3)/d=(ungefähr)=2*2d*2=8d=8*100=800 Stichproben.

 

Ich danke Ihnen!

Ich habe die Eingänge auf binär umgestellt - alles lief viel besser! Jetzt lasse ich das Netz im Testgerät mit verschiedenen Kombinationen von Eingängen laufen. Was für eine tolle Arbeit... -:)

 

Guten Morgen,

Ich möchte meine Freude teilen: das erste anständige Ergebnis, nicht zuletzt dank einiger Ratschläge von Neutron in der Vergangenheit... Der blaue Balken zeigt die neuen Daten, die Ordinate in Pips. Abszisse: 10.000 EURUSD60.

Lange Positionen:

Die Short-Positionen sind nicht so beeindruckend:

Neuronales Netz, 13 Eingänge, keine versteckte Schicht. Training mit dem genetischen Algorithmus

 

Neutron, es sieht so aus, als hättest du mit der Zahl von 25 Bereitschaften recht gehabt... -:)

Irgendetwas an meinem Netzwerk ist nicht lernfähig. Nach 100 Epochen sind die Gewichte fast dieselben, mit denen das Netz initialisiert wurde.

In diesem Zusammenhang eine weitere dumme Frage:

Ist der Lernvektor in jeder Epoche derselbe oder nicht?

Wie auch immer, es zeigt sich, dass das Verhältnis von kumulativer Korrektur zu kumulativer Korrektur zum Quadrat sehr schnell gegen Null tendiert. Nach der 10. Iteration hört das Lernen also praktisch auf.

 
YDzh писал(а) >>

Neuronales Netz, 13 Eingänge, keine versteckte Schicht. Training mit dem genetischen Algorithmus

Fantastisch, YDzh!

Meine Ergebnisse sind viel bescheidener. Sie sollten es auf Demo stellen und sehen, was das Raster schneidet.

Grund der Beschwerde: