Marktknigge oder gute Manieren im Minenfeld - Seite 80

 
gpwr писал(а) >>

Warum gibt es eine statistische Streuung in der Nähe der blauen Kreise? Wenn die Gewichte bei Null beginnen, sollte es keine statistische Streuung geben.

Der Punkt ist, dass ich keine Statistiken für dieselbe Trainingsstichprobe erstelle, sondern dass ich in jedem Zyklus eine Stichprobe nach der anderen verschiebe. Daher stimmen die Trainingsergebnisse nicht miteinander überein. Ich weiß nicht mehr, warum ich das getan habe, aber das ändert nichts am Kern der Sache. Offensichtlich wollte ich die quasistationären Prozesse auf dem Markt aufzeigen und ihren Einfluss auf die Lerngeschwindigkeit widerspiegeln.

So sehen die Ergebnisse aus, wenn man den Durchschnitt von 10 Experimenten mit der gleichen Trainingsstichprobe bildet (Abb. links):

Sie können sehen, dass es keine statistische Variation für Gewichte mit Null-Initialisierung gibt.

Die Abbildung auf der rechten Seite basiert auf einer Netzarchitektur mit 12 Eingängen, 5 Neuronen in der versteckten Schicht und 1 Neuron im Ausgang und mit einer Trainingsstichprobe von 120 Stichproben, d.h. es ist eine Kopie Ihres Falls. Die statistischen Daten wurden aus 50 unabhängigen numerischen Experimenten gewonnen. Außerdem funktioniert alles korrekt.

Wenn die Eröffnungskurse des EURUSD1h durch ihre Standardabweichung normalisiert wurden, ist ihr Durchschnitt nicht gleich Null. Oder haben Sie den Durchschnitt abgezogen?

Nein, ich habe die erste Eröffnungskursdifferenz als Eingabe verwendet (ich dachte, das wäre aus dem Kontext klar). Es ist klar, dass der Durchschnitt gleich Null ist. Vorhersage von Amplitude und Vorzeichen der nächsten Differenz.

Was das Theorem betrifft, so hat es mir gefallen. Aber es betrifft unsere Netzwerke als Sonderfall!

Sie haben den entarteten Fall bewiesen, dass die Länge der Trainingsstichprobe gegen unendlich tendiert. Tatsächlich erhalten wir in diesem Fall für einen Vektor von Eingangsdaten, die SV mit Null MO repräsentieren, Nullgewichte - die beste Prognose für morgen für integrierte SV ist der aktuelle Wert heute! Sobald wir jedoch eine Trainingsstichprobe von endlicher Länge nehmen, tendieren die trainierten Gewichte zum Gleichgewicht und minimieren das Quadrat des Fehlers. Als Beispiel für den Beweis dieser Aussage nehmen wir den Fall von SLAE (der gleiche NS). In diesem Fall sind die Gewichte eindeutig definiert, der Trainingsfehler auf der Trainingsstichprobe ist identisch gleich Null (die Anzahl der Unbekannten ist gleich der Anzahl der Gleichungen) und die Gewichte (Koeffizienten an den Unbekannten) sind offensichtlich nicht gleich Null.

 

Irgendetwas an diesem Design gefällt mir nicht:


 
Warum wird auf der Abszissenskala ein Bereich von +/-1 angezeigt? Es sollte +/-N sein... Vielleicht haben Sie die +/-1-Grenzen hart eingestellt und können nun nichts mehr sehen, aber es ist genau wie auf dem Bild.
 

Ich glaube nicht, dass das der Grund ist. Ich habe überhaupt keine Bereichsgrenze angegeben. Jetzt ist sie von -N bis +N fest eingestellt:


Ich vermute, dass es sich um einen Matkad-Fehler handelt. Ich habe die neue schon bekommen, aber die Post ist heute nicht da. Ich werde es erst morgen bekommen können.

 
paralocus писал(а) >>

Ich glaube nicht, dass das der Grund ist. Ich habe überhaupt keine Bereichsgrenze angegeben. Jetzt ist sie von -N bis +N fest eingestellt:

Ich vermute, dass es sich um einen Matkad-Fehler handelt. Ich habe die neue schon bekommen, aber die Post ist heute nicht da. Ich werde es erst morgen bekommen können.

Es geht mir gut:

Sie, zeigen Sie mir die Vektorwerte. Wie, F=... was hast du?

 
 

Ahhh. Sie wissen, was zu tun ist - runden Sie Ihre dif in der Schleife auf eine ganze Zahl auf: dif[i]=trunc(K*(Open[i]-Open[i-1])). Vielleicht ist Ihr Quellenquotient nicht vierstellig. In der Tabelle sehen Sie, wie der Kotier selbst aussieht.

 

Ja, es hat funktioniert...

Seltsam, wieso habe ich keine vier Ziffern in meinem Lebenslauf?


 

Von wo, von wo... Denn Sie haben Matcad so eingestellt, dass Zahlen mit drei Dezimalstellen dargestellt werden.

Oh, nein. Das Problem liegt jedoch im ursprünglichen Quotienten. Sehen Sie sich die Rohdaten an.

 
Der Grund dafür sind die unterschiedlichen Datentypen. trunc() setzt einfach den Wert der ersten Quotientendifferenz auf einen Integer-Typ.
Grund der Beschwerde: