Marktknigge oder gute Manieren im Minenfeld - Seite 30

 
FION >> :

In Ihrem Code - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), funktioniert der Vergleich nicht.

Danke, aber auch in meinem Code gibt es keinen "Division durch Null"-Fehler.

 
Neutron >> :

Hallo, Sergej!

Aber Grasn sagte, dass die 14. Version beschädigt ist und der Motor tot ist und Fehler in den Diphern hat. Die Hauptsache ist, dass Sie es nicht zum ersten Mal in Ihrem Leben benutzen können. Das Matkad-Vertriebskit kostet 100 Rubel.

Es ist nicht gerade "kratzig". Was ich sagen wollte, ist, dass die Engine in 14 billiger ist, und es läuft alles auf den alten Streit hinaus, welche Engine besser ist Waterloo Maple vs SciFace Software. In Wirklichkeit sind manche besser und manche schlechter - man muss sehen, was man braucht. Hier ein Beispiel: Es gibt ein klassisches Problem mit der Bewegung von 3 Planeten. Unter bestimmten Anfangsbedingungen nimmt ein Planet die Flugbahn des anderen auf.


Hier ist die Lösung in 13 Mathcadet (captures)


Hier ist die Lösung in 14 matcadet (screw it).



Aber die Version 14 hat eine Menge Vorteile, eine Menge. Ich werde wahrscheinlich darauf umsteigen müssen, weil 13 unter Vista einfach abstürzt. Aber 13 hat schon genug Bugs, was soll man also über die älteren Versionen sagen.

 

Hallo, Sergej!

Das sind einige gute Fragen, die Sie aufgeworfen haben. Sie sind wunderschön. Vielleicht geht es um die Genauigkeit der numerischen Methode. Bei einer höheren Genauigkeit konvergieren die Lösungen...

 
Neutron, wenn ich diesen Anpassungsfaktor (1 - J/N) eingebe, sollte ich ihn für alle Gewichte verwenden, oder kann ich ihn z. B. für die Gewichte der versteckten Schicht verwenden und nicht für die Gewichte der Ausgangsneuronen? Im Moment verwende ich es nur für die Gewichte der versteckten Schicht. Die Gewichte haben sich mehr oder weniger stabilisiert (+/-50). Ich verwende die Anzahl der Epochen als N.
 
Neutron писал(а) >>

Hallo, Sergej!

Das sind einige gute Fragen, die Sie aufgeworfen haben. Sie sind wunderschön. Vielleicht geht es um die Genauigkeit der numerischen Methode. Wenn Sie die Genauigkeit höher einstellen und die Lösungen konvergieren...

Nein, es geht nicht um Genauigkeit.

 
paralocus писал(а) >>
Neutron, wenn ich diesen Regulierungsfaktor (1 - J/N) eingebe, sollte ich ihn für alle Skalen verwenden, oder kann ich ihn zum Beispiel für die Skalen der versteckten Schicht verwenden und nicht für die Skalen der Ausgangsneuronen? Im Moment verwende ich es nur für die Gewichte der versteckten Schicht. Die Gewichte haben sich mehr oder weniger stabilisiert (+/-50). Ich verwende die Anzahl der Epochen als N.

Probieren Sie es so und so. Ich verwende es ausnahmslos auf allen meinen Waagen. Aber das liegt an meiner Liebe zur Einfachheit in allen Dingen, dem Wunsch nach Gleichheit. Vielleicht klappt es ja bei dir. N ist die Anzahl der Epochen.

 

Eine Sache verwirrt mich:

In diesem System werden ständig Korrekturen vorgenommen, ob Sie sie brauchen oder nicht. Bei einem binären Eingaberaster stagniert dies umso mehr.

Das heißt, wenn das Vorzeichen richtig erraten wurde, aber ein Unterschied zwischen der Amplitude am Ausgang des Gitters und dem Prüfsignal besteht, findet die Korrektur trotzdem statt. Aber ist das wirklich notwendig?

Schließlich ist das Netz in diesem Fall nicht verkehrt...

 
Neutron >> :

... Aber es hat mit meiner Vorliebe für Vereinfachung in allen Dingen zu tun, dem Stemma von sameness....

Keine Filiale, sondern eine Meisterklasse! Vielen Dank für die vielen nützlichen Informationen! Ich mache kein ORO, aber die Trainingsempfehlungen funktionieren auch bei PNN hervorragend. Nochmals vielen Dank: Danke Neutron!

 

Vielen Dank, rsi, für Ihre freundlichen Worte. Ich bin immer bereit, Wissen zu teilen!

paralocus писал(а) >>

Eine Sache verwirrt mich:

In diesem System werden ständig Korrekturen vorgenommen, ob Sie sie brauchen oder nicht. Umso mehr stagniert ein Netz mit binärer Eingabe.

D.h. wenn das Vorzeichen richtig erraten wurde, aber eine Differenz zwischen der Amplitude am Netzausgang und dem Prüfsignal besteht, wird die Korrektur trotzdem durchgeführt. Aber ist das wirklich notwendig?

Schließlich ist das Netz in diesem Fall nicht verkehrt...

Ich habe das gleiche Verhalten.

Und es ist richtig, denn das Raster schärft ständig die Genauigkeit der Vorhersage nicht nur das Zeichen...

 

Hallo Neurton! Wie auch immer, ich habe noch kein Glück mit der doppelten Schicht.

Ich habe ein einschichtiges Perzeptron mit ORO geschrieben und es gestern den ganzen Tag laufen lassen. Es verhält sich seltsam. Es lernt und lernt nicht und ist in katastrophaler Weise von der Anzahl der Epochen abhängig.

Meine Ergebnisse lauten also wie folgt: 8 Epochen - das Gitter lernt nicht, 12 Epochen - das Gitter lernt, 13 Epochen - das Gitter lernt nicht.

Kurz gesagt, die Ergebnisse rühmen, dass ich noch nicht kann.

Auf jeden Fall werde ich einen Algorithmus beschreiben, den ich implementiert habe. Sehen Sie nach, ob ich etwas übersehen habe.


1. Das Perzeptron hat D binäre Eingänge, von denen einer eine Konstante +1 ist.

(2) Der verwendete Blutdruck ist ein sequentieller Kegelschritt über eine Reihe von offenen Stellen.

3. Alle Gewichte werden vor dem Start mit kleinen Zufallswerten aus dem Bereich +/-1 initialisiert.

4. Die Länge des Trainingsvektors wird berechnet als P = 4 * D*D/D = 4*D.

5. Der Trainingsvektor wird in den Gittereingang eingespeist, und der Gitterfehler wird berechnet als Qs = Test - OUT, wobei Test der Wert von BP bei n+1, d.h. der nächsten Auslesung, und OUT die Gitterausgabe bei n Auslesungen ist.

6. Um den Wert des Fehlers an den Eingängen Q zu erhalten, wird der Gitterfehler Qs mit der Ableitung der Quetschfunktion (1 - OUT+OUT) multipliziert: Q = Qs *(1 - OUT*OUT).

7. Der Korrekturvektor für jedes in ein Neuron eingehende Gewicht COR[i] += Q*D[i] wird berechnet und während der Epoche akkumuliert.

8. SQR[i] += COR[i]*COR[i] wird separat berechnet und während der gesamten Epoche für jedes Gewicht akkumuliert, das in das Neuron einbezogen ist.

9. Am Ende einer Epoche wird für jedes Gewicht die persönliche Korrektur berechnet und zu diesem Gewicht hinzugefügt W[i] += COR[i]/SQR[i]


Es wurde versucht, einen Koeffizienten von (1 - j/N) zu verwenden und Gewichte, deren absolute Werte über 20 gewachsen sind, zu randomisieren. Die Zufallsauswahl hilft besser.

P.S. Ein Fehler im Text wurde korrigiert

Grund der Beschwerde: