Hybride neuronale Netze. - Seite 18

 
gumgum >> :

Ich danke Ihnen.

Die Frage bleibt... Wo liegt die Wahrheit?

Linke obere Ecke (RProp). Warum ist DE/DW=0, wenn DE/DW(t-1)*DE/DW<0?

Darf ich fragen, aus welchem Artikel diese Seite stammt? Geben Sie den vollständigen Titel an.

 
rip >> :

Darf ich fragen, welchem Artikel diese Seite entnommen ist? Geben Sie seinen vollständigen Namen an.

Diese stammen aus verschiedenen Artikeln, ich habe oben in der Version des Autors einen Link zu RPROP angegeben.

 
rip писал(а) >>

Darf ich fragen, aus welchem Artikel diese Seite stammt? Geben Sie den vollständigen Titel an.

Dateien:
anastasiadis.zip  1211 kb
 

Hier.net 10-22-11-1

Rprop:(476 ep.)

Reverse + Momentum(n=0.01, a=0.9)(136 Ep.):

 
gumgum >> :

Hier.net 10-22-11-1

Rprop:(476 ep.)

Inverse + Momentum(n=0.01, a=0.9)(136 Ep.):

RProp ist ineffizient :)

Was ist drin, was ist raus?

 
rip писал(а) >>

RProp ist ineffizient :)

Was ist drin, was ist raus?

Nein.

10 offen -> 1 offen

 

Es macht Spaß, die kollektiven Experimente mit neuronalen Netzen zu beobachten. Wie oft muss ich es Ihnen noch sagen: Ein neuronales Netz ist dasselbe Instrument wie der RSI und die Stochastik und viele andere, der einzige Unterschied ist, dass sie unglaublich komplex sind. Sie werden Ihre Probleme nicht mit neuronalen Netzen lösen... Das ist reine Zeitverschwendung... All diejenigen, die keine eigenen Schlussfolgerungen gezogen haben, sollten diese Bemerkung ignorieren.

 
Lernalgorithmen vorschlagen (nicht eur.)
 
Debugger >> :

Es macht Spaß, die kollektiven Experimente mit neuronalen Netzen zu beobachten. Wie oft muss ich es Ihnen noch sagen: Ein neuronales Netz ist dasselbe Instrument wie der RSI und die Stochastik und viele andere, der einzige Unterschied ist, dass sie unglaublich komplex sind. Sie werden Ihre Probleme nicht mit neuronalen Netzen lösen... Das ist reine Zeitverschwendung... All diejenigen, die sich noch keine Meinung gebildet haben, sollten diese Bemerkung ignorieren.

Es handelt sich um einen Kurs für das erste Jahr an der Universität. Ich habe das in der High School erlebt. Wichtig ist nur der Lehrer, d. h. im Wesentlichen die Art des Fehlers in der Ausgabe des Netzes.

 
gumgum >> :
Cue-Learning-Algorithmen (nicht eur.)

Alle Gradienten - LMA, quasi-newtonisch. Genetisch ...

Heuristiken - alle RProp-Varianten, "Annealing-Methode" usw.

Grund der Beschwerde: