Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich danke Ihnen.
Die Frage bleibt... Wo liegt die Wahrheit?
Linke obere Ecke (RProp). Warum ist DE/DW=0, wenn DE/DW(t-1)*DE/DW<0?
Darf ich fragen, aus welchem Artikel diese Seite stammt? Geben Sie den vollständigen Titel an.
Darf ich fragen, welchem Artikel diese Seite entnommen ist? Geben Sie seinen vollständigen Namen an.
Diese stammen aus verschiedenen Artikeln, ich habe oben in der Version des Autors einen Link zu RPROP angegeben.
Darf ich fragen, aus welchem Artikel diese Seite stammt? Geben Sie den vollständigen Titel an.
Hier.net 10-22-11-1
Rprop:(476 ep.)
Reverse + Momentum(n=0.01, a=0.9)(136 Ep.):
Hier.net 10-22-11-1
Rprop:(476 ep.)
Inverse + Momentum(n=0.01, a=0.9)(136 Ep.):
RProp ist ineffizient :)
Was ist drin, was ist raus?
RProp ist ineffizient :)
Was ist drin, was ist raus?
Nein.
10 offen -> 1 offen
Es macht Spaß, die kollektiven Experimente mit neuronalen Netzen zu beobachten. Wie oft muss ich es Ihnen noch sagen: Ein neuronales Netz ist dasselbe Instrument wie der RSI und die Stochastik und viele andere, der einzige Unterschied ist, dass sie unglaublich komplex sind. Sie werden Ihre Probleme nicht mit neuronalen Netzen lösen... Das ist reine Zeitverschwendung... All diejenigen, die keine eigenen Schlussfolgerungen gezogen haben, sollten diese Bemerkung ignorieren.
Es macht Spaß, die kollektiven Experimente mit neuronalen Netzen zu beobachten. Wie oft muss ich es Ihnen noch sagen: Ein neuronales Netz ist dasselbe Instrument wie der RSI und die Stochastik und viele andere, der einzige Unterschied ist, dass sie unglaublich komplex sind. Sie werden Ihre Probleme nicht mit neuronalen Netzen lösen... Das ist reine Zeitverschwendung... All diejenigen, die sich noch keine Meinung gebildet haben, sollten diese Bemerkung ignorieren.
Es handelt sich um einen Kurs für das erste Jahr an der Universität. Ich habe das in der High School erlebt. Wichtig ist nur der Lehrer, d. h. im Wesentlichen die Art des Fehlers in der Ausgabe des Netzes.
Cue-Learning-Algorithmen (nicht eur.)
Alle Gradienten - LMA, quasi-newtonisch. Genetisch ...
Heuristiken - alle RProp-Varianten, "Annealing-Methode" usw.