Reti neurali ibride. - pagina 18

 
gumgum >> :

Grazie.

La domanda rimane... Dov'è la verità?

Angolo superiore sinistro (RProp). Perché DE/DW=0 quando DE/DW(t-1)*DE/DW<0?

Posso chiedere da quale articolo è tratta questa pagina? Dare il suo titolo completo.

 
rip >> :

Posso chiedere da quale articolo è tratta questa pagina? Dare il suo nome completo.

Questi sono da articoli diversi, ho dato un link a RPROP nella versione dell'autore sopra.

 
rip писал(а) >>

Posso chiedere da quale articolo è tratta questa pagina? Dare il suo titolo completo.

File:
anastasiadis.zip  1211 kb
 

Qui.net 10-22-11-1

Rprop:(476 ep.)

Reverse + Momentum(n=0.01, a=0.9)(136 ep.):

 
gumgum >> :

Qui.net 10-22-11-1

Rprop:(476 ep.)

Inverso + Momentum(n=0.01, a=0.9)(136 ep.):

RProp è inefficiente :)

Cosa c'è dentro e cosa è fuori?

 
rip писал(а) >>

RProp è inefficiente :)

Cosa c'è dentro e cosa è fuori?

No.

10 aperto -> 1 aperto

 

È divertente guardare gli esperimenti collettivi con le reti neurali. Quante volte ve lo devo dire: una rete neurale è lo stesso strumento dell'RSI e dello Stocastico e di molti altri, l'unica differenza è che sono incredibilmente complessi. Non risolverete i vostri problemi con le reti neurali... È solo una perdita di tempo... Tutti coloro che non hanno tratto delle conclusioni da soli, ignorino questa osservazione.

 
Suggerisci algoritmi di apprendimento (non eur.)
 
Debugger >> :

È divertente guardare gli esperimenti collettivi con le reti neurali. Quante volte ve lo devo dire: una rete neurale è lo stesso strumento dell'RSI e dello Stocastico e di molti altri, l'unica differenza è che sono incredibilmente complessi. Non risolverete i vostri problemi con le reti neurali... È solo una perdita di tempo... Tutti coloro che non sono giunti ad una conclusione, ignorino questo commento.

È un corso del primo anno di università. In realtà ci sono passato al liceo. Solo l'insegnante è importante, cioè essenzialmente il tipo di errore nell'uscita della rete.

 
gumgum >> :
Algoritmi di apprendimento della stecca (non eur.)

Tutti i gradienti - LMA, quasi newtoniano. Genetica ...

Euristica - tutte le varianti di RProp, "metodo annealing" ecc.

Motivazione: