Reti neurali ibride. - pagina 11

 
gumgum >> :

................

A cosa serve tutto questo?

 
joo писал(а) >>

>> quale n?

 

Mi dispiace, gomma da masticare, ma non so perché o per cosa. O sono muto, o c'è qualcosa che non mi stai dicendo.

Che senso ha ottimizzare una funzione così semplice?

 

Per ridurre dolcemente l'errore, bisogna scegliere un tasso di apprendimento molto basso, ma questo può richiedere un tempo di apprendimento inaccettabilmente lungo.

Qui sto pensando se si cambia funzionalmente il tasso di apprendimento durante il processo di apprendimento.

 
joo писал(а) >>

Mi dispiace, gomma da masticare, ma non so perché o per cosa. O sono muto, o c'è qualcosa che non mi stai dicendo.

Che senso ha ottimizzare una funzione così semplice?

Non ha bisogno di essere ottimizzato.

 
Joo, grazie per il link, molto interessante!
 
gumgum >> :

>> Non ha bisogno di essere ottimizzato.

Il gradiente è effettivamente una cosa utile, ma non sempre risolve il problema

 
gumgum >> :

Stai parlando di gradient descent o qualcosa del genere? Non so come, e non so cosa fa.

Non so tutto di tutti i metodi di ottimizzazione, parlo solo di quello in cui sono bravo, ecco perché ho suggerito di eseguire una ff, per confrontare il tuo metodo con gli altri e imparare qualcosa di nuovo.

 
IlyaA писал(а) >>

Non c'è niente di più chiaro :-D. Mi faccia un favore, lo descriva con altre parole dall'inizio. O semplicemente usare più parole.

Farò un esperimento oggi.... >> Lo posterò domani!

 
gumgum >> :

>> Non ha bisogno di essere ottimizzato.

Il tuo pensiero è corretto! È quello che fanno quando le epoche crescono, riducono la curva di apprendimento

Motivazione: