Réseaux neuronaux hybrides. - page 11

 
gumgum >> :

................

C'est pour quoi tout ça ?

 
joo писал(а) >>

>> quel n ?

 

Je suis désolé, Gumgum, mais je ne sais pas pourquoi ni pour quoi faire. Soit je suis stupide, soit il y a quelque chose que vous ne me dites pas.

Quel est l'intérêt d'optimiser une fonction aussi simple ?

 

Pour réduire l'erreur en douceur, il faut choisir un taux d'apprentissage très faible, mais cela peut prendre un temps d'apprentissage inacceptable.

Je pense ici à la possibilité de modifier fonctionnellement le taux d'apprentissage pendant le processus d'apprentissage.

 
joo писал(а) >>

Je suis désolé, Gumgum, mais je ne sais pas pourquoi ni pour quoi faire. Soit je suis stupide, soit il y a quelque chose que vous ne me dites pas.

Quel est l'intérêt d'optimiser une fonction aussi simple ?

Il n'a pas besoin d'être optimisé.

 
Joo, merci pour le lien, très intéressant !
 
gumgum >> :

>> Il n'a pas besoin d'être optimisé.

Le gradient est utile, mais il ne résout pas toujours le problème.

 
gumgum >> :

Tu parles de la descente de gradient ou autre ? Je ne sais pas comment, et je ne sais pas ce que ça fait.

Je ne connais pas tout sur toutes les méthodes d'optimisation, je ne parle que de ce que je sais faire, c'est pourquoi j'ai suggéré de faire un ff, pour comparer votre méthode avec les autres et apprendre quelque chose de nouveau.

 
IlyaA писал(а) >>

Il n'y a rien de plus clair :-D. Faites-moi une faveur, décrivez-le en d'autres termes dès le début. Ou simplement utiliser plus de mots.

Je vais faire une expérience aujourd'hui..... >> Je le posterai demain !

 
gumgum >> :

>> Il n'a pas besoin d'être optimisé.

Votre pensée est correcte ! C'est ce qu'ils font quand les époques se développent, réduire la courbe d'apprentissage.

Raison: