Гибридные нейросети. - страница 11

 
gumgum >>:

................

А зачем всё это?

 
joo писал(а) >>

Какую n?

 

Извините, gumgum, но не доганяю зачем и почему. Или я туплю, или Вы что то не договариваете.

В чем заключается смысл оптимизировать такую простую функцию?

 

Для плавного уменьшения ошибки надо выбирать очень маленькую скорость обучения, но при этом обучение может занять непозволительно много времени.

Вот я думаю если в процессе обучения функционально изменять скорость обучения.

 
joo писал(а) >>

Извините, gumgum, но не доганяю зачем и почему. Или я туплю, или Вы что то не договариваете.

В чем заключается смысл оптимизировать такую простую функцию?

Ее не надо оптимизировать

 
Joo, Спасибо за сылку, очень интересно!
 
gumgum >>:

Ее не надо оптимизировать

На самом деле градиент вещь полезная но не всегда с помощью него можно решить проблему

 
gumgum >>:

Речь про градиентный спуск что ли? не знаю как, и не знаю что это даст.

Я не знаю всё обо всех методах оптимизации, говорю только о том, в чем собаку захавал, поэтому и предложил прогнать фф, что бы сравнить свой метод с другими и узнать что ни буть новое.

 
IlyaA писал(а) >>

Понятней не стало :-D. Ты, будь другом, опиши с мамого начала другими словами. Ну или просто больше слов используй.

Сегодня проведу экспиримент.... Завтро выложу!

 
gumgum >>:

Ее не надо оптимизировать

Ход ваших мыслей правильный! так и делают с ростом эпох уменьшают скорость обучения

Причина обращения: