Про нейрокомпутинг - страница 2

 
ds2 писал (а) >>

sergeev, а у тебя выходы сетки непрерывные или бинарные?

А как ты "затачиваешь" веса? Ты что, обучаешь сетку на одном обучающем векторе до тех пор, пока она не обучится его точно распознавать?

1. Непрерывные.

2. Да. А есть другие варианты?

 

сначла один обучающий образец один раз потом второй один раз, и т.д. потом снова все по одному разу. И т.д. до удоволетворительного результата.

 
ну правильно я так и делаю. Только вот веса не стабилизируются...
 
В процессе обучения ошибка увеличивается?
 
Хм... Надо проверить.
 
SergNF писал (а) >>

А вариант "не сходимости" обучения не рассматриваете - типаа попадание в "локальный минимум" в процессе обучения "на первом баре", при изменении "стартовых весов" и переобучения на втором баре - новый локальный минимум и т.д.

Выбор "входов" - целая наука и не факт, что RSI и Нолики/Единички имеют "что-то общее". :)

Да и про "выходы" выше уже написали

(Хотя, лично я не сторонник переобучения на каждом баре - если "это" единственный выход, значит что-то не так со входами/выходами/архитектурой, т.е. ""предсказуемостью" AKA "угадываемостью" вообще)

Полностью поддерживаю.

Входной набор параметров может оказаться непредставительным. Но этот вопрос решается не методами и средствами построения сети.

Переобучение на мой взгляд - это неправильно. Переобучаться можно лишь для уточнения, и при этом следует принимать во внимание полную выборку от начала, включая новейшую историю (или принимать фиксированный период истории, например, 10 лет, включая новейшие данные и отбрасывая самые старые).