Рыночный этикет или правила хорошего тона на минном поле - страница 26

 

Возьму "отгул" -:)

Надо бы в библиотеку сходить...

 
registred писал(а) >>

Не совсем понял, что значит "переобучаю на кажлом шаге"?

Я строю прогноз с использованием НС только на один отсчёт вперёд. Далее, для того что бы не терять в точности прогноза, я переобучаю сеть с использованием новых входных данных и т.д. В этой ситуации, можно не переобучать сетку "с нуля", а сохранять на новом отсчёте старые значения весов в качестве стартовых значений.

Именно это я и имел в виду.

 

Neutron, когда я перехожу от прогноза амплитуды к прогнозу знака, получается, что ошибка на выходе сетки это ошибка в знаке. Т.е. ошибка принимает значение +1 или -1.

Правильно ли я понимаю этот момент? Если нет, то как?

 
Neutron >>:

Я строю прогноз с использованием НС только на один отсчёт вперёд. Далее, для того что бы не терять в точности прогноза, я переобучаю сеть с использованием новых входных данных и т.д. В этой ситуации, можно не переобучать сетку "с нуля", а сохранять на новом отсчёте старые значения весов в качестве стартовых значений.

Именно это я и имел в виду.

интересно а если флет - сеть меняет взгляд на прогноз?

 
Jingo писал(а) >>

интересно а если флет - сеть меняет взгляд на прогноз?

Ну, естественно! Она же адаптивна по своей природе.

И потом, флет, по-сути, это тот же тренд, только ма-аленький... Так, что ваш вопрос сводится к вопросу адаптации НС к новому/изменившемуся торговому горизонту. Это её прямая обязаность. Тот факт, что я при дообучении использую "старые" значения весов на уже "новом" рынке - не портит сам процесс, даже напротив. Дело в том, что процесс смены (именно смены) тренда квазистационарен и поэтому выбранная тактика себя оправдывает.

paralocus писал(а) >>

Neutron, когда я перехожу от прогноза амплитуды к прогнозу знака, получается, что ошибка на выходе сетки это ошибка в знаке. Т.е. ошибка принимает значение +1 или -1.

Правильно ли я понимаю этот момент? Если нет, то как?

Нет, не правильно.

Процесс обучения сети ничем не отличается от классического варианта, различие заключается в том, что ты на вход скрытого слоя нейронов подаёшь бинарный сигнал, а на выходе получаешь действительную величину, определённою на отрезке [-1,1] (в случае активации выходного нейрона th()) и пропорцональную вероятности наступления события (уверености Сети в знаке ожидаемого приращения). Если тебе вероятность не интересна, а важен только знак ожидаемого движения котира, то интерпретируй только знак предсказания, но сетку обучай на действительных числах (я имею в виду то, что ошибка в методе ОРО должна быть действительным числом). То, что скорость обучения при таком способе возрастает по сравнению с общим случаем не является парадоксом. Дело в том, что подавая на вход бинарный сигнал, мы существенно снижаем размерность входного пространства признаков в котором должна обучаться НС. Сравни: или +/-1 или от -1. до 1,, с шагом 0.001 и каждое значение нужно разместитить на гипперповерхности размерности d (число входов), предварительно её построив силами той же НС (она это и делает в процессе своего обучения).

 
Neutron >>:

...на вход скрытого слоя нейронов подаёшь бинарный сигнал, а на выходе получаешь действительную величину, определённою на отрезке [-1,1]

Вот оно что! Мне бы такого даже вголову не пришло! Сейчас попробую -:)

 

...Сравни: или +/-1 или от -1. до 1,, с шагом 0.001 и каждое значение нужно разместитить на гипперповерхности размерности d (число входов), предварительно её построив силами той же НС (она это и делает в процессе своего обучения).


А если на входе бинарный сигнал, то не лучше ли сделать его 0/1 ?

 

Нет конечно!

У тебя центр тяжести такого "входа" смещён на 0.5 (его МО), а вса при инициализации имеют МО=0. Вот и предётся часть ресурсов тратить на пустое подтягивание (настройка веса) единичного входа нейрона под очевидную вещь. Вобще, всё, что можно сделать самостоятельно, без участия ИИ, нужно проделать. Это заметно экономит время обучения НС. Именно с этой целью нормализуют входа, центрируют их и выбеливают. Всё это, для того что бы не отвлекать внимание ИИ на банальности, а сконцентрироваться на самом важном и трудном - нелинейных многомерных корреляциях и автокорреляциях.

 

Да, я уже понял.

Сейчас довожу до ума свой двухслойный самообучающийся персептрон. Надеюсь, сегодня он уже заработает.

 
paralocus писал(а) >>

Надеюсь, сегодня он уже заработает.

Не надейся:-)

По моему опыту, ты ещё раз 20-25 готов будешь сказать то же самое, прежде чем он действительно заработает.

Причина обращения: