Рыночный этикет или правила хорошего тона на минном поле - страница 43

 
Neutron >>:

Тут бережённого - Бог бережёт! Процедура поджатия не сложна, обученность НС не страдает - эффективный метод.

Что касается неприменного достижения оптимальных значений, так это блеф чистой воды для наших ВР. Я понимаю, если ты прогнозируешь синусоиду! - тут да, - есть оптимальные значения. А что таковыми являются в условиях рыночного дребезга? Сейчас оптимум тут, а на следующем шаге (который ты и прогнозируешь), он - там... а ты его всеми силами искал "тут". Короче, не стоит задача точной локализации, и она решается удовлетворительно переобучением на каждом шаге.

Обратное утверждение верно так же и о том, что если все таки глобальный минимум не найден или хотя бы его окрестность, обучение на каждом шаге может и не являться удовлетворительным. Я изучал немного эту проблему, у меня лично получилось что-то на подобии самообмана, когда вроде бы ошибка асимптотически на обоих выборках расходится, а сеть одной и той же конфигурации в разные интервалы времени давала совершенно противоположные сигналы покупки/продажи. Хотя мат. ожидание выигрыша было положительным, все равно в конце концов я пришел к выводу, что продолжаю играть в казино. И все это, соответственно, из-за начальных весовых коэффициентов, к такому выводу я пришел. Вот такие мысли.:)

 
registred писал(а) >>

Кстати, в результате моих наблюдений, наилучшая рандомизация весов, при которой сетка быстро обучается находится в интервале [-0.07; +0.07]. Незнаю, почему так.:)

Это значит, что у тебя мало эпох обучения. В пределе, где бы ты не стартанул (хоть +/-10), сетка должна скатится в оптимум, который для центрированных входных данных лежит в близи малых значений. Ты её искусственно подсаживаешь туда. Это не всегда хорошо.

Обратное утверждение верно так же и о том, что если все таки глобальный минимум не найден или хотя бы его окрестность, обучение на каждом шаге может и не являться удовлетворительным. Я изучал немного эту проблему, у меня лично получилось что-то на подобии самообмана, когда вроде бы ошибка асимптотически на обоих выборках расходится, а сеть одной и той же конфигурации в разные интервалы времени давала совершенно противоположные сигналы покупки/продажи. Хотя мат. ожидание выигрыша было положительным, все равно в конце концов я пришел к выводу, что продолжаю играть в казино. И все это, соответственно, из-за начальных весовых коэффициентов, к такому выводу я пришел. Вот такие мысли.:)

Это симптом не качественно обученной сетки. Ты уверен, что обучающий вектор не был короче оптимального P=w^2/d?

 
Neutron >>:

Это значит, что у тебя мало эпох обучения. В пределе, где бы ты не стартанул (хоть +/-10), сетка должна скатится в оптимум, который для центрированных входных данных лежит в близи малых значений. Ты её искусственно подсаживаешь туда. Это не всегда хорошо.

Да, я стараюсь делать все по минимуму. Не хочу ждать когда она в конце концов через несколько сотен тысяч эпох мне что-то выдаст. Обычно достаточно нескольких тысяч, ну или десятков тысяч.

 
registred писал(а) >>

Обычно достатояно нескольких тысяч, ну или десятков тысяч.

Удивил!

У меня несколько сотен.

 
Neutron >>:

Это значит, что у тебя мало эпох обучения. В пределе, где бы ты не стартанул (хоть +/-10), сетка должна скатится в оптимум, который для центрированных входных данных лежит в близи малых значений. Ты её искусственно подсаживаешь туда. Это не всегда хорошо.

Это симптом не качественно обученной сетки. Ты уверен, что обучающий вектор не был короче оптимального P=w^2/d?

Честно говоря, уже давно не смотрю на такие формулы, все в результате эксперимента, начиная с малого количества нейронов, и продолжая это все дело, пока ошибки асимптотически не разойдутся на двух выборках. Найдя оптимальное значение весов в слое, я несколько раз переучиваю сеть и на одной и той же выборке есть разные результаты, но начальные весовые коэффициенты у каждой сетки различны. Попробуй переучить у себя сеть с нуля, и посмотри, получится ли у тебя на истории одни и те же сделки. Потом расскажешь, мне интересно это узнать.

 
Neutron >>:

Удивил!

У меня несколько сотен.

Ну, как говорится, полет нормальный.:)

 
registred писал(а) >>

Попробуй переучить у себя сеть с нуля, и посмотри, получится ли у тебя на истории одни и те же сделки. Потом расскажешь, мне интересно это узнать.

Ну, нет конечно!

Все сделки будут разными, и так раз от раза, зато профит в среднем одинаковый (и очень маленький). Меня интересует повторяемость средних величин, это экономит вычислительные ресурсы.

 
Neutron >>:

Ну, нет конечно!

Все сделки будут разными, и так раз от раза, зато профит в среднем одинаковый (и очень маленький). Меня интересует повторяемость средних величин.

Значит, мне думается, что ты играешь в казино. Посоветую тебе использовать комитеты, так как возможно это даст наилучший эффект. Меня же,лично, такие условия работы не удовлетворяют. Я не могу позволить себе переучивать сеть на новых данных, это вносит погрешности, и бесперспективно, так как история не приносит прибыли, если после переобучения тестировать сеть на этой истории заново.

 

Ага, я кажется понял. Результаты сетки с начальной рандомизацией, видимо, и не должны повторяться в точности. Достаточно того, что результат стабилен в некотором небольшом диапазоне.

Например, вот как это выглядит:

ОПЫТ 1:


ОПЫТ 2:


Исходные данные, кроме начальной инициализации, которая проводилась в обеих случаях - одни и те же.

 

Правильно говоришь, товарищь!

Причина обращения: