Скачать MetaTrader 5
Авторизуйтесь или зарегистрируйтесь, чтобы добавить комментарий
Узнай, как социальный трейдинг увеличит твой доход
Neutron
2826
Neutron 2008.11.26 14:03  

Подправил файлы. А то открытие позиции происходило в одну сторону и не нормировался входной вектор.

Вот, что на дневках для СЛАУ получилось:

Оптимизация числа входов (ранг матрицы) проводился на 2007 г. Оптимальная размерность входного вектора получилась равна 49. Данные по торгам приведены за совместно с участком оптимизации.

А это нейронная сеточка потрудилась:

Число входов тоже 49. Интересно, двуслойная нелинейная сетка даст лучший результат?

FION2
1072
FION2 2008.11.26 14:21  
Надо китайцев подключать - они самые древние, а значит самые мудрые. :-)
Avals
3154
Avals 2008.11.27 09:42  

Вместо х[n] лучше попробовать пороговую функцию F(x[n]):

если -A<x[n]<A то F(x[n])=0,

если x[n]>A F(x[n])=1

если x[n]<-A F(x[n])=-1

Порог A адаптивен от волатильности.

А для коэффициентов a[1]...a[n] лучше подбирать аналитическую убывающую функцию. Например: a[n]=a[1]/n.

Предположение, что например свеча 5 периодов назад может больше влиять на прогноз чем например свеча один период назад - только тема для подгонки.

При такой постановке задачи оптимизация сводится к способу (периоду) рассчета волатильности (порога А) и вида убывающей функции для коэффициентов a[n]

Neutron
2826
Neutron 2008.11.27 11:24  

Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и, как следствие, можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.

Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.

Avals
3154
Avals 2008.11.27 11:35  
Neutron писал(а) >>

Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и как следствие можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.

Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.

В принципе все так, но для того чтобы уменьшить вероятность подгонки нужно заменить по-максимуму жесткой логикой. Вопрос только в правильном выборе этой логики - соответствию реальности. Это будет робастной основой (если найдет подтверждение), а НС или другой метод адаптирует ее под текущие условия.

Олег
372
Олег 2013.10.15 13:31  
Может кто поможет? не могу разобраться с написанием кода для решения СЛАУ. помогите плиз.
/ /12
Авторизуйтесь или зарегистрируйтесь, чтобы добавить комментарий