Рыночный этикет или правила хорошего тона на минном поле - страница 80

 
gpwr писал(а) >>

А почему нарисован статистическй разброс около синих кружков? Если веса стартуют с нулевых значений то никакого статистического разброса не должно быть.

Дело в том, что я набираю статистику не для одной и той-же обучающей выборки, а последовательно сдвигаясь на каждом цикле на один отсчёт. Поэтому, результаты обучения не совпадают между собой. Уж не помню, зачем я так сделал, но сути это не меняет. Видимо, я хотел таким образом зацепить квазистационарность процессов на рынке и отразить их влияние на скорость обучения.

Вот, как выглядяят результаты для усреднения по 10 экспериментам, на одной и той-же обучающей выборке (рис. слева):

Видно, что для весов с нулевой стартовой инициализацией, статистического разброса нет.

Рис. справа построен для архитектуры сети с 12 входами, 5 нейронами в скрытом слое и 1 нейроном на выходе и с обучающей выборкой 120 отсчётов, т.е. дублирует ваш случай. Статистика набиралась по 50 независимым численным экспериментам. Тоже, всё работает корректно.

Если использовались цены открытия EURUSD1h нормированные на своё стандартное отклонение, то их средняя не равна нулю. Или вы отняли среднюю?

Да нет, я использовал в качестве входных данных первую разность цен открытия (думал, что по контексту, это ясно). Понятно, что средняя равна нулю. Прогнозировал амплитуду и знак следующей разности.

Что касается теоремы, то она мне понравилась. Но, отношения к нашим сетям имеет в качестве частного случая!

Вы доказали вырожеденный случай для длины обучающей выборки стремящейся в бесконечность. Действительно, в этом случае, для вектора входных данных представляющих собой СВ с нулевым МО, мы получим нулевые веса - лучший прогноз на завтра для интегрированной СВ, это текущее значение сегодня! Но, стоит только взять обучающюю выборку конечной длины, как натренированные веса будут стремится к равновесным, минимизирующим квадрат ошибки. В качестве примера, подтверждающим это утверждение, возмите случай для СЛАУ (та же НС). В этом случае, веса определены однозначно, ошибка обучения на обучающей выборке тождественно равна нулю (число неизвестных равно числу уравнений) и веса (коэффициенты при неизвестных), очевидно, не равны нулю.

 

Что-то не работает у меня эта конструкция:


 
А почему у тебя по шкале абсцисс диапазон виден в пределах +/-1? Ведь должно быть +/-N... Может, ты жёстко поставил пределы +/-1 и теперь ничего не видешь, а там всё как на картинке.
 

Врят ли из-за этого. Я Границы диапазона вообще не указывал. А теперь задал жестко от -N до +N :


Подозреваю, что это Маткадовские глюки. Мне уже новый пришел, но сегодня почта не работает. Только завтра смогу получить.

 
paralocus писал(а) >>

Врят ли из-за этого. Я Границы диапазона вообще не указывал. А теперь задал жестко от -N до +N :

Подозреваю, что это Маткадовские глюки. Мне уже новый пришел, но сегодня почта не работает. Только завтра смогу получить.

У меня всё в ажуре:

Ты, покажи значения вектора. Типа, F=... что там у тебя?

 
 

А-а-а. Знаешь, что сделай - округляй свой dif в цикле до целого: dif[i]=trunc(K*(Open[i]-Open[i-1])). Возможно у тебя в исходном котире не 4-х знак. Посмотри, как выглядит сам котир в таблице.

 

Да, получилось...

Странно, а откуда у меня не четырехзнак в котире?


 

Откуда-откуда... от того, что ты в настройках Маткада поставил представление чисел с точность до третьего знака после запятой.

Хотя, нет. Всётаки, проблема в исходном котире. Смотри в исходныек данные.

 
Это из-за разницы типов данных. trunc() просто приводит значение первой разности котира к целому типу.
Причина обращения: