Рыночный этикет или правила хорошего тона на минном поле - страница 58

 
gpwr >>:

По моему вы опять меня не поняли.

Я действительно не понимаю как вы собираетесь воздействовать на коэффициенты оного полинома с целью нахождения глобального минимума ошибки(т.е. обучения). Таблички весов обученного нейрона я вам покажу:


Три опыта на одном векторе. Самый праый опыт был самым удачным. Т.е. я понимаю, что имея готовую топологию, нетрудно(теоретически) подобрать такие кф. оного многочлена, которые бы достаточно красиво эту топологию сглаживали, но объясните мне, как вы собираетесь вычислить эту топологию(уже обученной сетки) для еще не необученной? Иными словами - каков алгоритм воздействия на кф., приводящий к уменьшению функции ошибки обучения? Он вам известен?

 
Neutron >>:

Построил специально для тебя:

Хорошо видно, что ФЗ имеет место быть всегда и визуально хорошо заметна на резких движениях котира.

Серёга, я больше эту тему обсуждать с тобой не буду в виду её тривиальности и полной беспонтовости. Учи матчасть, и следцющий раз, когда тебе в голову придёт очередная Супер-Пупер Гениальная Идея, для реализации которой, как тебе покажется, нужен один или два НИИ и кластер РС, ты подумай минутку - может ты просто чего не знаешь или не понимаешь. Ведь это более вероятно, чем "эпохальное открытие",в той области, где до тебя уже давно всё вытоптано.


Хорошо, считай, что фазовая задержка (именно этот термин) существует для двух случаев



Откровенно, и ты мне надоел :о)

 
HideYourRichess >>:

С удивлением рассматриваю алгоритм, который демонстрирует эти самые 80%. Ищу ошибку. Уж очень всё просто получается. Так не бывает.

ничего удивительного, если у меня, не математика это получилось, так что говорить о профи! :о)))

 

to Neutron


А между High/Low и Close есть фазовая задержка? :о))) Получается, что есть, если верить твоему визуальному методу:




А откуда она может появиться?


Исправления и дописка: Пока никто не видит, внесу небольшие исправления. Немного ошибся в торопях, на - картинке выше Open и Close. Один сигнал задержан относительно другого, но в конкретном случае это не сдвиг по фазе.


Фазовой задержки то нет. Не был выполнен ни один математический оператор, который привел бы к сдвигу. Не появляется фазовый сдвиг на ровном месте. Вместо этого есть выбор процесса, правило, по которому берем такие то значения и говорим - это процесс.


Если "сдвиг" рассматривать с точки зрения Open идет первым, а Close вторым, то да - "сдвиг" есть (спорить против этого не собираюсь). Но я даже не знаю, какие матметоды "найдут" сдвиг в рассматриваемом конкретном случае. Эти сигналы альтернативные друг относительно друга. ровно так же алтернативны (H+L).2 и High, уж совсем точно не сдвинутые.




Ну а выбирать Close для прогнозирования, это нужно иметь невороятную по точности систему. А для моей простой идеи, кстати, весьма "роботоспособной" никакая задержка (H+L)/2 абсолютно не повлияет.


PS: Господи, Серега Серега, - это процессы монопенисуальны, абсолютно. Вот теперь все, пока. Удачи

 

to Neutron

Пока жду нового Маткада занимаюсь повторением пройденного, как и собирался, т.е. с однослойкой ковыряюсь. Ты просил показать длину вектора ошибки, вот, что получилось:


По Х статистика, по L длина(если я все правильно понял)

Считал так:


Здесь i - цикл по статистике Х - входной вектор(суммируется по всей длине текущего обучающего вектора). Квадрат ошибки накапливается в течении всей эпохи вместе с квадратом разброса обучающего вектора:


А по окончании эпохи считается так:


Здесь n - цикл по эпохам

Все ли правильно сделано?

 

Судя по рис., где-то ошибка - мы должны видеть постепенное обучение сети (уменьшение длины вектора ошибки) при переходе от эпохи к эпохе. Этого не видно. Причин, как всегда, может быть вагон и маленькая тележка. Например, на графике вместо величины вектора ошибки от эпохи, представлена эта величина для уже обученной сети (последняя эпоха) как функция от номера независимого эксперимента... Это следуетт из твоего - "По Х статистика..." - какая статистика? Мы её вроде не должны её тут набирать. А вот это - "...по L длина", - L у нас нормируется на длину вектора данных и обязан лежать вблизи 1, постепенно уменьшаясь к концу обцчения... Мы видим что-то иное.

Вот, посмотри, как это возможно должно выглядеть:

Тут синим показана длина вектора ошибки на обучающей выборке (мы смотрим как сетка обучается, а не как она предсказывает). Всего использовано 200 обучающих эпох и k=1 для наглядности, что бы показать, что в этом, конкретном, случае сеть обучается полность (ошибка равна нулю) и попросту запоминает наизусть обучающую выбрку.Точно такой же результат можно было бы получить, не обучая сеть, а решив Систему Линейных Алгебраических уравнений для весов. Это даже быстрее. Беда в том, что на тестовой выборке с такими весами наш сумматор покажет погоду в Африке т.е. он начисто лишён способности к обобщению. На рис. красными линиями показана дисперсия (разброс) по серии экспериментов (n=50), а синяя линия - среднее (я всётаки набираю статистику, но иначе чем ты и об этом позже).

У тебя последние два выражения почти правильны, если не считать, что не должно быть индекса по статистике (ты проводишь всего ОДИН эксперимент и тебе нужен новый код, без набора статистики), а первое уравнение я не понял. Окуда оно? У меня сходный блок выглядит так:

Где j, это цикл по обучающему вектору. Заметь, индексов при иксе в квадрате у меня заметно поменьше!

P.S. Кстати, я отказался от использования сжимающей функции для весов, сначала для однослойки, а затем и для двуслойки. Без неё результаты ничуть не хуже, а мороки - меньше.

 
grasn >>:

ничего удивительного, если у меня, не математика это получилось, так что говорить о профи! :о)))


Разобрался. То что я делал можно считать примитивной версией AR, или наоборот, AR можно считать улучшенной версией того что я делал.

 
Neutron >>:

У тебя последние два выражения почти правильны, если не считать, что не должно быть индекса по статистике (ты проводишь всего ОДИН эксперимент и тебе нужен новый код, без набора статистики), а первое уравнение я не понял. Окуда оно? У меня сходный блок выглядит так:

Где j, это цикл по обучающему вектору. Заметь, индексов при иксе в квадрате у меня заметно поменьше!

P.S. Кстати, я отказался от использования сжимающей функции для весов, сначала для однослойки, а затем и для двуслойки. Без неё результаты ничуть не хуже, а мороки - меньше.

Первое уравнение это расчет длины вектора ошибки и нормировка его на длину вектора данных(т.е. то, как я это на данный момент понял) Причина скорее всего в том, что дейчтвительно нужен новый код без набора статистики. Сейчас сделаю.

Насчет сжимающей функции - у меня с ней как-то сразу не пошло(т.е. результат применения был не очевиден), поэтому я её и не использовал.

 
paralocus писал(а) >>

Первое уравнение это расчет длины вектора ошибки и нормировка его на длину вектора данных(т.е. то, как я это на данный момент понял)

Что тогда представляют последние два выражения?

Я считал, что второе, это нахождение квадратов длин векторов, а третье - нормированной длины. Если это так, то зачем первое выражение?

 
HideYourRichess >>:

Разобрался. То что я делал можно считать примитивной версией AR, или наоборот, AR можно считать улучшенной версией того что я делал.

Я не включал идентификацию модели, т.е. оптимальное определение длины выборки и порядка модели. С ними, думаю, можно довести до 90%. Совершенно не сомневаюсь, что у Вас будут результаты не хуже, и даже лучше. ;)

Причина обращения: