Рыночный этикет или правила хорошего тона на минном поле - страница 89

 
paralocus писал(а) >>
Я вот думаю, что длина обучающей выборки не может быть всего лишь функцией от конфигурации сети(количество входов и количество нейронов), возможно должна учитываться некоторая характеристика ряда на котором мы хотим обучать сеть.

Это возможно, если ВР не стационарен и поправка будет определятся характером нестационарности. Однако, нам пока далеко до поправок - неизвесен тип зависимости длины выборки от числа весов и размерности входа НС. Интуитивно, я считаю, что общий вид будет выглядеть так: P=4*w, и это верно для любой архитектуры НС.

Фёдор, а что ты скажешь, относительно моего "прозрения" на проблему прогнозирования бинарных ВР? Ведь тот факт, что для этого частного случая ВР, можно столь же эффективно как НС, использовать в качестве прогнозной машинки - статанализ, основательно развязывает нам руки в плане ресурсоёмкости процесса. Я считаю, что это прорыв. Там, где "непонимающие" трейдеры тратят силы и время на тренировку пяти-слойных НС с адаптивной архитектурой, достаточно с тем же результатом всеголишь собрать статистику и не жузать (как говаривал В.И.Ленин).

 
Neutron >>:

Это возможно, если ВР не стационарен и поправка будет определятся характером нестационарности. Однако, нам пока далеко до поправок - неизвесен тип зависимости длины выборки от числа весов и размерности входа НС. Интуитивно, я считаю, что общий вид будет выглядеть так: P=4*w, и это верно для любой архитектуры НС.

Фёдор, а что ты скажешь, относительно моего "прозрения" на проблему прогнозирования бинарных ВР? Ведь тот факт, что для этого частного случая ВР, можно столь же эффективно как НС, использовать в качестве прогнозной машинки - статанализ, основательно развязывает нам руки в плане ресурсоёмкости процесса. Я считаю, что это прорыв. Там, где "непонимающие" трейдеры тратят силы и время на тренировку пяти-слойных НС с адаптивной архитектурой, достаточно с тем же результатом всеголишь собрать статистику и не жузать (как говаривал В.И.Ленин).

Скажу тебе, Сергей, что выглядит сие более чем заманчиво. Сейчас я несколько отдалился от самих сетей, поскольку занялся тиками и основательных экспермиентов на сетках с бинарными входами до сих пор избегал. Но сейчас время освободилось, так что я намерен вернуться к опытам над сеткми, в т.ч. с бинарными входами. Если можно обойтись совсем без сеток... это действительно прорыв. Помниться Prival, да и не только он, высказывал идею насчет базы данных паттернов. Вот если бы статистическая модель позволяла составить такую БД, то эксперт получился бы по-детки простым, но по-взрослому эффективным. Кстати совсем отходить от сеток, быть может и не стоит, просто сетке надо будет поменять задачу - вместо прогноза следующего отчета, она может заниматься распознаванием паттернов - имхо задача куда более перспективная и очень подходит под область применения систем с нечеткой логикой. Что скажешь?

 
Neutron писал(а) >>

...использовать в качестве прогнозной машинки - статанализ, основательно развязывает нам руки в плане ресурсоёмкости процесса. Я считаю, что это прорыв...

Почему бы для этого не использовать:

- асс. правила или

- Кохоннена?

Они и дают ту самую вероятность и подержку.

 

Вот это жесть! Давно тут не был. Уже 90 страниц.:) Когда вы ребята успеваете еще и сетки делать, просто уму не постижимо.:)

 
M1kha1l писал(а) >>

Почему бы для этого не использовать:

- асс. правила или

- Кохоннена?

Они и дают ту самую вероятность и подержку.

Зачем?!

Ведь эту работу в случае бинарных входных данных, с тем же успехом решит статанализ паттерн. Суди сам - никаких заморочек с обучением и поиском оптимальной архитектуры. Как, совершенно справедливо отметил paralocus, -"...эксперт получился бы по-детки простым, но по-взрослому эффективным"!

 

Взялся за эксперименты с бинарными входами, есть один вопрос. Однажды я его уже задавал, но повторюсь:

Если я подаю на входы знаки ряда первой разности по РТ, то и прогнозировать я должен именно энак следующего приращения...

Ниже представлен код моей однослойки(начал пока с неё) и в этом коде в качестве ошибки на выходе сетки берется не знак, а амплитуда, хотя в самом расчете OUT используется именно знак. Насколько это корректно? Не следует ли использовать в качестве ошибки тоже знак, или на худой конец(конечно, с худым концом здесь делать нечего...) амплитуду достаточную для получения соотвтствующего знака на выходе?


 
paralocus писал(а) >>

Скажу тебе, Сергей, что выглядит сие более чем заманчиво. Сейчас я несколько отдалился от самих сетей, поскольку занялся тиками и основательных экспермиентов на сетках с бинарными входами до сих пор избегал. Но сейчас время освободилось, так что я намерен вернуться к опытам над сеткми, в т.ч. с бинарными входами. Если можно обойтись совсем без сеток... это действительно прорыв. Помниться Prival, да и не только он, высказывал идею насчет базы данных паттернов. Вот если бы статистическая модель позволяла составить такую БД, то эксперт получился бы по-детки простым, но по-взрослому эффективным. Кстати совсем отходить от сеток, быть может и не стоит, просто сетке надо будет поменять задачу - вместо прогноза следующего отчета, она может заниматься распознаванием паттернов - имхо задача куда более перспективная и очень подходит под область применения систем с нечеткой логикой. Что скажешь?

Уржалсо :) Вроде вумные дяди а смотрите на полхода. На входе эксперта в этой схеме с необходимостью должна быть та самая БД со статистикой по паттернам. Ну и СКОЛЬКО паттернов туда планируете положить?

Все возможные? Желаю удачи... :) А если не все - то сколько конкретно? И чем эта задачка проще чем НС?

Эксперт оно конечно будет в итоге шустрый. Только кормить его по ходу нужно "истинами" из БД, которые, кста, на проверку-то отнюдь не истины. Никакая Fuzzy не помогет из помойки прошлого (БД) вытянуть варенье будущего.

// Вапчета, если чесна - я проверял. С года полтора назад.

// Только схема была элегантнее. Хорошо и творчески подумамши, я рассудил так: если мне в конкретный

// момент нужно принять решение по паттерну имеемогу в настоящем времени, то нах мне нужна гигабаза с

// х-й тучей неактуальных паттернов??? Беру текуший паттерн прямо щас из печки и гоню его назад по истории,

// собирая по ходу нужную статистику. После сбора - сразу юзаю. Размерность задачи уменьшается в x^n

// раз, где n=количество паттернов в БД. Гы.

// Сделал. Получил результаты. В целом

// отрицательные, хотя по ходу открыл некую мета-закономерность. Какую не скажу, пожадничаю. Потому как

// вовсе неочевидная закономерность, её ещё увидеть надо. Так что сами шустрите. Удачи. (без иронии)

// Ещё раз резюмирую: ожидаемого результа в этой схеме не получите. Но можете словить некое "сатори".

// Оно может дать пару отмычек к пониманию природы рынка как Обучающейся МетаСистемы. Что есть ГУД.

 
MetaDriver >>:

Уржалсо :)


Могит поспешил? Смеётся, говорят ковбои, тот, кто смеется последним...

Вроде бы большой БД здесь не предвидится. От силы сотня - полторы паттерн, а скорее всего и меньше. Ты ведь свою систему по свечкам, поди гонял...

 
paralocus писал(а) >>

Взялся за эксперименты с бинарными входами, есть один вопрос. Однажды я его уже задавал, но повторюсь:

Если я подаю на входы знаки ряда первой разности по РТ, то и прогнозировать я должен именно энак следующего приращения...

Ниже представлен код моей однослойки(начал пока с неё) и в этом коде в качестве ошибки на выходе сетки берется не знак, а амплитуда, хотя в самом расчете OUT используется именно знак. Насколько это корректно? Не следует ли использовать в качестве ошибки тоже знак, или на худой конец(конечно, с худым концом здесь делать нечего...) амплитуду достаточную для получения соотвтствующего знака на выходе?

Тут дело обстоит так: Основная причина перехода на бинарный ВР заключается в возможном отказе от процедур нормирования и выбеливания входов для НС и самое главное - переход от непрерывной анализируемой величины (бесконечное число значений) к бинарной, принимающей всего два значения +/-1. Это существенно экономит вычислительные ресурсы. Сама сеть обучается методом ОРО и для этого она формирует ошибку, определённую на области действительных чисел (не дискретную), поэтому, paralocus, подавая на вход +/-1 ты на выходе получишь значение в диапазоне от -1 до 1 с шагом 10^-8. И только, когда сеть закончит обучение, необходимо для прогноза использовать знак предсказанного движения, а его амплитуда, будет пропрциональна вероятности правильного прогноза (амплитуда всегда положительна). Эта вероятность может быть использована для дополнительного анализа в блоке ММ.

Всй преимущество НС в сравнении с другими методами анализа ВР заключается в возможности не аналитического (не явного) построения многомерной поверхности в пространстве "очень скудных" входных данных, к которой "притягиваются" значения исходного ВР (первая разность котира). В вслучае использования бинарного представления, мы имеем дело с гипер-поверхностью, которая вырождена в мнгомерный гипер-куб. Это подобие кристалла, у которого нет поверхности, но есть узлы его кристалической решётки (если уж совсем образно), координаты этих узлов нам известны доподлино и нам не нужно тратить свои ресурсы на выявление поверхности... Сеть не нужна.

Причина обращения: