Стерео Нейро Сеть

 

В авишке, если правильно скосить глаза и впасть в состояние Нирваны, можно заметить, как 3-х слойная двух-входовая нелинейная сетка лопатит входные данные (ценовой ряд) пытаясь найти в них скрытые закономерности. И, таки, находит.

P.S. Серьёзно это воспринимать не надо.

Файлы:
3d_1.zip  1295 kb
 
Neutron >>:

В авишке, если правильно скосить глаза и впасть в состояние Нирваны, можно заметить, как 3-х слойная двух-входовая нелинейная сетка лопатит входные данные (ценовой ряд) пытаясь найти в них скрытые закономерности. И, таки, находит.

P.S. Серьёзно это воспринимать не надо.

А раньше, как сейчас помню, в малом зале кинотеатра "Октябрь", специальные очки давали...

 
это шо,очередные мультяшки какой-то фирмы,рекламируещей нейро-пакеты?
 
Не-е, эт мои мультяшки. Я их сам придумал, точнее она (НС) придумала как два входных сигнала разделить на Buy и Sell.
 
Neutron >>:
Не-е, эт мои мультяшки. Я их сам придумал, точнее она (НС) придумала как два входных сигнала разделить на Buy и Sell.

похоже как на квантование входных данных,как в SOM,или это какой-то другой тип НС ?

 
А почему два графика?
 

Ну, дык чтоб стерео было. Это реально трёх-мерная картинка.

budimir писал(а) >>

похоже как на квантование входных данных,как в SOM,или это какой-то другой тип НС ?

Это обычный трёхслойный персептрон со смещением и нелинейностью в каждом нейроне, полностью переобучаемый на каждом баре.
 
если это обычный трёхслойный персептрон,то какая необходимость его полностью переобучать на КАЖДОМ баре?
 

Можно вопросом на вопрос?

Если есть такая возможность, то почему нет?

 

возможность-то такая есть,однако существуют спец.виды НС,где нужно проводить обучение на каждом баре,что же касается НС типа MLP ,

то практически такой необходимости - НЕТ.Ведь наверное, должны быть какие-то критерии о  необходимости  MLP полностью переобучать на КАЖДОМ баре,

а такой критерий-что такая возможность есть - является сомнительным. 

 
Ведя этот диалог, мы, подсознательно, решаем отличающиеся задачи оптимизации (в глобальном смысле). О том, какой подход избрали вы - я могу только догадываться. О своём же, могу сказать, что на данном этапе исследований, мне заведомо хватает имеющихся в распоряжении вычислительных мощностей что бы не ограничивать себя по-параметру "сложность обучения НС". Очевидно, что вреда в переобучении (дообучении) НС на каждом шаге нет. Таким образом, я могу сконцентрировать своё внимание на других интересных аспектах ИИ, понизив размерность пространства параметров в исследуемой области на один. Думаю, что в этом смысле, я поступаю оптимально.
Причина обращения: