Нейронная сеть в виде скрипта - страница 12

 
TheXpert писал (а) >>

Тем не менее многие проблемы решаются 5-слойным персептроном, наличие теоремы не означает, что 3-слойный персептрон панацея.

Просто утверждается, что все (за очень малым исключением) проблемы решаются 2-слойным персептроном с одним скрытым слоем! Да, по-поводу терминологии, похоже, что вы считаете входные узлы НС (те, что не содержат нейронов) за слой, а я нет.

Что лучше -- использовать сеть 5-6-6-2 или 3-слойную замену 5-25-2 ? Такое большое число вполне может получиться для обеспечения должной нелинейности.

Я бы использовал архитектуру X-Y-1 - она решает поставленную задачу. Причём, число нейронов в скрытом слое Y подбирал бы экспериментально начиная с 2 и до тех пор, пока обобщающие свойства сети не перестали бы улучшаться. По моему скромному опыту, для многих практических реализаций достаточно двух нейронов в этом слое. При дальнейшем наращивании числа нейронов время обучения растёт, а из-за увеличения числа синапсов, приходится увеличивать величину обучающей выборки или размерность входа, что приводит к "обработке" незначимой информации или ухудшению аппроксимирующих свойств НС (эти свойства, согласно Ежову, падают как 1/d, где d - число входов) и т.д. и т.п. что не есть хорошо.

Можно, конечно, построить и десятислойный персептрон и он будет работать... но нафига?

 
Neutron писал (а) >>

Просто утверждается, что все (за очень малым исключением) проблемы решаются 2-слойным персептроном с одним скрытым слоем! Да, по-поводу терминологии, похоже, что вы считаете входные узлы НС (те, что не содержат нейронов) за слой, а я нет.

Я бы использовал архитектуру X-Y-1 - она решает поставленную задачу. Причём, число нейронов в скрытом слое Y подбирал бы экспериментально начиная с 2 и до тех пор, пока обобщающие свойства сети не перестали бы улучшаться. По моему скромному опыту, для многих практических реализаций достаточно двух нейронов в этом слое. При дальнейшем наращивании числа нейронов время обучения растёт, а из-за увеличения числа синапсов, приходится увеличивать величину обучающей выборки или размерность входа, что приводит к "обработке" незначимой информации или ухудшению аппроксимирующих свойств НС (эти свойства, согласно Ежову, падают как 1/d, где d - число входов) и т.д. и т.п. что не есть хорошо.

Допустим, у нас 10 на входе. 2 в скрытом слое хватит?? Не верю, не сойдется на достаточно не простой задаче.

По поводу входного слоя. Иногда стОит делать входной слой с порогами, поэтому лучше его рассматривать как еще один слой, как неотъемлемую часть всей системы.

 
sergeev писал (а) >>


Хм.. а можно как-то обобщить этот оптимум. И про 5-ти и 3-х слойные тоже интересно. Где есть теория?



Насчет оптимума -- мой личный, может быть и ошибочный, опыт. Про количество слоев -- сталкивался на практике. Зависит от нелинейности преобразования входов в выходы, бОльшую часть задач по силам решить 3-слойной сети. Насчет теории, извините, давно это было...

 
TheXpert писал (а) >>

Тем не менее многие проблемы решаются 5-слойным персептроном, наличие теоремы не означает, что 3-слойный персептрон панацея.


Что лучше -- использовать сеть 5-6-6-2 или 3-слойную замену 5-25-2 ? Такое большое число вполне может получиться для обеспечения должной нелинейности.

Между прочим, знаете самую сходимую архитектуру для XORa?


4 нейрона средний -- сигмоидный


Для XOR-a есть аналитическое решение:


outXOR = in1 + in2 - 2*in1*in2


где: in1 и in2 входы принимающие значения от 0 до 1


Сходимость мгновенная.

 
Reshetov писал (а) >>


Для XOR-a есть аналитическое решение:


outXOR = in1 + in2 - 2*in1*in2


где: in1 и in2 входы принимающие значения от 0 до 1


Сходимость мгновенная.

ЛОЛ, для любой функции есть аналитическое решение, только вот найти его... иногда оооочень затруднительно.

Этот пример я привел для того, чтобы лишний раз показать, что 3-слойный персептрон не всегда лучший вариант.

 
TheXpert писал (а) >>

Этот пример я привел для того, чтобы лишний раз показать, что 3-слойный персептрон не всегда лучший вариант.

Эту задачу можно решить и 3-слойным персептроном с порогом в нейронах и НС на основе радиальных функций её осилит:

Вобщем, вариантов много, задача состоит в поиске адекватного.

 
Neutron писал (а) >>

Эту задачу можно решить и 3-слойным персептроном с порогом в нейронах и НС на основе радиальных функций её осилит:

Вобщем, вариантов много, задача состоит в поиске адекватного.

Спасибо за картинку.

 
Дайте пожалуйста эти книги. Или кто авторы.
 
Это из Хайкина. Детали на предыдущей странице топика.
 

Вот стоит конкретная задача написать скрипт, который в данный момент на заданную глубину истории выдаст решение -

купить, продать или на забор, необходимо определить конкретную минимальную конфигурацию сети и минимальное необходимое кол-во входов.Затем реализовать. Т.е. определить техзадание и затем всем миром навалиться на реализацию, чтоб был конкретный продукт который можно набросить на график и посмотреть результат. Нечто подобное реализованное в виде нейроиндикатора я видел на сайте klotа.

http://www.fxreal.ru/forums/topic.php?forum=2&topic=1

Причина обращения: