"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 35

 
вы накидайте эскизы конструктора, а там по составу будет видно что из чего называть...
 
Mischek:
По идее надо чтобы перекликалось ( дружило ) с лого метаквот

MetaPerceptive ;) (Percipient Perception)

под это название даже мысль для лого есть :) -- робот, нюхающий цветок -- игра на двузначности слова Perceptive (воспринимающий, чувствительный) . Чем необычней робот, тем лучше :)

________

просто и со вкусом Neural. или TheNeural :)

________

Neural Nets eXtension (NNX).

________

Neural Nets Xpert (NNXpert) :))))

________

Neural Nets Toolkit (NNToolkit)

________

Neural Nets Tools (NNTools)

 
TheXpert:

Я за Neural Nets eXtension (NNX)

особенно в этой части Neural Nets eXtension (NNX)  ибо натрахаемся мы с ней отдуши

Не лучше всё же трансформировать в Neural Universal eXtension (NUX) почти LINUX

 
Да, надо будет потом или голосовалку устроить или Метаквотам варианты кинуть.
 
gpwr:
Если вопрос ко мне, то в литературе, описанные мною сети называют hierarchical neural networks.

ЕМНИП, когнитрон представляет из себя нечто похожее.

Ждем продолжения :)

 
TheXpert:
Да, надо будет потом или голосовалку устроить или Метаквотам варианты кинуть.

Зачем спешить , ещё в принципе надо учесть в названии продукта и возможность обмена с другими нейропакетами и генерацию на финальной стадии готового советника.

Продукт больше чем NN . В процессе может обрасти ещё чем нибудь полезным.

 
Mischek:

Продукт больше чем NN.

Понятно. Но завязан именно на NN. Будет завязан вернее.

Я боюсь, чтобы не получилось что-нить типа "AWVREMGVTWNN" :) , главное суть передать, нюансы не так важны.

 

Надо информация по

-Conjugate gradient descent

-BFGS

 
Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

Лекция 3. HMAX модель

Чтобы лучше понять детали биологического преобразования зрительной информации, рассмотрим популярную модель распознования объектов HMAX ("Hierarchical Model and X"). Эта модель была создана сотрудниками MIT во главе с Tomaso Poggio в конце 90-х. Описание и код модели можно найти здесь

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

С небольшими доработками, HMAX справляется с задачой распознования лиц намного лучше чем классические нейронные сети. Вот эта картинка довольно хорошо описывает модель:

 

Первый слой модели (S1) сосотоит из фильтров коротких прямых отрезков четырёх разных наклонов (вертикальные, горизонтальные, 45-градусов наклона и 135-градусов наклона - показаны красным, жёлтым, зелёным и синим цветом), 16-и размеров каждый, таким образом что каждый участок входного изображения "покрыт" 4 х 16 фильтрами. Каждый фильтр представляет собой нейрон с выходом равным сумме пикселов изображения в каком-то участке изображения помноженным на входные веса этого нейрона. Эти входные веса описываются функцией Габора. Вот пример этих фильтров (весов):

Второй слой модели (C1) состоит из сложных нейронов. Каждый сложный нейрон выбирает максимальную активацию (выход) S1-нейронов, фильтрующих отрезки одного и того же наклона в разных участках изображения и двух соседних размеров. Таким образом, этот сложный нейрон обладает инвариантностью к положению и размерам элементарных отрезков, что объяснено внизу:

 

Нейроны третьего слоя модели (S2) берут входы от C1 нейронов. В итоге получаем фильтры более сложных фигур (обозначенных на первом рисунке P1, P2,...) состоящих из элементарных отрезков. Для каждой фигуры имеем 4 наборов фильтров разных размеров. Фильтры внутри каждого набора отличаются своим пространственны положением ("смотрят" на разные участки изображения).

Нейроны четвёртого слоя модели (C2) выбирают максимальную активацию S2-нейронов, фильтрующих одну и ту же фигуру но разных размеров и пространственного расположения. В итоге получаем фильтры более сложных фигур, инвариантные к их положению и размерам.

Ссылки:

T. Serre "Robust object recognition with cortex-like mechanisms", IEEE Trans. on Pattern, Aug 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf 

Причина обращения: