"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 35
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
По идее надо чтобы перекликалось ( дружило ) с лого метаквот
MetaPerceptive ;) (Percipient Perception)
под это название даже мысль для лого есть :) -- робот, нюхающий цветок -- игра на двузначности слова Perceptive (воспринимающий, чувствительный) . Чем необычней робот, тем лучше :)
________
просто и со вкусом Neural. или TheNeural :)
________
Neural Nets eXtension (NNX).
________
Neural Nets Xpert (NNXpert) :))))
________
Neural Nets Toolkit (NNToolkit)
________
Neural Nets Tools (NNTools)
Я за Neural Nets eXtension (NNX)
особенно в этой части Neural Nets eXtension (NNX) ибо натрахаемся мы с ней отдуши
Не лучше всё же трансформировать в Neural Universal eXtension (NUX) почти LINUX
Если вопрос ко мне, то в литературе, описанные мною сети называют hierarchical neural networks.
ЕМНИП, когнитрон представляет из себя нечто похожее.
Ждем продолжения :)
Да, надо будет потом или голосовалку устроить или Метаквотам варианты кинуть.
Зачем спешить , ещё в принципе надо учесть в названии продукта и возможность обмена с другими нейропакетами и генерацию на финальной стадии готового советника.
Продукт больше чем NN . В процессе может обрасти ещё чем нибудь полезным.
Продукт больше чем NN.
Понятно. Но завязан именно на NN. Будет завязан вернее.
Я боюсь, чтобы не получилось что-нить типа "AWVREMGVTWNN" :) , главное суть передать, нюансы не так важны.
Надо информация по
-Conjugate gradient descent
-BFGS
Метод сопряженных градиентов (вики)
-BFGS (вики)
Лекция 3. HMAX модель
Чтобы лучше понять детали биологического преобразования зрительной информации, рассмотрим популярную модель распознования объектов HMAX ("Hierarchical Model and X"). Эта модель была создана сотрудниками MIT во главе с Tomaso Poggio в конце 90-х. Описание и код модели можно найти здесь
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
С небольшими доработками, HMAX справляется с задачой распознования лиц намного лучше чем классические нейронные сети. Вот эта картинка довольно хорошо описывает модель:
Первый слой модели (S1) сосотоит из фильтров коротких прямых отрезков четырёх разных наклонов (вертикальные, горизонтальные, 45-градусов наклона и 135-градусов наклона - показаны красным, жёлтым, зелёным и синим цветом), 16-и размеров каждый, таким образом что каждый участок входного изображения "покрыт" 4 х 16 фильтрами. Каждый фильтр представляет собой нейрон с выходом равным сумме пикселов изображения в каком-то участке изображения помноженным на входные веса этого нейрона. Эти входные веса описываются функцией Габора. Вот пример этих фильтров (весов):
Второй слой модели (C1) состоит из сложных нейронов. Каждый сложный нейрон выбирает максимальную активацию (выход) S1-нейронов, фильтрующих отрезки одного и того же наклона в разных участках изображения и двух соседних размеров. Таким образом, этот сложный нейрон обладает инвариантностью к положению и размерам элементарных отрезков, что объяснено внизу:
Нейроны третьего слоя модели (S2) берут входы от C1 нейронов. В итоге получаем фильтры более сложных фигур (обозначенных на первом рисунке P1, P2,...) состоящих из элементарных отрезков. Для каждой фигуры имеем 4 наборов фильтров разных размеров. Фильтры внутри каждого набора отличаются своим пространственны положением ("смотрят" на разные участки изображения).
Нейроны четвёртого слоя модели (C2) выбирают максимальную активацию S2-нейронов, фильтрующих одну и ту же фигуру но разных размеров и пространственного расположения. В итоге получаем фильтры более сложных фигур, инвариантные к их положению и размерам.
Ссылки:
T. Serre "Robust object recognition with cortex-like mechanisms", IEEE Trans. on Pattern, Aug 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf