"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 3

 
TheXpert:

Полностью заинтерфейсить все сети наверное не получится, хотя надо бы попытаться.

если занести все функции на базовый класс и дать их virtual, то сделать гибкую абстракцию получится.
 
TheXpert:

6. Модели для нечеткой логики (не путать с вероятностными сетями). Не реализовывал. Но могут быть полезны. Если кто-то найдет информацию киньте плз. Почти все модели имеют японское авторство. Почти все собираются вручную, но если бы получилось автоматизировать построение топологии по логическому выражению(если я все правильно помню), это было бы нереально круто.

речь случаем идет не про Self-Organizing Incremental Neural Network ???
 
sergeev:
если занести все функции на базовый класс и дать их virtual, то сделать гибкую абстракцию получится.

Ну нельзя же так топорно подходить. Зачем сети Кохонена виртуальные функции по созданию топологии сети для MLP?

Объединить можно только базовые функции, типа

-распространить сигнал (прогнать входы)

-обучить

-добавить обучающие паттерны

-выдать ошибку

-сохранить\достать из файла

 
progma137:
речь случаем идет не про Self-Organizing Incremental Neural Network ???
Нет.
 
TheXpert:

Ну нельзя же так топорно подходить. Зачем сети Кохонена виртуальные функции по созданию топологии сети для MLP?

Объединить можно только базовые функции, типа

конечно, про них и речь. про базу.

но такие функции как "СоздатьСеть"  тоже должны быть в базовых классах. а как она уже реализуется в наследниках - какова топология будет-  дело самих наследников.

 
sergeev:

но такие функции как "СоздатьСеть"  тоже должны быть в базовых классах. а как она уже реализуется в наследниках - какова топология будет-  дело самих наследников.

Неет, не получится. По сути интерфейсы нужны только для объединения в комитеты, а в комитет можно передавать указатель на уже созданную сеть, так что и не нужно даже.
 
TheXpert:

5. PNN -- не использовал, не шарю. Но думаю найдутся умельцы.

Предлагайте другие модели.

PNN просто. Для примера можно взять уже готовый код "ближайщего соседя" (kNN) в кодебазе. GRNN тоже входит сюда.

Этот проект довольно огромный. Можно годы потратить на написание кода всех сетей и всё равно всем не угодишь. Мне известные нейро-спецы тут говорят что если сеть не была введена в последние 10-15 лет, то она уже устарела. Последние веяния в этой области это само-обучающиеся биологические сети использующие ICA и sparse coding. Погуглите "sparse coding" и "compressed sensing", а также работы Olshausen и Fields по Sparse Nets и их последователей. Это клад. Restricted Boltzman Machines (RBM), которые являются основой Deep Belief Nets (DBN), и Convolutional Networks тоже завоевали большую популярность из-за их универсальности. Почитайте работы Geoffrey Hinton и Yann LeCun:

http://www.cs.toronto.edu/~hinton/

http://yann.lecun.com/ 

Вот эти лекции Олсхаузена и Хинтона на английском очень интересны:

https://www.youtube.com/watch?v=_G1RsAZXovE 

https://www.youtube.com/watch?v=AyzOUbkUf3M 

Если кто-то решит закодировать Sparse Net для MQL5, буду очень заинтересован в сотрудничестве. Хотя, те кто знает меня, у меня терпение очень короткое и я часто теряю интерес к начатому делу :)

Home Page of Geoffrey Hinton
  • www.cs.toronto.edu
I now work part-time for Google as a Distinguished Researcher and part-time for the University of Toronto as a Distinguished Professor. For much of the year, I work at the University from 9.30am to 1.30pm and at the Google Toronto office at 111 Richmond Street from 2.00pm to 6.00pm. I also spend several months per year working full-time for...
 
Хотелось бы ко всему этому увидеть еще что то вроде справки, в справке отдельный раздел посвятить, причем направленный написанный с акцентом для новичков. Я вот к примеру уже хочу с этими нейро шутками познакомиться.
 

Для испытаний предлагаю торговую систему на пересечении двух МА

В чем плюс: Система элементарна, понятна и стара как мир.

Что требуется: Для работоспособности системы необходима постоянная переоптимизация всего 2 параметров, но, когда вопрос касается - количества валютных пар, таймфреймов и поиска длительности периодов оптимизации - задача разрастается в геометрической прогрессии. Можно добавить прогресии если добавить методы усреднения машек и методы вычисления.

А по сути всего два параметра. Можно будет не отвлекаться на саму торговую систему, а сконцентрироваться собственно на нейропроекте. 


 PS Советник сейчас по двум МА участвует в конкурсе в моем лице, иллюзий не строю, советник ваялся в попыхах, риски и параметры выставлялись на глаз и за три месяца они станут не актуальны. Достаточно того, что сбылась мечта об участии в конкурсе :-), хотя хочется конечно забраться на первую страницу рейтинга, ну, да это уже лирика...

 
IvanIvanov:

Для испытаний предлагаю торговую систему на пересечении двух МА

В чем плюс: Система элементарна, понятна и стара как мир.

на разумеется тут все понятно, кроме одного - причем тут НC?)

gpwr:

Можно годы потратить на написание кода всех сетей и всё равно всем не угодишь. Мне известные нейро-спецы тут говорят что если сеть не была введена в последние 10-15 лет, то она уже устарела. Последние веяния в этой области это само-обучающиеся биологические сети использующие ICA и sparse coding. Погуглите "sparse coding" и "compressed sensing", а также работы Olshausen и Fields по Sparse Nets и их последователей. Это клад. Restricted Boltzman Machines (RBM), которые являются основой Deep Belief Nets (DBN), и Convolutional Networks тоже завоевали большую популярность из-за их универсальности. Почитайте работы Geoffrey Hinton и Yann LeCun:

Если начинать с этого можно сразу ставить крест на всей затее. В этом можно "погрязнуть" на года. За ссылки кстати спасибо, начал читать - темный лес). Но лучше все же начинать от простого (перечисленной классики НС вполне будет достаточно на мой взгляд) и постепенно к сложному и для всех новому, дополняя и улучшая. Чем быстрее проект даст какой-то осязаемый "выхлоп" - тем больше у него шансов придти к логическому завершению. 

Причина обращения: