"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 3

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Полностью заинтерфейсить все сети наверное не получится, хотя надо бы попытаться.
6. Модели для нечеткой логики (не путать с вероятностными сетями). Не реализовывал. Но могут быть полезны. Если кто-то найдет информацию киньте плз. Почти все модели имеют японское авторство. Почти все собираются вручную, но если бы получилось автоматизировать построение топологии по логическому выражению(если я все правильно помню), это было бы нереально круто.
если занести все функции на базовый класс и дать их virtual, то сделать гибкую абстракцию получится.
Ну нельзя же так топорно подходить. Зачем сети Кохонена виртуальные функции по созданию топологии сети для MLP?
Объединить можно только базовые функции, типа
-распространить сигнал (прогнать входы)
-обучить
-добавить обучающие паттерны
-выдать ошибку
-сохранить\достать из файла
речь случаем идет не про Self-Organizing Incremental Neural Network ???
Ну нельзя же так топорно подходить. Зачем сети Кохонена виртуальные функции по созданию топологии сети для MLP?
Объединить можно только базовые функции, типа
конечно, про них и речь. про базу.
но такие функции как "СоздатьСеть" тоже должны быть в базовых классах. а как она уже реализуется в наследниках - какова топология будет- дело самих наследников.
но такие функции как "СоздатьСеть" тоже должны быть в базовых классах. а как она уже реализуется в наследниках - какова топология будет- дело самих наследников.
5. PNN -- не использовал, не шарю. Но думаю найдутся умельцы.
Предлагайте другие модели.
PNN просто. Для примера можно взять уже готовый код "ближайщего соседя" (kNN) в кодебазе. GRNN тоже входит сюда.
Этот проект довольно огромный. Можно годы потратить на написание кода всех сетей и всё равно всем не угодишь. Мне известные нейро-спецы тут говорят что если сеть не была введена в последние 10-15 лет, то она уже устарела. Последние веяния в этой области это само-обучающиеся биологические сети использующие ICA и sparse coding. Погуглите "sparse coding" и "compressed sensing", а также работы Olshausen и Fields по Sparse Nets и их последователей. Это клад. Restricted Boltzman Machines (RBM), которые являются основой Deep Belief Nets (DBN), и Convolutional Networks тоже завоевали большую популярность из-за их универсальности. Почитайте работы Geoffrey Hinton и Yann LeCun:
http://www.cs.toronto.edu/~hinton/
http://yann.lecun.com/
Вот эти лекции Олсхаузена и Хинтона на английском очень интересны:
https://www.youtube.com/watch?v=_G1RsAZXovE
https://www.youtube.com/watch?v=AyzOUbkUf3M
Если кто-то решит закодировать Sparse Net для MQL5, буду очень заинтересован в сотрудничестве. Хотя, те кто знает меня, у меня терпение очень короткое и я часто теряю интерес к начатому делу :)
Для испытаний предлагаю торговую систему на пересечении двух МА
В чем плюс: Система элементарна, понятна и стара как мир.
Что требуется: Для работоспособности системы необходима постоянная переоптимизация всего 2 параметров, но, когда вопрос касается - количества валютных пар, таймфреймов и поиска длительности периодов оптимизации - задача разрастается в геометрической прогрессии. Можно добавить прогресии если добавить методы усреднения машек и методы вычисления.
А по сути всего два параметра. Можно будет не отвлекаться на саму торговую систему, а сконцентрироваться собственно на нейропроекте.
PS Советник сейчас по двум МА участвует в конкурсе в моем лице, иллюзий не строю, советник ваялся в попыхах, риски и параметры выставлялись на глаз и за три месяца они станут не актуальны. Достаточно того, что сбылась мечта об участии в конкурсе :-), хотя хочется конечно забраться на первую страницу рейтинга, ну, да это уже лирика...
Для испытаний предлагаю торговую систему на пересечении двух МА
В чем плюс: Система элементарна, понятна и стара как мир.
на разумеется тут все понятно, кроме одного - причем тут НC?)
Можно годы потратить на написание кода всех сетей и всё равно всем не угодишь. Мне известные нейро-спецы тут говорят что если сеть не была введена в последние 10-15 лет, то она уже устарела. Последние веяния в этой области это само-обучающиеся биологические сети использующие ICA и sparse coding. Погуглите "sparse coding" и "compressed sensing", а также работы Olshausen и Fields по Sparse Nets и их последователей. Это клад. Restricted Boltzman Machines (RBM), которые являются основой Deep Belief Nets (DBN), и Convolutional Networks тоже завоевали большую популярность из-за их универсальности. Почитайте работы Geoffrey Hinton и Yann LeCun:
Если начинать с этого можно сразу ставить крест на всей затее. В этом можно "погрязнуть" на года. За ссылки кстати спасибо, начал читать - темный лес). Но лучше все же начинать от простого (перечисленной классики НС вполне будет достаточно на мой взгляд) и постепенно к сложному и для всех новому, дополняя и улучшая. Чем быстрее проект даст какой-то осязаемый "выхлоп" - тем больше у него шансов придти к логическому завершению.