"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 90

 
litechat:

Я извиняюсь, я просто ни разу не выкладывал код.

Смотрю все решилось это хорошо. 

тогда из википедии битую ссылку уберите.
 
sergeev:
тогда из википедии битую ссылку уберите.
Уже заменил ее.
 
Торговую утилиту NeuroPlus
Торговую утилиту NeuroPlus
  • 2015.10.19
  • Roma Ivanov
  • www.mql5.com
Утилита позволяет обучать нейронную сеть (многослойный перцептрон) не прибегая к языку программирования. В сеть можно подавать любые индикаторы. Нормализация входных данных происходит на лету, по выбору пользователя. Обучение сети происходит также на...
 
Andrey Dik:

проект Open Source движка нейронной сети для платформы MetaTrader 5

Так чо там в результате? Есть где то нейронка под МТ5? Где лежит?
 
kapelmann:
Так чо там в результате? Есть где то нейронка под МТ5? Где лежит?
Есть. На Питоне. Лежит где-то там)
 
kapelmann:
Так чо там в результате? Есть где то нейронка под МТ5? Где лежит?

проект заглох, к сожалению.

но в штатной поставке терминала появился Alglib, обратите на него внимание. 

 
Andrey Dik:

проект заглох, к сожалению.

но в штатной поставке терминала появился Alglib, обратите на него внимание. 

Там ограничение на количество слоев в MLP. Как и в оригинальном Alglib.
 
Andrey Dik:

проект заглох, к сожалению.

но в штатной поставке терминала появился Alglib, обратите на него внимание. 

Dmitriy Skub:
Там ограничение на количество слоев в MLP. Как и в оригинальном Alglib.

Гммм... вообще странно, читаешь некоторые посты типа:

TheXpert:

Гхм (скромно) насчет реакции -- уже есть 3 либки для нейронок. 

В одной больше 10 сеток. Работал с сетями Кохонена, MLP, рециркуляционными, Хопфилда ... , 

во второй реализация общего случая сети MLP + Жордана-Элмана -- т.е. любой топологии (направленный граф) с возможностью обратного замыкания любых слоев, 

третья -- реализация Эхо-сети, самая любимая :) . 

Давно это было правда (кроме эхо-сети), но вспомнить можно. Не работал с вероятностными моделями. Не знаком с последними улучшениями метода градиентного спуска и гибридными методами.


 по мне интересны 4 сети из реализованных

1. Сети Кохонена, в т.ч. SOM. Хорошо использовать для разделения на кластеры там, где непонятно чего искать. Топология думаю известна на входе вектор, на выходе вектор или по-другому сгруппированные выходы. Обучение может быть как с учителем, так и без.

2. MLP , в максимально общем виде, т.е. с произвольным набором слоев, организованных в виде графа с наличием обратных связей. Применяется очень широко

3. Рециркуляционная сеть. Честно говоря, ни разу не видел нормальной рабочей нелинейной реализации. Применяется для сжатия информации и выделения главных компонент (PCA) . В простейшем линейном виде представляется как линейная двуслойная сеть, в которой сигнал можно распространять с обеих сторон (или трехлойная в развернутом виде). 

4.Эхо-сеть. По принципу схожа с MLP, применяется там же. Но абсолютно отличается по организации и имеет четко заданное время обучения (ну и всегда выдает глобальный минимум, в отличие).

5. PNN -- не использовал, не шарю. Но думаю найдутся умельцы.

6. Модели для нечеткой логики (не путать с вероятностными сетями). Не реализовывал. Но могут быть полезны. Если кто-то найдет информацию киньте плз. Почти все модели имеют японское авторство. Почти все собираются вручную, но если бы получилось автоматизировать построение топологии по логическому выражению(если я все правильно помню), это было бы нереально круто.

И думаешь огого какие тут гении собрались, а в результате "проект заглох" и из готового есть только это  и похоже что большинство тут просто мелкие врунишки.

 
kapelmann:

Гммм... вообще странно, читаешь некоторые посты типа:

И думаешь огого какие тут гении собрались, а в результате "проект заглох" и из готового есть только это  и похоже что большинство тут просто мелкие врунишки.

В их маркете как грязи.

 
kapelmann:

Гммм... вообще странно, читаешь некоторые посты типа:

И думаешь огого какие тут гении собрались, а в результате "проект заглох" и из готового есть только это  и похоже что большинство тут просто мелкие врунишки.

это ж опенсурс проект, никто никому ничего не обязан.... чисто на интузизизме жиждился.
а собрать гениев в группу бывает ох как не просто, к тому же кому то просто надоедает, кому то кажется что он ляму усерднее тянет чем другие...
было интересно, весело, а что ещё надо? кому было интересно - тот что то для себя узнал нового, полазил по викям и книжкам и то разминка для мозгов.
а кто сидел и ждал готовых решений - не обессутьте.
всем активным участникам проекта - спасибо, а остальным - не поминайте лихом.

Причина обращения: