"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 70
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Если кто это осилит дайте знать в чём суть.
Совмещение подходов адаптивного управления и детерминированного хаоса для построения эффективных автономных управляющих систем
Метод автономного адаптивного управления.
Логический адаптивный управляющий автомат с конечным числом входов
Короче говоря вот тут можно поискать http://www.aac-lab.com/rus/
Как я вовремя смотался :)) ...
Спасибо за либку :)
Как я вовремя смотался :)) ...
Как я вовремя смотался :)) ...
Спасибо за либку :)
Не рекламы ради, а пользы дела для: https://www.mql5.com/ru/code/712 - нативный Xml-парсер
Сам пользуюсь уже давно - вроде все ошибки пофиксил
Не рекламы ради, а пользы дела для: https://www.mql5.com/ru/code/712 - нативный Xml-парсер
Сам пользуюсь уже давно - вроде все ошибки пофиксил
Да да, уже скачал, вот только запустил, а реакции ни какой, оставил на потом разбираться.
ЗЫ щас закончу парсить литературу по адаптивным системам управления, потом займусь.
Завтра с рабочего компьютера скопирую сюда свои наработки по хранению прототипов сетей, постановки задач обучения, хранения найденных решений
???
Ну вообще то GPU в моей модели всплыл ещё на стадии обсчёта НС, если внимательно читал что я писал раньше, то заметил что в моей модели универсальной сети, сам процессинг разбит на слои, при этом нейроны объединяются в слои не формально (по принадлежности), а фактически (слой обладает памятью, а нейрон нет, нейрону остаётся быть лишь информационной сущностью поставляющей слою информацию откуда куда зачем). Так что параллельность определена самой структурой движка (сама информация внутри слоя обрабатывается параллельно). Я уже делал НС обучаемую ГА, и самый большой урон производительности был именно на расчёте НС (особенно на больших сетях). Ну и в качестве рекламы, могу сказать что для UGA предложенного joo обучение НС плёвое дело.
Но если получится ещё и запараллелить расчёты ФФ (а НС для ГА есть частью ФФ) то я только за. Хотя не думаю что это будет простая задача, в слоях производятся простые действия, а расчёт ФФ может предполагать довольно сложную последовательность.
Пока на этом можно остановиться. имхо.
Запаралелить расчет ФФ помог бы стандартный ГА и облако. Тем более Ренат обещал:
Админ
2516
Как раз параллельно разработке нейросети, мы расширим функционал агентов для поддержки математических расчетов и обмену большими объемами (файлами) данных.
Но как говорится, обещанного три года ждут.
Поэтому, на первое время, можно оптимизировать алгоритм joo конкретно под нейросети, будет работать еще быстрее. Надеюсь Андрей будет не против.
???
а) разбираем XmlParser
б) https://www.mql5.com/ru/forum/4956/page32#comment_110831
По мере появления вопросов будем продвигаться дальше
а) разбираем XmlParser
б) https://www.mql5.com/ru/forum/4956/page32#comment_110831
По мере появления вопросов будем продвигаться дальше
Можно маленький примерчик использования для МТ5?
Если рассматривать обучение нейронок как микроуровни (независимые циклы обработки массивов в ГА, расчет отдельных нейронов сети и др) и макроуровни (вся ФФ целиком), то с первым вопросов и проблем не возникает - всё прекрасно параллелится и чудесно будет работать на GPU.
А вот с макроуровнем проблема. Во первых, подозреваю, что это не возможно в силу ограничений на объём обрабатываемой инфы в GPU. Можно было бы это обойти, используя штатный тестер и облако (каждый макроуровень будет передаваться на отдельных агентов а там уже будет вестись обработка на микроуровне - если это позволяет хост конечно). Но у нас нет инструментов, позволяющих управлять тестером извне, что бы использовать внешний ГА.
Поэтому придётся ограничится ускорением на микроуровне. Ускорение тоже будет очень приличным, так как сами сетки и ГА изобилуют независимыми друг от друга вычислениями.
Что касается самого UGA - если не касаться его доработки под OpenCL, то усовершенствовать в нем практически уже нечего (разве что только отдельные какие то участки кода, но это погоду не сделает, спасибо участникам ветки обсуждения алгоритма из статьи). Можно лишь попробовать подобрать настройки UGA специально для обучения сетей.