Обсуждение статьи "Третье поколение нейросетей: "Глубокие нейросети"" - страница 14

 
Rashid Umarov:
Вставляйте код правильно, пожалуйста. Я поправил
Спасибо. Не сразу сообразил какая это кнопочка.
 
Vladimir Perervenko:

Добрый день.

О каком скрипте идет речь?

Может Вы чуть подробней опишите что в скрипте?

Я так понимаю Вы добились запуска скрипта с процессом R в тестере?

Если это так, это интересно.

Распишите пожалуйста не спеша и как можно подробней. Процесс R  исполняется в связке клиент-сервер или один Rterm?

Да. Работает в связке клиент-сервер.

Как мне максимально просто это объяснить?

Я вывел код из функции OnTimer() в общую функцию для OnTick() и OnTimer(). Единственное, что добавил это пользовательский переключатель режима работы и счетчик тиков.

Все остальные процедуры запуска остались прежними. Чуть позже внедрю функцию в прилагаемый на форуме скрипт и выложу.

ПС: документация MQL4 говорит о том, что в тестере функция OnTimer() просто не работает. 

 
kimkarus:

Да. Работает в связке клиент-сервер.

Как мне максимально просто это объяснить?

Я вывел код из функции OnTimer() в общую функцию для OnTick() и OnTimer(). Единственное, что добавил это пользовательский переключатель режима работы и счетчик тиков.

Все остальные процедуры запуска остались прежними. Чуть позже внедрю функцию в прилагаемый на форуме скрипт и выложу.

ПС: документация MQL4 говорит о том, что в тестере функция OnTimer() просто не работает. 

По OnTimer() понятно.

По связке клиент-сервер какие  то дополнительные движения делали?

У меня так и не заработала связка. И не только у меня, судя по сообщениям на англоязычной ветке.

Удачи

 

Как и обещал, прикрутил здешний SAE к MQL4 для работы в тесторе стратегий.

i_SAE

e_SAE

Заменяем оригиналы, заново компилируем *.ex.

Запускаем тестер, выбираем  e_SAE, ставим параметр Enable timer = false и Count ticks = 120 (для меня это было оптимальным). Старт.

Добавляем скорость, дожидаемся магического сообщения "OPP = CLOSE...." слева, сбавляем скорость. После, добавляем на график i_SAE с параметром Send to server = true. Чуть-чуть добавляем скорости. Ждем завершения результатов.

Мой R был версии 3.2.2. Обязательно, в обоих файлах сравните вашу версию!

Всем удачных опытов! 

e_SAE

 
Здравствуйте, нашли ли вы способ решить проблему с сокетом сервера?
 

Здравствуйте, К статье прилагается обновленный эксперт.

К статьеприлагается обновленный эксперт.

Убирайтесь оттуда.

Уходите оттуда.

Владимир

 

Добрый день.

Вот это молодец. Спасибо.

Сейчас проверим как работает в тестере и в будущих примерах с R буду включать эту особенность.

В приложении к новой статье по DNRBM приложена переработанная версия этого советника DNSAE с самообучением, но без сервера.

Тестируйте.

Удачи

 
Здравствуйте, я вижу вы использовали 11 осциляторных индикаторов для входа, у меня есть несколько индикаторов в Mt4 и они не являются осциляторными, как я могу добавить или заменить эти индикаторы, как в вашей статье

Stacked RBM (DN_SRBM) https://www.mql5.com/ru/articles/1628

Deep neural network with Stacked RBM. Self-training, self-control
Deep neural network with Stacked RBM. Self-training, self-control
  • 2016.04.26
  • Vladimir Perervenko
  • www.mql5.com
This article is a continuation of previous articles on deep neural network and predictor selection. Here we will cover features of a neural network initiated by Stacked RBM, and its implementation in the "darch" package.
 
Потрясающе.

Интересно отметить, что если человек погружается в задачу, он улучшает ее
, в то время как если машина делает то же самое, она может застрять на локальном оптимуме.

Возможно, алгоритмическое погружение может эволюционировать от парадигмы "Изучение" к парадигме "Выполнение".

Отличная статья.Реквизиты
 
Vladimir Perervenko:


И снова у нас есть прибыльная фаза около 5 недель, пока модель не ухудшится.

Это нормально. Модель можно и нужно периодически переобучать.

Я считаю, что разделение на тестовые и обучающие данные излишне: мы можем использовать все данные для обучения.

Можно. Важно помнить несколько важных моментов:
1. обучающие и тестовые наборы не должны пересекаться.
2. Обучающий набор должен быть смешанным.

3. Если соотношение классов не сбалансировано - произвести корректировку.

Я рад, что нашлись коллеги, использующие R.

С наилучшими пожеланиями

Владимир

Здравствуйте,

помогите, пожалуйста, прояснить некоторые мои негативные предубеждения относительно нейронных сетей (НС).

  1. Правильно ли я понимаю, что сначала нужно оптимизировать индикаторы, которые будут заложены в НС?
  2. Затем оптимизировать параметры NN?
  3. Или вы оптимизируете параметры NN и индикаторов одновременно?
  4. Правда ли, что чем больше переменных нужно оптимизировать, тем больше опасность переадаптации?
  5. Если наборы данных для 1. и 2. одинаковы, не приведет ли это к чрезмерной адаптации к набору данных?
  6. Разве не на это указывает фраза"И снова у нас есть прибыльная фаза около 5 недель, пока модель не ухудшится".
  7. a) Предположим, у нас есть куча индикаторов, оптимизированных тестером, и теперь
    b) мы проводим вторую оптимизацию тестером только для того, чтобы проверить, какие из оптимизированных индикаторов нам нужны(*)
    c) так что у нас есть меньшая куча наших оптимизированных индикаторов
    d) для чего мне нужен NN?
  8. Знаете ли вы оценку того, насколько большим должен быть набор данных для NN из-за количества входов, слоев и перцептронов?


(*) К сожалению, если вы запустите оптимизатор mt4' в генетическом режиме и попытаетесь обойти определенные наборы параметров (например, не проверять, включен ли "индикатор-A"), вернувшись из OnInit() с"INIT_PARAMETERS_INCORRECT", генетический алгоритм все равно засчитает это как правильный проход, что уменьшит количество фактически выполненных проходов до остановки алгоритма из-за количества проходов, которое является одним из критериев завершения.