Скачать MetaTrader 5

Обсуждение статьи "Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль"

Авторизуйтесь или зарегистрируйтесь, чтобы добавить комментарий
Торгуй с помощью MetaTarder 5. Скачай прямо сейчас!
MetaQuotes Software Corp.
Модератор
181155
MetaQuotes Software Corp. 2016.03.31 15:44 

Опубликована статья Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль:

Статья является продолжением предыдущих статей по глубоким нейросетям и выбору предикторов. В ней мы рассмотрим особенность нейросети, инициируемой Stacked RBM, а также её реализации в пакете "darch".

При подготовке данных для проведения экспериментов мы будем использовать переменные из предыдущей статьи об оценке и выборе предикторов. Сформируем исходный набор, проведем его очистку и выбор важных переменных.

Рассмотрим варианты разделения исходной выборки на тренировочный, тестовый и валидационный наборы.

С помощью пакета "darch" построим модель сети DBN, обучим её на наших наборах данных. После тестирования модели получим метрики, по которым сможем оценить качество модели. Рассмотрим широкие возможности, которые предоставляет пакет для настройки параметров нейросети.

Рассмотрим, чем нам могут помочь скрытые Марковские модели для улучшения предсказаний нейросети.

Разработаем эксперт, в котором модель будет обучаться периодически на лету, без прерывания торговли, по результатам постоянного контроля. В эксперте будем использовать модель DBN из пакета "darch". Приведем также вариант эксперта, построенного с использованием SAE DBN из предыдущей статьи.

Укажем пути и методы улучшения качественных показателей модели.

Рис.1 Структурная схема DN_SRBM и процесс её обучения

Рис. 1. Структурная схема DN SRBM

Автор: Vladimir Perervenko

Sergey Chalyshev
4511
Sergey Chalyshev 2016.03.31 18:48  

Ниочем ( 

минус 

Alexey Burnakov
2998
Alexey Burnakov 2016.03.31 18:56  

Я более детально почитаю про глубокое обучение. Спасибо за статью.

Ждем интеграции R с MT5. 

Viktor Vasilyuk
560
Viktor Vasilyuk 2016.04.04 09:34  

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

RTrade
9
RTrade 2016.04.04 12:56  

Владимир. Спасибо Вам большое за этот цикл статей.

Чтобы понять ценность материала, необходимо проработать его. То. что Вы пишите упорядочило мои попытки. Понял места где я допустил ошибки, а где интуитивно выбрал верный путь. 

Правда, чтобы отработать randomUniformForest из статьи про выбор признаков, пришлось апгрейдить компьютер. :) Хотя достаточно устранить кореляции.  Очень позабавил параметр"hidden=c(100,100,100)" из статьи про DeepNetwork.

Жду следующую статью про Марковские процессы.

Vladimir Perervenko
2320
Vladimir Perervenko 2016.04.04 19:18  
Виктор Василюк:

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

Добрый день.

В приложении к первой статье много разной литературы.

Сейчас появилось много ресурсов на русском языке, тиснете в гугл.

Удачи

Vladimir Perervenko
2320
Vladimir Perervenko 2016.04.04 19:21  
RTrade:

Владимир. Спасибо Вам большое за этот цикл статей.

Чтобы понять ценность материала, необходимо проработать его. То. что Вы пишите упорядочило мои попытки. Понял места где я допустил ошибки, а где интуитивно выбрал верный путь. 

Правда, чтобы отработать randomUniformForest из статьи про выбор признаков, пришлось апгрейдить компьютер. :) Хотя достаточно устранить кореляции.  Очень позабавил параметр"hidden=c(100,100,100)" из статьи про DeepNetwork.

Жду следующую статью про Марковские процессы.

Добрый день.

Рад, что был полезен представленный материал.

А что забавного в параметр"hidden=c(100,100,100)"? Честно не понял.

На проверке статья о самооптимизации экспертов.(генетической оптимизации). По Марковским моделям не уверен, что нужно.

Удачи

СанСаныч Фоменко
6134
СанСаныч Фоменко 2016.04.05 11:01  
Может пропустил? Сравнивали глубокие сети с nnet?
RTrade
9
RTrade 2016.04.05 11:02  
Vladimir Perervenko:


А что забавного в параметр"hidden=c(100,100,100)"? Честно не понял.

 

Добрый день.  

Я имею ввиду, что на входе  у нас порядка 2-3 десятков значений индикаторов во входном векторе.  Если я правильно понимаю работу DeepLearning - происходит выделение признаков за счёт обучения промежуточного автоэнкодера. Т.е. было бы логично обучать что-то типа hidden=c(20,12,5), чтобы выполнить сжатие входного образа.  

Также предполагал, что такой кейс можно использовать когда на вход подаётся вектор сразу из нескольких валютных пар, к примеру, чтобы отследить общие тенденции на рынке, к примеру, уход инвесторов в золото. По логике это похоже на распознавание образов, когда выделяются отдельные элементы, обобщаются в отдельные фичи, выявляются закономерности. И здесь входная корреляция не так важна, т.к. группируется и отсеивается на входных слоях. Тогда и логична сеть hidden=c(1007550, 25, 10, 5). Имеет ли смысл экспериментироватаь в эту сторону?

Обычно мало кто использует более 20 признаков для обучения модели.

СанСаныч Фоменко
6134
СанСаныч Фоменко 2016.04.05 11:04  
Виктор Василюк:

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

С R все до идиотизма просто. Ставим R и начинаем работать. Интерпретатор. Каждая строка чрезвычайно емкая. На первых порах вообще без проблем. А потом, когда определитесь с необходимым, начинаете читать... 
Vladimir Perervenko
2320
Vladimir Perervenko 2016.04.05 11:32  
СанСаныч Фоменко:
Может пропустил? Сравнивали глубокие сети с nnet?

Приветствую СанСаныч.

Вопрос к кому?

12345
Авторизуйтесь или зарегистрируйтесь, чтобы добавить комментарий