Обсуждение статьи "Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль"

 

Опубликована статья Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль:

Статья является продолжением предыдущих статей по глубоким нейросетям и выбору предикторов. В ней мы рассмотрим особенность нейросети, инициируемой Stacked RBM, а также её реализации в пакете "darch".

При подготовке данных для проведения экспериментов мы будем использовать переменные из предыдущей статьи об оценке и выборе предикторов. Сформируем исходный набор, проведем его очистку и выбор важных переменных.

Рассмотрим варианты разделения исходной выборки на тренировочный, тестовый и валидационный наборы.

С помощью пакета "darch" построим модель сети DBN, обучим её на наших наборах данных. После тестирования модели получим метрики, по которым сможем оценить качество модели. Рассмотрим широкие возможности, которые предоставляет пакет для настройки параметров нейросети.

Рассмотрим, чем нам могут помочь скрытые Марковские модели для улучшения предсказаний нейросети.

Разработаем эксперт, в котором модель будет обучаться периодически на лету, без прерывания торговли, по результатам постоянного контроля. В эксперте будем использовать модель DBN из пакета "darch". Приведем также вариант эксперта, построенного с использованием SAE DBN из предыдущей статьи.

Укажем пути и методы улучшения качественных показателей модели.

Рис.1 Структурная схема DN_SRBM и процесс её обучения

Рис. 1. Структурная схема DN SRBM

Автор: Vladimir Perervenko

 

Ниочем ( 

минус 

 

Я более детально почитаю про глубокое обучение. Спасибо за статью.

Ждем интеграции R с MT5. 

 

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

 

Владимир. Спасибо Вам большое за этот цикл статей.

Чтобы понять ценность материала, необходимо проработать его. То. что Вы пишите упорядочило мои попытки. Понял места где я допустил ошибки, а где интуитивно выбрал верный путь. 

Правда, чтобы отработать randomUniformForest из статьи про выбор признаков, пришлось апгрейдить компьютер. :) Хотя достаточно устранить кореляции.  Очень позабавил параметр"hidden=c(100,100,100)" из статьи про DeepNetwork.

Жду следующую статью про Марковские процессы.

 
Виктор Василюк:

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

Добрый день.

В приложении к первой статье много разной литературы.

Сейчас появилось много ресурсов на русском языке, тиснете в гугл.

Удачи

 
RTrade:

Владимир. Спасибо Вам большое за этот цикл статей.

Чтобы понять ценность материала, необходимо проработать его. То. что Вы пишите упорядочило мои попытки. Понял места где я допустил ошибки, а где интуитивно выбрал верный путь. 

Правда, чтобы отработать randomUniformForest из статьи про выбор признаков, пришлось апгрейдить компьютер. :) Хотя достаточно устранить кореляции.  Очень позабавил параметр"hidden=c(100,100,100)" из статьи про DeepNetwork.

Жду следующую статью про Марковские процессы.

Добрый день.

Рад, что был полезен представленный материал.

А что забавного в параметр"hidden=c(100,100,100)"? Честно не понял.

На проверке статья о самооптимизации экспертов.(генетической оптимизации). По Марковским моделям не уверен, что нужно.

Удачи

 
Может пропустил? Сравнивали глубокие сети с nnet?
 
Vladimir Perervenko:


А что забавного в параметр"hidden=c(100,100,100)"? Честно не понял.

 

Добрый день.  

Я имею ввиду, что на входе  у нас порядка 2-3 десятков значений индикаторов во входном векторе.  Если я правильно понимаю работу DeepLearning - происходит выделение признаков за счёт обучения промежуточного автоэнкодера. Т.е. было бы логично обучать что-то типа hidden=c(20,12,5), чтобы выполнить сжатие входного образа.  

Также предполагал, что такой кейс можно использовать когда на вход подаётся вектор сразу из нескольких валютных пар, к примеру, чтобы отследить общие тенденции на рынке, к примеру, уход инвесторов в золото. По логике это похоже на распознавание образов, когда выделяются отдельные элементы, обобщаются в отдельные фичи, выявляются закономерности. И здесь входная корреляция не так важна, т.к. группируется и отсеивается на входных слоях. Тогда и логична сеть hidden=c(1007550, 25, 10, 5). Имеет ли смысл экспериментироватаь в эту сторону?

Обычно мало кто использует более 20 признаков для обучения модели.

 
Виктор Василюк:

Может и стоящая статья. Но! Сколько раз читал в разных источниках - не занимайтесь предсказыванием с помощью нейронных сетей. НС полезны, когда надо информацию представить в ином виде.

Лично я недавно вспомнил библиотеку FANN и собираюсь ее использовать для поиска нужных и проверенных паттернов на полусотни графиков и таймфреймов.


По поводу языка R - посоветуйте какую литературу вы читали, чтобы научиться на нем писать.Спс

С R все до идиотизма просто. Ставим R и начинаем работать. Интерпретатор. Каждая строка чрезвычайно емкая. На первых порах вообще без проблем. А потом, когда определитесь с необходимым, начинаете читать... 
 
СанСаныч Фоменко:
Может пропустил? Сравнивали глубокие сети с nnet?

Приветствую СанСаныч.

Вопрос к кому?

Причина обращения: