Обсуждение статьи "Нейросети бесплатно и сердито - соединяем NeuroPro и MetaTrader 5" - страница 3

 

Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.

Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.

Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро.

 

Здесь другая полезность прослеживается - сжатие информации с потерей. Было много истории, стало несколько меньше коэффициентов, приблизительно описывающих историю. С другой стороны, алгоритмов сжатия, даже без потерь, с гораздо более хорошими показателями не мало. 

 
zaskok:

Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.

Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.

Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро. 

Вы наверное просто не (внимательно) читали статью. Число входов 24 (таймфрейм часовой), нейронов в слое - 20, слоев - 3.

А пример истории - 5к баров. Задайте 10к баров, число коэффициентов останется прежним.

Если не понимаете о чем речь идет, то Вам действительно это не нужно. 

 
elugovoy:

Вы наверное просто не (внимательно) читали статью. Число входов 24 (таймфрейм часовой), нейронов в слое - 20, слоев - 3.

А пример истории - 5к баров. Задайте 10к баров, число коэффициентов останется прежним.

Если не понимаете о чем речь идет, то Вам действительно это не нужно. 

Самообманом можете заниматься сколько угодно!

Исходники посмотрите и посчитайте количество подгоняемых коэффициентов. Бла-бла-бла в описании НС, а суть - исходник.

Увеличьте количество истории в два раза и посмотрите, как показатели рухнут. И так с каждым увеличением.

Симуляция оргазма от статьи - это показанный результат. А то, что он получен ужасным способом, никто не говорит.

 

Давайте проще. Вам дам исходник советника, в котором за тысячу коэффииентов. И дам соспоставимый по количеству кусок истории. Не буду говорить, что это НС или что-то другое. Только исходни и кусок истории.

Вы тоже измените мнение об этом кале, как только я вам расскажу, что это НС или продвинутый научный метод? Смотрите в суть. 

 

Возьмем уникума dimeon'а. У него советник содержит не больше десятка подгоняемых коэффициентов. Количество истории в тысячи раз больше используемся для настройки этих коэффициентов. Так что встроенная в голову dimeon'а НС способна выдавать иногда великолепные результаты. Поэтому гнать бучу на все НС не будут. Но статья - ввод читателя в заблуждение.

 

С другой стороны, у нашего крутого пипсаря совсем не используются нейронный принцип построеня торгового алгоритма. Там нет наитупейшего принципа сложить и умножить, как в НС. Возмоно, в этом и кроется разительное отличие его результатов от классики в виде НС. 

 
faa1947:

Смешно названо: ENCOG - машинное обучение... Ну, дают жару.

Воз здесь перечислены инструменты, причем только часть по машинному обучению. 

Смех без причины - признак дурачины © Народная поговорка

Для особоодарённых спецов по машинному обучению:

  1. Мой пост был ответом на вопрос: Как прикрутить ИНС через dll. Если у Вас есть ответ  о том, как прикрутить пакеты из Cran через dll, тогда Ваша реплика была бы уместной.
  2. Значительная часть инструментов машинного обучения вряд ли будет где-то использоваться. Т.е. от того, что в Cran есть куча всяких пакетов достоинства ему не прибавляет, т.к. качество должно преобладать над количеством. Вы все эти пакеты солить что-ли собираетесь?
  3. Под каждую конкретную задачу лучше всего подбирать наиболее подходящий инструмент. Для этого можно установить на компе Weka (кстати, поддерживает язык R в командной строке) и с помощью встроенного в интерфейс "Экспериментатора" прогнать выборку с включенной кросс валидацией по разным методам машинного обучения. То, что даст лучший результат окажется наиболее подходящим для соответствующей задачи. По крайней мере, завсегдатаи kaggle.com так и делают. Ведь лучше поручить наиболее трудоёмкую и наименее интеллектуальную работу компьютеру, чем пытаться угадать, что подойдёт в том или ином случае.
 
Reshetov:

Смех без причины - признак дурачины © Народная поговорка

Для особоодарённых спецов по машинному обучению:

  1. Мой пост был ответом на вопрос: Как прикрутить ИНС через dll. Если у Вас есть ответ  о том, как прикрутить пакеты из Cran через dll, тогда Ваша реплика была бы уместной.
  2. Значительная часть инструментов машинного обучения вряд ли будет где-то использоваться. Т.е. от того, что в Cran есть куча всяких пакетов достоинства ему не прибавляет, т.к. качество должно преобладать над количеством. Вы все эти пакеты солить что-ли собираетесь?
  3. Под каждую конкретную задачу лучше всего подбирать наиболее подходящий инструмент. Для этого можно установить на компе Weka (кстати, поддерживает язык R в командной строке) и с помощью встроенного в интерфейс "Экспериментатора" прогнать выборку с включенной кросс валидацией по разным методам машинного обучения. То, что даст лучший результат окажется наиболее подходящим для соответствующей задачи. По крайней мере, завсегдатаи kaggle.com так и делают. Ведь лучше поручить наиболее трудоёмкую и наименее интеллектуальную работу компьютеру, чем пытаться угадать, что подойдёт в том или ином случае.

1. Никаких проблем прикрутить CRAN нет, ну, вообще никаких. Более двух лет все в кодобазе.

2. Количество говорит о разнообразии подходов и о бурном развитии. Качество пакетов в CRAN отменное.

3. WEKA один из.... Если о выборе пакетов машинного обучения, которые можно использовать в трейдинге, то caret. А для начала берем Rattle. Если с нуля, то запустить можно минут за 15. Результаты сравнения НС и случайных лесов выкладывал выше. НС дает более, чем скромный результат. Даже статью наваял. Попробуйте Rattle. Подберете 2-3 пакета максимум и будет счастье. И забросите свои НС навсегда. Для начала могу порекомендовать еще аттач. 

Файлы:
PredictTrend.zip  858 kb
 
faa1947:


2. Количество говорит о разнообразии подходов и о бурном развитии. Качество пакетов в CRAN отменное.


Скорее наоборот, т.к. в некоторых пакетах методы попросту дублируют аналогичные методы из других пакетов. Например, все SVM - это всего лишь порты от одной и той же тайваньской библиотеки libsvm. Поэтому никакой абсолютно разницы от того, что SVM встроена в Cran, Weka, Encog или ещё какую нибудь приблуду. Результаты будут идентичны при одинаковых настройках.

faa1947:


Если о выборе пакетов машинного обучения, которые можно использовать в трейдинге, то caret.


Еще раз повторю, что под конкретные задачи нужно подбирать конкретные инструменты. Трейдинг - это всего лишь обобщённое название множества биржевых стратегий и тактик. Поэтому постричь всё под одну гребёнку не получится.

faa1947:


Результаты сравнения НС и случайных лесов выкладывал выше.


Это не результаты, а фигня какая-то, типа средней температуры по больнице подогнанной под обучающую выборку. 


Результаты - это когда, как минимум, выборка делится на обучающую и тестовую и, как максимум, применяется кроссвалидация.

 

Пожалуй, заступлюсь за НС. Если вдруг стали модными случайные леса, это не значит, что НС хуже. Это те же яйца, только в профиль. Чтобы делать более или менее адекватное сравнение, возьмите комитет сеток, включите бустинг, и получите тот же самый случайный лес. НС известны тем, что позволяют реализовать практически любой другой алгоритм.

В любом случае, 99% успеха заключается не в инструменте, а в выборе и подготовке данных.

 
marketeer:

Пожалуй, заступлюсь за НС. Если вдруг стали модными случайные леса, это не значит, что НС хуже.

Random Forest - это не модное явление, а инструмент, который может дать приемлемые результаты с первой же попытки. Этим классификатором пользуются, как новички, так и опытные пользователи. Новички в качестве основного средства, т.к. метод шибко прост. А более опытные начинают решение задач с RF, чтобы разобраться в каком направлении двигаться дальше.

marketeer:

В любом случае, 99% успеха заключается не в инструменте, а в выборе и подготовке данных.

Звиздеть - не мешки ворочать © Народная поговорка

Интересно было бы взглянуть, как Вы с помощью какого нибудь бинарного классификатора, будете решать задачу множественной регрессии?

 
Reshetov:


Это не результаты, а фигня какая-то, типа средней температуры по больнице подогнанной под обучающую выборку. 


Результаты - это когда, как минимум, выборка делится на обучающую и тестовую и, как максимум, применяется кроссвалидация.

Фигней не занимаюсь. 

Доказываю.

Выложенные результаты всегда относятся к данным "вне выборки обучения". Делается это следующим образом в Rattle:

1. Исходный набор делится на три части: 70-15-15%

2. Обучение проводится на части 70%, которая называется train. Здесь имеется очень существенный нюанс. Из этих 70% случайным образом отбирается примерно 2/3 данных для обучения, т.е. = 70% * 2/3. На этих данных проводится обучение. Сведения о результативности модели получены на оставшихся 70% * 1/3 данных выборки train, которые, естественно также представляют собой случайный набор строк. Эта часть называется OOB - out of bag. Т.е., хотя формально использовался для обучения и оценки один и тот же набор данных, но строки из него для обучения и оценки брались разные.

После этого можно перейти на вкладку Evaluate где использовать обученную модель на оставшихся два раза по 15% и сравнить с ООВ . Если результаты совпадают, то есть надежда.  Отсюда следует, что хотя Rattle - это инструмент для апробации идей, но качество этой апробации гораздо выше, чем в обсуждаемой статье, (уж пусть автор извинит).

И лично для Вас на сладкое: полученному результату в моей статье и в данной статье доверять нельзя, так как отсутствуют доказательство переобученности (сверхподгонки) модели и перечисленные мною три набора для тестирования вне выборки обучения таким доказательством не являются.  Т.е. необходимы критерии, которым удовлетворяет набор исходных переменных в том смысле, что использующая этот набор переменных  модель можно будет протестировать по приведенной выше схеме и результатам такого тестирования можно будет доверять.  

Причина обращения: