Обсуждение статьи "Нейросети бесплатно и сердито - соединяем NeuroPro и MetaTrader 5" - страница 3

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.
Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.
Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро.
Здесь другая полезность прослеживается - сжатие информации с потерей. Было много истории, стало несколько меньше коэффициентов, приблизительно описывающих историю. С другой стороны, алгоритмов сжатия, даже без потерь, с гораздо более хорошими показателями не мало.
Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.
Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.
Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро.
Вы наверное просто не (внимательно) читали статью. Число входов 24 (таймфрейм часовой), нейронов в слое - 20, слоев - 3.
А пример истории - 5к баров. Задайте 10к баров, число коэффициентов останется прежним.
Если не понимаете о чем речь идет, то Вам действительно это не нужно.
Вы наверное просто не (внимательно) читали статью. Число входов 24 (таймфрейм часовой), нейронов в слое - 20, слоев - 3.
А пример истории - 5к баров. Задайте 10к баров, число коэффициентов останется прежним.
Если не понимаете о чем речь идет, то Вам действительно это не нужно.
Самообманом можете заниматься сколько угодно!
Исходники посмотрите и посчитайте количество подгоняемых коэффициентов. Бла-бла-бла в описании НС, а суть - исходник.
Увеличьте количество истории в два раза и посмотрите, как показатели рухнут. И так с каждым увеличением.
Симуляция оргазма от статьи - это показанный результат. А то, что он получен ужасным способом, никто не говорит.
Давайте проще. Вам дам исходник советника, в котором за тысячу коэффииентов. И дам соспоставимый по количеству кусок истории. Не буду говорить, что это НС или что-то другое. Только исходни и кусок истории.
Вы тоже измените мнение об этом кале, как только я вам расскажу, что это НС или продвинутый научный метод? Смотрите в суть.
Возьмем уникума dimeon'а. У него советник содержит не больше десятка подгоняемых коэффициентов. Количество истории в тысячи раз больше используемся для настройки этих коэффициентов. Так что встроенная в голову dimeon'а НС способна выдавать иногда великолепные результаты. Поэтому гнать бучу на все НС не будут. Но статья - ввод читателя в заблуждение.
С другой стороны, у нашего крутого пипсаря совсем не используются нейронный принцип построеня торгового алгоритма. Там нет наитупейшего принципа сложить и умножить, как в НС. Возмоно, в этом и кроется разительное отличие его результатов от классики в виде НС.
Смешно названо: ENCOG - машинное обучение... Ну, дают жару.
Воз здесь перечислены инструменты, причем только часть по машинному обучению.
Смех без причины - признак дурачины © Народная поговорка
Для особоодарённых спецов по машинному обучению:
Смех без причины - признак дурачины © Народная поговорка
Для особоодарённых спецов по машинному обучению:
1. Никаких проблем прикрутить CRAN нет, ну, вообще никаких. Более двух лет все в кодобазе.
2. Количество говорит о разнообразии подходов и о бурном развитии. Качество пакетов в CRAN отменное.
3. WEKA один из.... Если о выборе пакетов машинного обучения, которые можно использовать в трейдинге, то caret. А для начала берем Rattle. Если с нуля, то запустить можно минут за 15. Результаты сравнения НС и случайных лесов выкладывал выше. НС дает более, чем скромный результат. Даже статью наваял. Попробуйте Rattle. Подберете 2-3 пакета максимум и будет счастье. И забросите свои НС навсегда. Для начала могу порекомендовать еще аттач.
2. Количество говорит о разнообразии подходов и о бурном развитии. Качество пакетов в CRAN отменное.
Скорее наоборот, т.к. в некоторых пакетах методы попросту дублируют аналогичные методы из других пакетов. Например, все SVM - это всего лишь порты от одной и той же тайваньской библиотеки libsvm. Поэтому никакой абсолютно разницы от того, что SVM встроена в Cran, Weka, Encog или ещё какую нибудь приблуду. Результаты будут идентичны при одинаковых настройках.
Если о выборе пакетов машинного обучения, которые можно использовать в трейдинге, то caret.
Еще раз повторю, что под конкретные задачи нужно подбирать конкретные инструменты. Трейдинг - это всего лишь обобщённое название множества биржевых стратегий и тактик. Поэтому постричь всё под одну гребёнку не получится.
Результаты сравнения НС и случайных лесов выкладывал выше.
Это не результаты, а фигня какая-то, типа средней температуры по больнице подогнанной под обучающую выборку.
Результаты - это когда, как минимум, выборка делится на обучающую и тестовую и, как максимум, применяется кроссвалидация.
Пожалуй, заступлюсь за НС. Если вдруг стали модными случайные леса, это не значит, что НС хуже. Это те же яйца, только в профиль. Чтобы делать более или менее адекватное сравнение, возьмите комитет сеток, включите бустинг, и получите тот же самый случайный лес. НС известны тем, что позволяют реализовать практически любой другой алгоритм.
В любом случае, 99% успеха заключается не в инструменте, а в выборе и подготовке данных.
Пожалуй, заступлюсь за НС. Если вдруг стали модными случайные леса, это не значит, что НС хуже.
Random Forest - это не модное явление, а инструмент, который может дать приемлемые результаты с первой же попытки. Этим классификатором пользуются, как новички, так и опытные пользователи. Новички в качестве основного средства, т.к. метод шибко прост. А более опытные начинают решение задач с RF, чтобы разобраться в каком направлении двигаться дальше.
В любом случае, 99% успеха заключается не в инструменте, а в выборе и подготовке данных.
Звиздеть - не мешки ворочать © Народная поговорка
Интересно было бы взглянуть, как Вы с помощью какого нибудь бинарного классификатора, будете решать задачу множественной регрессии?
Это не результаты, а фигня какая-то, типа средней температуры по больнице подогнанной под обучающую выборку.
Результаты - это когда, как минимум, выборка делится на обучающую и тестовую и, как максимум, применяется кроссвалидация.
Фигней не занимаюсь.
Доказываю.
Выложенные результаты всегда относятся к данным "вне выборки обучения". Делается это следующим образом в Rattle:
1. Исходный набор делится на три части: 70-15-15%
2. Обучение проводится на части 70%, которая называется train. Здесь имеется очень существенный нюанс. Из этих 70% случайным образом отбирается примерно 2/3 данных для обучения, т.е. = 70% * 2/3. На этих данных проводится обучение. Сведения о результативности модели получены на оставшихся 70% * 1/3 данных выборки train, которые, естественно также представляют собой случайный набор строк. Эта часть называется OOB - out of bag. Т.е., хотя формально использовался для обучения и оценки один и тот же набор данных, но строки из него для обучения и оценки брались разные.
После этого можно перейти на вкладку Evaluate где использовать обученную модель на оставшихся два раза по 15% и сравнить с ООВ . Если результаты совпадают, то есть надежда. Отсюда следует, что хотя Rattle - это инструмент для апробации идей, но качество этой апробации гораздо выше, чем в обсуждаемой статье, (уж пусть автор извинит).
И лично для Вас на сладкое: полученному результату в моей статье и в данной статье доверять нельзя, так как отсутствуют доказательство переобученности (сверхподгонки) модели и перечисленные мною три набора для тестирования вне выборки обучения таким доказательством не являются. Т.е. необходимы критерии, которым удовлетворяет набор исходных переменных в том смысле, что использующая этот набор переменных модель можно будет протестировать по приведенной выше схеме и результатам такого тестирования можно будет доверять.