Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 515

 
Dr. Trader:

Цены без какого-либо преобразования в модель не подают.

Леса для экстраполяции берут ближайшее известное значение. Нейронка или линейка при экстраполяции посчитают что-то согласно внутренним формулам. Но на деле все эти модели в данной ситуации будут сливать, поэтому разницы нет.

еще как подают без какого-либо преобразования, но не в этом суть

Разница огромная в техническом применении тех или иных моделей. Причем здесь сливать, опять же не об этом речь.
 

Все делать в МТ не удобно. Самый лучший на мой взгляд вариант это Питон для обучения и экспериментов и DLL с загрузкой обученой модели для МТ. В Питоне есть такая классная штука для экспериментов Юпитер ноутбук. Помимо интерактивного выполнения кода в нем можно вести записки, что удобно для записи мыслей по теме. Поэтому надо выбирать библиотеку которая может работать в Питоне и С++. Питон прост в изучении.

 
Grigoriy Chaunin:

Все делать в МТ не удобно. Самый лучший на мой взгляд вариант это Питон для обучения и экспериментов и DLL с загрузкой обученой модели для МТ. В Питоне есть такая классная штука для экспериментов Юпитер ноутбук. Помимо интерактивного выполнения кода в нем можно вести записки, что удобно для записи мыслей по теме. Поэтому надо выбирать библиотеку которая может работать в Питоне и С++. Питон прост в изучении.


это все уводит от сути, нужно делать все в том же месте где торгуешь, без лишних запар.. экономя время и нервы. В МТ уже есть все основные элементы статанализа, нет только каких-то сложных моделей, которые через длл и подключаются как вы сказали.

Но питон крут несомненно, R покрутил - раздражает его тормознутость. Как я понял, профи машинлернинга сидят именно на питоне, а на R это так баловство и статанализ и студентов обучать. Но опять же это все левак, когда можно напрямую подключить.

 

R с точки зрения программиста странный ни на что не похожий язык. Да, для машинного обучения Питон это стандарт.

 
Grigoriy Chaunin:

R с точки зрения программиста странный ни на что не похожий язык. Да, для машинного обучения Питон это стандарт.

Странные Вы люди. Одному "R с точки зрения программиста странный ни на что не похожий язык". Вы о каких программистах говорите? Другой "R покрутил - раздражает его тормознутость" - может Вы не туда крутили или не то? 

Вам наверное не известно, но все модули Питона доступны в R а значит и в МТ.  Мало того все последние разработки гигантов TensorFlow(Googl), CNTK(Microsoft) и другие моментально предложили АПИ в R а значит и в МТ. Подчеркнул дважды - сегодня  есть возможность использовать все богатство разработок по машинному обучению в терминале через R. Нужно понимание, что Вы хотите сделать, знание и умение. Вы хотите хотеть, просто делайте.  

Ветка превратилась в бесполезное словоплетение. К сожалению.

Удачи

 
Vladimir Perervenko:

Странные Вы люди. Одному "R с точки зрения программиста странный ни на что не похожий язык". Вы о каких программистах говорите? Другой "R покрутил - раздражает его тормознутость" - может Вы не туда крутили или не то? 

Ветка превратилась в бесполезное словоплетение. К сожалению.

Удачи


Тормозной сам R, я не говорю про пакеты. Работает медленнее питона и медленнее MT5. Или это тормозные оболочки типа RStudio, в ней даже окна плавно не перемещаются, что говорит даже что она сама по себе тормозная. Про VS 2017 в связке с Ropen я вообще молчу, постоянно виснет, несовместимость пакетов и др. Боюсь представить что будет, если еще и использовать пакет для работы с питоном. Многие пакеты для R пишутся бог знает кем и могут содержать кучи ошибок, нет единых стандартов. 

Есть всего несколько хороших нейросетевых пакетов, которые вы описали в своей статье последней, и которые прекрасно работают без R. Все остальное там по препроцессингу и проч. для форекса это больше игры разума чем эффективное использование преимуществ языка. Ну да, картиночки можно оценить на глаз, а в большинстве ситуаций достаточно числовых оценок для всех моделей. ИМХО :)

 
Maxim Dmitrievsky:

Тормозной сам R, я не говорю про пакеты. Работает медленнее питона и медленнее MT5.

Ну не медленнее МТ5... я ранее приводил сравнение:

ALGLIB - страшный тормоз в обучении.

Подавал на ALGLIB сеть 240-50-1, - 2 дня ждал, не дождался и выключил.

Сеть  70-5-1 обучил за полчаса. А nnet из R меньше минуты обучалась на тех же данных.

К тому же в R можно еще и паралельные вычисления на всех ядрах процессора приделать, для дополнительного ускорения.
 
elibrarius:

Ну не медленнее МТ5... я ранее приводил сравнение:


Вы привели сравнение с другой НС - это уже не R а пакет, который на плюсах написан и конечно он быстрый. В алглибе нет многопоточности во фри версии, + для большой сети нужно оптимизатор LBFGS юзать, возможно вы его и юзали. Леса считаются в алглибе приятно быстро, например, мне нравится.. а кач-во моделей никогда не хуже чем у МЛП. Бустингу бэггинг конечно уступает, но не сильно критично, насколько я понял из статей в интернете. Т.Е. по сути есть 1 универсальная модель это леса деревьев, к тому же быстрая. Все остальное что какая-то другая нейронка сделает что-то лучше это пока на практике не доказано никем (применительно к форексу)

Многопоточность она же не в R а в пакетах нейросетевых, также к мт5 подключить и будет многопоток

 
Maxim Dmitrievsky:

Вы привели сравнение с другой НС - это уже не R а пакет, который на плюсах написан и конечно он быстрый. В алглибе нет многопоточности во фри версии, + для большой сети нужно оптимизатор LBFGS юзать, возможно вы его и юзали. Леса считаются в алглибе приятно быстро, например, мне нравится.. а кач-во моделей никогда не хуже чем у МЛП

Да вроде в основе тот же MLP, так что сеть та же самая и по структуре и по кол-ву данных. Тот пакет многопоточность не использовал - считал все одним потоком (проверял в диспетчере задач).

Сравнил скорость LBFGS (около 40 мин.) и LM ( 27 мин.). По описаниям LBFGS должен быть быстрее, а на практике в ALGLIB наоборот.

Проверял и леса - значительно быстрее чем НС (4 мин.), и результат примерно тот же. И что интересно линейная регрессия считает еще быстрее, при тех же результатах.
Как кто-то тут писал - все дело в фичах.

 
elibrarius:
Да вроде в основе тот же MLP, так что сеть та же самая и по структуре и по кол-ву данных. Тот пакет многопоточность не использовал - считал все одним потоком (проверял в диспетчере задач).

Сравнил скорость LBFGS (около 40 мин.) и LM ( 27 мин.). По описаниям LBFGS должен быть быстрее, а на практике в ALGLIB наоборот.

Там, насколько я понял, можно 1-2 эпохи ставить, т.к. он почти всегда сходится с первого раза.. мб в этом упущение было? хотя я давно уже его не юзал, могу что-то путать

Причина обращения: