Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 328

 
СанСаныч Фоменко:

ПСПС

Есть более перспективные: случайные леса, разнообразные ada.

Как можно всерьез сравнивать R со скайлабом? Какой-то деревенский пакет, ни в одном рейтинге...

а я что делаю, по Вашему?

[w,b,y,ee] = ann_ADALINE_predict(P,T,0.2,1,Delay);

Леса тоже есть.

Зря вы на SciLab катите.) В отличии от R, у него свои задачи, и, естественно, он менее распространен, но тем не менее широко используется в университетах и научных организациях - MTI, Boing, Bell и пр. Разумеется R и SciLab друг друга не заменяют и не конкурируют - предметные области разные, однако.

 
Yuriy Asaulenko:

а я что делаю, по Вашему?

Леса тоже есть.

Зря вы на SciLab катите.) В отличии от R, у него свои задачи, и, естественно, он менее распространен, но тем не менее широко используется в университетах и научных организациях - Boing, Bell и пр. Разумеется R и SciLab друг друга не заменяют и не конкурируют - предметные области разные, однако.


Агитирую, чтобы увеличить популяцию сторонников R.
 
СанСаныч Фоменко:

Агитирую, чтобы увеличить популяцию сторонников R.

Это правильно.) Я же предлягаю альтернативу. Полагаю, что равноценную.) Что-то лучше, что-то хуже.

Скажем, в части вычислительной математики SciLab поинтересней будет. Стат. методы там тоже неплохо представлены, но с R, разумеется, не сравнить.

 
Yuriy Asaulenko:

Это правильно.) Я же предлягаю альтернативу. Полагаю, что равноценную.) Что-то лучше, что-то хуже.

Скажем, в части вычислительной математики SciLab поинтересней будет. Стат. методы там тоже неплохо представлены, но с R, разумеется, не сравнить.


Это броуновское движение в поиске неинтересно. Неужели сложно просмотреть статьи которые есть на сайте? Если Вам интересен сам процесс поиска - тогда другое дело. Определитесь, какие задачи Вы хотите решать (регрессия/классификация?). По моему мнению регрессия не имеет перспектив. 

В языке R есть все, что необходимо для торговли как на Форексе так и на бирже акций. Отработана отличная связка МТ/R. Только экспериментируй и  внедряй. А Вы предлагаете идти туда, где нет ничего этого.

А пример вычислительной  математики привести можете?

Удачи

 
СанСаныч Фоменко:

Чего вы прицепились к сетям? Не работают они и все тут, просто мода прошлых веков, вероятно первый пакет машинного обучения,который был доступен.

Есть более перспективные: случайные леса, разнообразные ada. И вообще пакет-оболочка caret, в которой пару сотен пакетов, включая сетки, и можно делать автоматический выбор между ними.


что такое разнообразные ада? ) тут пока все это выучишь - состаришься и умрешь без профита, реально адище
 
Maxim Dmitrievsky:

что такое разнообразные ада? ) тут пока все это выучишь - состаришься

не слухай никого. нет доказательств того, что какие то леса или ещё что то работает лучше сетей.

но существует доказательство, что сеть может аппроксимировать любую функцию, но подобного доказательства для тех же лесов я не встречал.

отсюда уже можно делать некоторые выводы. если не может сеть, то уж леса точно не смогут. тем более, как я погляжу, результаты у тебя получаются достойными.

и да, оптимизация для сети это ничто иное как её обучение, причем гораздо эффективнее и быстрее, это обусловлено свойствами ГА. так что говорить что "оптимизация опасная штука" всеравно, что говорить "микроскоп опасная штука" - очень больно им можно бить по голове.

 
Maxim Dmitrievsky:

что такое разнообразные ада? ) тут пока все это выучишь - состаришься
Добейте rattle по моей статье.  получите кость, на которую можно будет наращивать мясо.
 
Andrey Dik:

не слухай никого. нет доказательств того, что какие то леса или ещё что то работает лучше сетей.

но существует доказательство, что сеть может аппроксимировать любую функцию, но подобного доказательства для тех же лесов я не встречал.

отсюда уже можно делать некоторые выводы. если не может сеть, то уж леса точно не смогут.


Вообще-то случайный лес - это классификация и аппроксимацией вообще не занимается
 
Vladimir Perervenko:

 По моему мнению регрессия не имеет перспектив. 



А GARCH?

В классификации все упирается в набор предикторов. Не ясно где искать

А в GARCH тупой процесс: моделируешь тренд, анализируешь остаток - моделируешь его, анализируешь остаток совокупной модели - моделируешь этот остаток - какой-то процесс без излишнего творчества и догадок.

 
Andrey Dik:

не слухай никого. нет доказательств того, что какие то леса или ещё что то работает лучше сетей.

но существует доказательство, что сеть может аппроксимировать любую функцию, но подобного доказательства для тех же лесов я не встречал.

отсюда уже можно делать некоторые выводы. если не может сеть, то уж леса точно не смогут. тем более, как я погляжу, результаты у тебя получаются достойными.

и да, оптимизация для сети это ничто иное как её обучение, причем гораздо эффективнее и быстрее, это обусловлено свойствами ГА. так что говорить что "оптимизация опасная штука" всеравно, что говорить "микроскоп опасная штука" - очень больно им можно бить по голове.


Леса, я так понял, используются для классификации предикторов, грубо говоря, не для прогнозирования :)