Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 359

 
Yuriy Asaulenko:
Спиши слова.)) Хочу, если не Бентли, то хотя бы Пежо с автоматом.)

ведро логан :)
 
СанСаныч Фоменко:

Тогда вопрос переобучения во всей красе

В теме переобучение превратилось в жупел.

В переобучении нет ничего нового, страшного и, даже, необычного. Свойственно абсолютно всем моделям, включая детерминированные. Можно переобучить даже У=Ах+В.

Типичное следствие неверного выбора входов, самой модели и требуемой точности не соответствующих процессу. Скажем, попытка уточнить линейной моделью нелинейный процесс приведет к рассыпанию модели. Грубая модель даст хорошие, но недостаточные результаты - казалось, "ну, кисонька, ну еще капельку"(с).

 
Maxim Dmitrievsky:

Даже и не знаю, нужно-ли делать что-то получше, 20 000% за 2.5 месяца по ценам открытия на 5 минутках, если повезет.. закидываешь 1к долл и делаешь предзаказ на Бэнтли. Если не повезет - невелика потеря )


Опять на нейроне Решетова (RNN) такое сделали?
 
elibrarius:
Опять на нейроне Решетова (RNN) такое сделали?


да, но там от него уже мало что осталось )

Скоро буду сравнивать его с MLP з алглиб, не совсем корректное сравнение будет правда

Ну а потом ничего не останется как полностью на R перейти

 
Maxim Dmitrievsky:

Даже и не знаю, нужно-ли делать что-то получше, 20 000% за 2.5 месяца по ценам открытия на 5 минутках, если повезет.. закидываешь 1к долл и делаешь предзаказ на Бэнтли. Если не повезет - невелика потеря )



Максим, тут вот конкурс намечается в Июле на 4 недели -цена вопроса 10$. Неплохой вариант на реале протестить в самом что ни на есть боевом режиме.
 
geratdc:

Максим, тут вот конкурс намечается в Июле на 4 недели -цена вопроса 10$. Неплохой вариант на реале протестить в самом что ни на есть боевом режиме.

может быть, если будет финальная версия к этому времени, пока что у меня каждый день по новой версии
 
Maxim Dmitrievsky:


да, но там от него уже мало что осталось )

Скоро буду сравнивать его с MLP з алглиб, не совсем корректное сравнение будет правда

Ну а потом ничего не останется как полностью на R перейти

Я свою версию на ALGLIB уже почти доделал. Интересно будет сравнить результативность. Только надо будет поставить абсолютно одинаковые задачи сеткам (индикаторы, периоды индикаторов, период обучения, обучающая матрица и т.д.) и посмотреть, какая лучше обучится. Интересно было бы, если кто-то из владельцев советника на R присоединился, т.к. и у Решетова и у ALGLIB слишком простые сети.
 
СанСаныч Фоменко:

Тогда вопрос переобучения во всей красе

В настоящее время в глубоких нейросетях разработано много методов позволяющих значительно снизить вероятность переобучения.

Вообще перевод "overfitting -> переобучение" по моему неточен по смыслу. Скорее это по смыслу "вызубрить" в противовес "выучить".

Не нужно этого бояться, просто нужно контролировать момент окончания обучения.

Удачи

 
geratdc:

Максим, тут вот конкурс намечается в Июле на 4 недели -цена вопроса 10$. Неплохой вариант на реале протестить в самом что ни на есть боевом режиме.
Maxim Dmitrievsky:

может быть, если будет финальная версия к этому времени, пока что у меня каждый день по новой версии


Пора! пора уже!

 
Занятно!!! Но проблема немного вдругом. Предположим Ваша ТС просела на 20%. Воспрос??? Выберется она из просадки и заработает сверху или продолжит сливать???? Как определить что ТС нужно переоптимизировать???
Причина обращения: