Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2019

 
Farkhat Guzairov:

)), ну... спорное утверждение.

Эта же самая операция средствами MQL занимает от 10 минут и более. Скорость можно было бы увеличить, если бы на хосте было больше ядер в процессоре или самих процессоров ))).

вот 2700 эпох за 30 секунд это слишком быстро

 
dr.mr.mom:

Вот те на, ситуационный парадокс, в личку не попадаю) сайт глючит. Прочихается - отпишу Вам и Максиму.

Я написал Вам, сообщение дошло?

 
Maxim Dmitrievsky:

вот 2700 эпох за 30 секунд это слишком быстро

Данных мало, массив вроде глубиной 400, а так ели его грузануть на глубокую историю, то даже С++ с потоками уйдет в задумчивость ))), но самое печальное, что в итоге не удается получить хорошо обученную систему, у меня стоит рубеж 30000 эпох, по ней и прекращается обучение, но сам понимаешь это не до обученная хрень получается, почему так... думаю из-за коллизий, т.е. как мне кажется встречается набор данных который в одном случае говорить , что это модель шортовая, а в другом случае эта же модель представляется как лонговая, если так то конечно это мой косяк, но разбираться с этим уже нет сил ((. Из-за этого, просто сократил набор входных данных для обучения.

 
Maxim Dmitrievsky:

блин.. не сложные в плане понять можно

обычно пары слоев хватает, большой глубины на форексе не требуется

просто архитектурно есть более продвинутые сети для вр, покруче lstm. Оттуда может быть профит, не проверял еще. Все что "классика" типа бустингов и персептронов - для вр не подходит вообще.

Требуется или нет больше слоев можно судить только по достигнутым результатам, я так думаю...

Это какие сети ещё есть, можете их назвать - в разновидности сетей я вообще не очень силен.

Можно Вам сбросить выборку для прогона в модной сети какойнибудь?

 
Farkhat Guzairov:

Данных мало, массив вроде глубиной 400, а так ели его грузануть на глубокую историю, то даже С++ с потоками уйдет в задумчивость ))), но самое печальное, что в итоге не удается получить хорошо обученную систему, у меня стоит рубеж 30000 эпох, по ней и прекращается обучение, но сам понимаешь это не до обученная хрень получается, почему так... думаю из-за коллизий, т.е. как мне кажется встречается набор данных который в одном случае говорить , что это модель шортовая, а в другом случае эта же модель представляется как лонговая, если так то конечно это мой косяк, но разбираться с этим уже нет сил ((. Из-за этого, просто сократил набор входных данных для обучения.

почему такое огромное кол-во эпох.. обычно хватает до 1000 или даже 100, с динамическим лернинг рейтом

 
Aleksey Vyazmikin:

Требуется или нет больше слоев можно судить только по достигнутым результатам, я так думаю...

Это какие сети ещё есть, можете их назвать - в разновидности сетей я вообще не очень силен.

Можно Вам сбросить выборку для прогона в модной сети какойнибудь?

я только изучаю нейросетки. Уже писал тут. Это новые сверточные и трансформеры и проч., в основном для обработки языка и звука используются

датасеты для них готовятся специальным образом, обычные не подойдут
 
Maxim Dmitrievsky:

я только изучаю нейросетки. Уже писал тут. Это новые сверточные и трансформеры и проч., в основном для обработки языка и звука используются

датасеты для них готовятся специальным образом, обычные не подойдут

Если знать как готовить, то можно и подготовить...

 
Maxim Dmitrievsky:

почему такое огромное кол-во эпох.. обычно хватает до 1000 или даже 100, с динамическим лернинг рейтом

Задача получить максимальную точность при обучение, т.е. точность до 1. Так как первичные весовые значения устанавливаются случайным образом, иногда эпох бывает меньше 1000.

 
Aleksey Vyazmikin:

Если знать как готовить, то можно и подготовить...

Логично

ряд должен быт последовательным. Т.е. не просто вырванные из истории признаки\метки, а последовательная серия

рекомендую просто изучить тему и попробовать самому

В моей библиотеке данные передаются в виде 3-мерного тензора. Каждый сэмпл представляет собой матрицу. Весь датасет делится на батчи, это еще одно измерение.
 
Интересно, а как разработчики этих всех нейросетей, лесов, бустов зарабатывают. Они же все бесплатно выкладывают.
Причина обращения: