Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 472
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
ну другими словами, еще пока не все что есть в мт5 опробовано :)
Я этого не понимаю. ( А зачем вообще пробовать, то, что уже есть в МТ?
Если есть концепция ТС - подбираем инструментарий. Есть в МТ и это хорошо взаимодействует с остальной системой - используем. Плохо взаимодействует - используем внешнее ПО.
Гонять туда-сюда информацию только для того, чтобы использовать имеющуюся функциональность МТ, совсем не рацо.
Я этого не понимаю. ( А зачем вообще пробовать, то, что уже есть в МТ?
Если есть концепция ТС - подбираем инструментарий. Есть в МТ и это хорошо взаимодействует с остальной системой - используем. Плохо взаимодействует - используем внешнее ПО.
Гонять туда-сюда информацию только для того, чтобы использовать имеющуюся функциональность МТ, совсем не рацо.
Так нет никогда готовой концепции изначально, все по наитию, чем больше инструментария тем лучше
Я начинаю с концепции, отрабатываю ее на каком-либо ПО (Excel, SciLab, MatLab, R - иногда и все вместе). Там же и тестирую своим тестером (не заметил существенной разницы с реалом). Затем часть переношу в терминал, остальное С++/C# с подключением внешних библиотек.
Первые системы (с 2008 г.) были сделаны на VBA-Excel и прекрасно взаимодействовали с терминалом. Никаких проблем с быстродействием, даже с учетом медленности VBA. Да и вообще - 50 мс задержки, даже для работы внутри 1м ТФ, - не время.
Кстати, помнишь в своей статье по сиквенте ты предлагал считать несколько сигналов подряд, переворачивать там.. суперпозиция сигналов
я придумал интересное решение реализовать что-то подобное через нечеткую логику и встроить в процесс обучения.. позже мб скину что-нибудь :)
Да да это как раз из этой статьи..... Просто может там не внятно объяснено было, но факт понятия разделения никто не отменял.
Нужно чётко видеть как идёт деление на плохих и хороших, если модель стабильно сливает или наливает это уже показатель, главное не правильность, а стабильность разделения.....
СанСанычу.
Посмотрите интересную дискуссию по поводу "overfittinga".
Удачи
СанСанычу.
Посмотрите интересную дискуссию по поводу "overfittinga".
Удачи
Все, что я пишу здесь и использую в своей практике - это некие приемчики, чтобы как-то уменьшить влияние базовой проблемы познания, которая здесь называется сверх подгонка, переобучение.
Проблема переобучения модели НЕ решается в принципе, не решается теоретически и это известно очень давно. Модель - это всегда некоторое приближение, некоторое огрубление действительности, внешнего мира. Поэтому модель ВСЕГДА отражает объект с некоторой ошибкой. Именно в этом и сила и слабость любой модели. Отсюда следует, что без тщательного изучения моделируемого объекта невозможно создать модель.
Если взять котировку.
ЧТО мы моделируем?
Если случайный лес, то мы автоматизируем поиск паттернов.
Если GARCH, то мы моделируем статистические характеристики котировки.
При этом ВСЕГДА будет ошибка. И я здесь предлагал некую эвристику, что эта ошибка НЕ должна меняться на последовательных кусках временного ряда. Если модель буквально на следующем участке дает другую ошибку, то она переобучена (сверх подогнана) и ею пользоваться нельзя в принципе.
Для случайных лесов я нашел, что если удалить ШУМОВЫЕ предикторы в моем понимании, то обученная модель дает одинаковую ошибку гораздо дольше, чем с шумовыми предикторами. Но мне неизвестны решения, которые бы создали модель на все времена, да это и не нужно. Меня вполне устраивает переобучение модели по выходным на последних данных. Но обучение надо начинать с проверки шумовых предикторов - их набор меняется со временем. То есть меняется не только сама модель, но и набор входных данных. Я делал прогоны окна вдоль временного ряда, так из моих 25 предикторов постоянно идет выборка в 10-15 предикторов и состав этой группы меняется, т.е что-то переходит в шум, а потом обратно. Ошибка очень стабильна и колеблется от 23 до 27% = всегда менее 30%. Если ошибка менее 20% на моих предикторах, то такой моделью не пользуюсь и жду.
ПС.
Из сказанного видна причина, почему меня не интересуют другие модели.
Все, что я пишу здесь и использую в своей практике - это некие приемчики, чтобы как-то уменьшить влияние базовой проблемы познания, которая здесь называется сверх подгонка, переобучение.
Позиция понятна.
Удачи.
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full