Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2837

 
Evgeni Gavrilovi #:

Наконец-то получилась своя лосс-функция, дериватив представлен в виде произведения Шарпа, ошибки и весов.

is_max_optimal=False указывает на то, что идет уменьшение значения, но так как я еще умножил на -1, то получается обратное.

Есть способ подать баланс или что то другое через градиент в буст..


Схема такая :

размечаем график идельными сделками (на екстремуме вниз покупаем, на екстремуме вверх продаем)  те создаем фейковую идеальную торговлю

назову это идеальный баланс


Дальше считаем баланс торговли от буста

потом в обьективной функции  просто считаем ошибку баланса торговли буста с идельным балансом 

sqrt(sum((баланс буста - идеальный баланс) ^ 2)

получаем подгонку под идеальный баланс, те это не поиск абстрактного максимума прибыли, а подгонка под идельную торговлю выраженую в балансе по прибыли


Синий это идеальный баланс, черный это трейн и тест модели

 
Andrey Dik #:

вроде есть))

А, теперь это так выглядит 
 
mytarmailS #:

Есть способ подать баланс или что то другое через градиент в буст..


Схема такая :

размечаем график идельными сделками (на екстремуме вниз покупаем, на екстремуме вверх продаем)  те создаем фейковую идеальную торговлю

назову это идеальный баланс


Дальше считаем баланс торговли от буста

потом в обьективной функции  просто считаем ошибку баланса торговли буста с идельным балансом 

получаем подгонку под идеальный баланс, те это не поиск абстрактного максимума прибыли, а подгонка под идельную торговлю выраженую в балансе по прибыли


Синий это идеальный баланс, черный это трейн и тест модели

ну вот, это уже совсем близко к тому что я говорю.

необходимо максимизировать не баланс, а некий комплексный критерий, в вашем примере разбитие на отдельные сделки. это производная функция от изначального баланса, более гладкая функция. вот и нужно искать глобальный оптимум производной функции. что собственно  и пытаюсь донести. и в этом случае важно, насколько качественно будет найден глобальный экстремум производной функции.

способов создания производных функций от изначальной великое множество и ограниченно только фантазией.

вместо того, что бы кидаться на людей, можно попытаться понять. пришло понимание - хорошо. не пришло - прошел мимо.

 
Andrey Dik #:

вместо того, что бы кидаться на людей, можно попытаться понять. пришло понимание - хорошо. не пришло - прошел мимо.

мои нападки были о том что нельзя разные АО сравнивать на равных и решать какой хорошый, а какой плохой..

каждому АО свои поверхности оптимизации.

ВЫБОР АО зависит от оптимизацыононой поверхности, а не от субьективных симпатий


если поверхность гладкая и имеет один минимум человек применяет к нему генетический алгоритм или рой или отжыг или любой другой алгоритм глобальной оптимизации то это глупыш который не понимает что творит, ведь градиентый спуск решыт эту задачу в 100 быстрее

если поверхность сложная, шумная, имеет много минимумов , а человек применяет  градиентый спуск то опять же это  глупыш , так как алгоритм застрянем в длижайшем минимуме


если человек решыт сравнить например   градиентый спуск с генетикой  то он  глупыш   дальше продолжать?

Это же непонимание елементарного..

 
mytarmailS #:

мои нападки были о том что нельзя разные АО сравнивать на равных и решать какой хорошый, а какой плохой..

каждому АО свои поверхности оптимизации.

ВЫБОР АО зависит от оптимизацыононой поверхности, а не от субьективных симпатий

по какому то одному критерию сравнивать да, неправильно и бессмысленно. я сравниваю алгоритмы тремя совершенно разными тестовыми функциями, поэтому прекрасно видны конкретные преимущества каждого алгоритма в отдельных тестах, отсюда видно в чем они сильны, а значит можно делать выбор лучшего для специфики задач исследователя. никакого субьективизма в тестах нет, наоборот, максимально объективны насколько это вообще возможно.

большинство специальных для сетей алгоритмов имеют в своей логике сглаживание в том или ином виде, или моменты. ориентированы на применение как раз гладких производных от целевой задачи функциях. вот и будет видно, где они сильны и а где не очень.

 
Andrey Dik #:

по какому то одному критерию сравнивать да, неправильно и бессмысленно. я сравниваю алгоритмы тремя совершенно разными тестовыми функциями, поэтому прекрасно видны конкретные преимущества каждого алгоритма в отдельных тестах, отсюда видно в чем они сильны, а значит можно делать выбор лучшего для специфики задач исследователя. никакого субьективизма в тестах нет, наоборот, максимально объективны насколько это вообще возможно.

большинство специальных для сетей алгоритмов имеют в своей логике сглаживание в том или ином виде, или моменты. ориентированы на применение как раз гладких производных от целевой задачи функциях. вот и будет видно, где они сильны и а где не очень.

нельзя сравнивать разные типы АО в одинаковых условиях потому что задачи они разные задачи решают, вот мой посыл

 
mytarmailS #:

нельзя сравнивать разные типы АО в одинаковых условиях потому что задачи они разные задачи решают, вот мой посыл

похоже, непонятно в прошлый раз сказал... ещё раз, можно сравнивать, для этого и используются РАЗНЫЕ тестовые задачи, что бы сравнивать алгоритмы адекватно под специфику задачи. тесты показывают, под какие именно задачи оптимально использование AO, поэтому возможен выбор среди них.

к примеру: если ADAM покажет превосходство именно на гладких функциях - отлично! - значит именно так и следует его применять, в противном случае целесообразнее выбрать другой алгоритм. Но если ADAM обсерится на всех тестах, ну что ж, значит нужно выбрать что то получше, вот и всё. сейчас просто большинство выбрали что то конкретное по "моде", совершенно не ведая, оптимальный ли выбор сделали.

 
Идеальные метки классов и так соответствуют идеальному балансу. Масло масляное. Там невозможно улучшить ничего.

А выбор моделей по кастомным метрикам может быть полезен иногда, наверное. Но это побрякушки все, по большому счету
 
Maxim Dmitrievsky #:
Идеальные метки классов и так соответствуют идеальному балансу. Масло масляное. Там невозможно улучшить ничего.

А выбор моделей по кастомным метрикам может быть полезен иногда, наверное. Но это побрякушки все, по большому счету

ага. но товарисчу для размышлений вполне годится для понимания зачем нужны производные задачи.
в идеале нужно иметь полный набор всех сетов параметров модели (полный перебор) и классифицировать сеты по стабилтности на оос. это в теории, на практике не выполнимая задача.

 
Понятно, что не напрямую сравнивать алгоритмы, которые для разного. Просто интересно позырить как они сходятся, может есть более новые. Слышал про всякие авторские архитектуры НС на других принципах обучения, но не видел
Причина обращения: