Обсуждение статьи "Теория вероятностей и математическая статистика с примерами (Часть I): Основы и элементарная теория" - страница 5

 
Aleksey Nikolayev:

С удовольствием почитаю статью с описанием вашего подхода)

Проблема с постоянными и кусочно-постоянными моделями в том, что мы не можем ими не пользоваться) По сути, подход с использованием советников, которые оптимизируются или переоптимизируются и есть использование данного подхода. И только свобода и творческий полёт ручной торговли позволяет избегать эти модели)

Всё просто, шаг переоптимизации должен быть много меньше средней длительности сделки.
 
secret:
Всё просто, шаг переоптимизации должен быть много меньше средней длительности сделки.

Будет логичным сделать столь частую переоптимизацию внутренней частью советника. Это приведёт к появлению нового советника с новыми параметрами, регулирующими алгоритм переоптимизации старых параметров, которые тоже придётся изредка оптимизировать и переоптимизировать)

 
Aleksey Nikolayev:

Будет логичным сделать столь частую переоптимизацию внутренней частью советника. Это приведёт к появлению нового советника с новыми параметрами, регулирующими алгоритм переоптимизации старых параметров, которые тоже придётся изредка оптимизировать и переоптимизировать)

Ну замените "переоптимизация" на "пересчет модели".
 

Interesting article. You may find it interesting in your future articles to cover mutual information and probability: '' '  

----The pointwise mutual information can be understood as a scaled conditional probability. The pointwise mutual information represents a quantified measure for how much more- or less likely we are to see the two events co-occur, given their individual probabilities, and relative to the case where the two are completely independent. ''   https://eranraviv.com/understanding-pointwise-mutual-information-in-statistics/


--- And permutation entropy: https://www.aptech.com/blog/permutation-entropy/  

  https://github.com/danhammer/info-theory/wiki/permutation-entropy

Understanding Pointwise Mutual Information in Statistics
  • 2020.01.26
  • eranraviv.com
The term mutual information is drawn from the field of information theory. Information theory is busy with the quantification of information. For example, a central concept in this field is entropy, which we have discussed before. If you google the term “mutual information” you will land at some page which if you understand it, there would...
 
secret:
Всё просто, шаг переоптимизации должен быть много меньше средней длительности сделки.

давайте в цифрах:

средняя продолжительность сделки 1 час, соответственно оптимизация должна проходить < 1/2 часа , считаем, что минимально доступные входные данные это ТФ М1

ну и получим, что при оптимизации имеем новых данных менее 30 баров (М1) , причем результат первой открытой сделки мы еще не знаем, но должны принять решении - прогноз, о том какую сделку нам открывать следующую? (или закрывать текущую ?)


по моему, если убрать всю мишуру, то такой подход полностью совпадает с торговлей по индикатору с периодом расчета менее 30 и на ТФ М1, т.е. нет тут оптимизации по причине неопределенного результата предыдущей сделки (из теории управления - нет обратной связи)

 
secret:
Ну замените "переоптимизация" на "пересчет модели".

Суть не поменяется - будем всегда иметь дело с советником с неким набором параметров, которые иногда будем менять. Если попытаться сделать эти параметры как-то зависящими от времени, то в итоге получится просто новая система с новыми параметрами, которые будут определять, то как старые параметры зависят от времени.

 
cemal:

Interesting article. You may find it interesting in your future articles to cover mutual information and probability: '' '  

----The pointwise mutual information can be understood as a scaled conditional probability. The pointwise mutual information represents a quantified measure for how much more- or less likely we are to see the two events co-occur, given their individual probabilities, and relative to the case where the two are completely independent. ''   https://eranraviv.com/understanding-pointwise-mutual-information-in-statistics/


--- And permutation entropy: https://www.aptech.com/blog/permutation-entropy/  

  https://github.com/danhammer/info-theory/wiki/permutation-entropy

Thank. I’ll write a little about information theory for discrete distributions. This is an important manifestation of probabilistic dependence.

But the exposition of permutation entropy will be too complicated for this series of articles.

 
Aleksey Nikolayev:

Суть не поменяется - будем всегда иметь дело с советником с неким набором параметров, которые иногда будем менять. Если попытаться сделать эти параметры как-то зависящими от времени, то в итоге получится просто новая система с новыми параметрами, которые будут определять, то как старые параметры зависят от времени.

Не от времени. От изменений свойств рынка, которые мы хотим эксплуатировать.

Скорость реакции должна в первом приближении совпадать со скоростью событий, на которые реагирует система.

Будет скорость реакции выше - хорошо. Будет ниже - плохо, не успеваем реагировать.

Т.е. "иногда" бывает разным, и зависит от конкретной системы.

 
Igor Makanu:

давайте в цифрах:

средняя продолжительность сделки 1 час, соответственно оптимизация должна проходить < 1/2 часа , считаем, что минимально доступные входные данные это ТФ М1

ну и получим, что при оптимизации имеем новых данных менее 30 баров (М1) , причем результат первой открытой сделки мы еще не знаем, но должны принять решении - прогноз, о том какую сделку нам открывать следующую? (или закрывать текущую ?)

Да, это называется "уменьшить задержку принятия решения".

Решение о закрытии текущей сделки, и решение о её оставлении - одинаковые по силе.

Решения должны приниматься настолько часто, чтобы данная ТС не страдала от задержки.

Например, мои системы пересчитываются на каждом тике, т.к. изменение цены в пару пунктов для них критично.

 
secret:

Да, это называется "уменьшить задержку принятия решения".

Решение о закрытии текущей сделки, и решение о её оставлении - одинаковые по силе.

Решения должны приниматься настолько часто, чтобы данная ТС не страдала от задержки.

ОК, вроде что то в этом есть, подумать нужно

Причина обращения: