Матстат Эконометрика Матан - страница 11

 
Aleksey Nikolayev:

По просьбе топикстартера продолжу про принцип максимума правдоподобия. Для краткости буду использовать англоязычное обозначение MLE (maximum likelihood estimation).


По определению - правдоподобие это плотность этого совместного распределения. Для выборки размером N это числовая функция из числового N-мерного пространства. Помимо этого, она ещё зависит от параметров, которые нужно определить (оценить).

Соответственно, возникает вопрос - откуда эта функция берётся? Ответ - когда как.) Ибо всё разнообразие способов охватить невозможно.


Достоверность - вероятность попадания в доверительный интервал. А кто такая правдоподобность? По-простому, без плотности совместного распределения. 

 
Алексей Тарабанов:

Достоверность - вероятность попадания в доверительный интервал. А кто такая правдоподобность? По-простому, без плотности совместного распределения. 

Что именно сложное для вас в понятии плотности?

 

Как всегда - сначала за нормальность, потом за стационарность, а потом... как обычно...

Да и кстати, не все Гауссовский шум называют белым. Белый - это белый, а Гауссовский - это Гауссовский.

 
Собственно, не видел ни одного упоминания использования СБ и прочих шумов в публикациях квантов для создания чего бы то ни было торгующего, разве что симуляции для тестирования. И то этот метод признан малоэффективным. Ну ещё для моделирования чего-нибудь нереального, чтобы сравнить с реальным и показать что оно похоже на глаз, но абсолютно бесполезно. Кванты привыкли мыслить более реально и ищут что-то там, где оно действительно есть. Эконометрика очень полезна тем, что может предсказать синусоиду и легко заменяется машинным обучением. А чем заменить машинное обучение никто пока не придумал. На этом можно было бы закончить всяческие философствования по данной тематике как непродуктивные и ни к чему не приводящие 😁 

В целом, изучающие СБ и эконометрику эволюционируют примерно так: Кулибин -> Эконометрик -> Кулибин/эконометрик = экспериенсед Кулибин
 
Доктор:

Читал ваш опус.  Вы практически доказали, что никакие манипуляции с тиками не меняют персистентность ряда. Поздравляю.  

При чем здесь персистентность? Я вообще этого слова не упоминал... Док, я извиняюсь, но Вы еще тупее, чем я думал.... Речь шла о максимальном сохранении структуры ряда, а за структуру отвечает, как известно, негэнтропия (или энтропия).

Показано, что работа с М1 и выше ничем не отличается от работы с винеровским процессом без сноса. И на нем надо применять совсем иные метОды, нежели при работе с тиками и прореженными тиками.

Люди отчитываются за успехи при работе с методом Колдуна при определенных доработках....

Там своя тусовка и Вы в ней совершенно лишний ибо ничего не понимаете.

Вам не следует вообще прикасаться к рынку, Вы его не любите, собственно как и Он вас.

Я прекращаю общаться с Вами. 

 
Aleksey Nikolayev:

3) Стандартный вариант MLE.
Часто используется как определение MLE, но это слишком сильно сужает применимость метода.
Используется допущение, что все случайные величины в выборке
а) независимы и
б) имеют одинаковое одномерное распределение с плотностью p(x,a),
где а - параметр который необходимо оценить.
Тогда функция правдоподобия L=p(x1,a)*p(x2,a)*...*p(xn,a), где n-размер выборки.
Подставляем в качестве иксов выборку (в первом смысле), получаем L=L(a) и ищем amax, при котором L достигает максимума.
Замечаем, что можно вместо L(a) можно максимизировать LL(a)=log(L(a)), поскольку логарифм - монотонная функция и, что удобно, заменяет произведение сложением.

Для примера рассмотрим экспоненциальное распределение p(x,a)=a*exp(-a*x), log(p(x,a))=log(a)-a*x,
производная по параметру d(log(p(x,a)))/da=1/a-x.
Таким образом нужно решить уравнение 1/a-x1+1/a-x2+...+1/a-xn=0 -> amax=n/(x1+x2+...+xn).

4) В следующий раз опишу, как получается метод минимизации суммы модулей вместо МНК)

То есть максимизируем центр распределения? по сути нулевую сигму?
Или максимум это не всегда будет около нулевой сигмы ?

Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий

Матстат-Эконометрика-Матан

Алексей Тарабанов, 2021.05.14 22:25

Достоверность - вероятность попадания в доверительный интервал. А кто такая правдоподобность? По-простому, без плотности совместного распределения. 


И это то же самое?
Вероятность, что переменная из нормального распределения == максимальное правдоподобие  ?
 
Alexander_K2:

А, насчет эконометрики, матстата и матана (Боже, какие названия!) я поддерживаю Автомата - эта дичь применима только в том случае, если индивидуум усёк физику процесса. Иначе - все это ерунда и внимания обращать не стоит.

Аминь.

Без обид.

Они этого не понимают. Более того, они вообще выбрасывают физику из рассмотрения. Не в коня корм.

Не будем им мешать. Пускай себе резвятся. Понаблюдаем.

 
Maxim Dmitrievsky:
Собственно, не видел ни одного упоминания использования СБ и прочих шумов в публикациях квантов для создания чего бы то ни было торгующего, разве что симуляции для тестирования. И то этот метод признан малоэффективным. Ну ещё для моделирования чего-нибудь нереального, чтобы сравнить с реальным и показать что оно похоже на глаз, но абсолютно бесполезно. Кванты привыкли мыслить более реально и ищут что-то там, где оно действительно есть. Эконометрика очень полезна тем, что может предсказать синусоиду и легко заменяется машинным обучением. А чем заменить машинное обучение никто пока не придумал. На этом можно было бы закончить всяческие философствования по данной тематике как непродуктивные и ни к чему не приводящие 😁 

В целом, изучающие СБ и эконометрику эволюционируют примерно так: Кулибин -> Эконометрик -> Кулибин/эконометрик = экспериенсед Кулибин

Ни один квант никогда не будет публиковать рабочую модель или подход. Вообще при приеме на работу они подписывают NDA. 

То, что они публикуют, либо уже не работает, либо никогда не работало, но интересно с точки зрения теории.

 
Roman:

То есть максимизируем центр распределения? по сути нулевую сигму?
Или максимум это не всегда будет около нулевой сигмы ?

Забудьте про нормальное распределение) Не насовсем только забывайте, а лишь на время) Оно постоянно вылазит, но вообще то распределений полно разных - как табличных, так и безымянных)

Суть MLE в том, что у нас есть бесконечное число моделей, "пронумерованных" параметром. По результатам эксперимента (выборка в числовом смысле) из них мы выбираем ту, что максимизирует правдоподобие. Правдоподобие (плотность распределения) - базовое понятие теорвера (следует прямо из аксиом науки) и можно лишь привыкнуть к его применению, не пытаясь объяснить через другие менее базовые понятия.

Метод MLE настолько базовый, что даже перекочевал в машинное обучение (вместе с неявным представлением о совместном распределении признаков и ответов) )

Остаётся вопрос выбора - с каким именно параметрическим семейством моделей работать. Этот вопрос обычно лежит в практической плоскости и зависит от изучаемого объекта.

Roman:

И это то же самое?

Вероятность, что переменная из нормального распределения == максимальное правдоподобие  ?

Доверительный интервал - это из области интервальной оценки параметра, где находится не конретное значение параметра, а интервал, в который он попадает с заданной вероятностью. Например, все считают только числовое значение Хёрста и сильно радуются, что он не равен 0.5. Но на деле нужно показать, что с высокой вероятностью Хёрст попадает в интервал, не содержащий число 0.5. А вот с этим - обычно большие проблемы)

MLE - это из области точечной оценки параметра. Задача немного другая, но как и для предыдущей её решение опирается на понятие совместного распределения выборки (во втором смысле). Стало быть, утверждение "я знаю доверительные интервалы, но не знаю плотность совместного распределения" состоит из двух взаимоисключающих утверждений)

Советую разбираться с методами по очереди, а не устраивать из них непонятную мешанину.

 
denis.eremin:

Ни один квант никогда не будет публиковать рабочую модель или подход. Вообще при приеме на работу они подписывают NDA. 

То, что они публикуют, либо уже не работает, либо никогда не работало, но интересно с точки зрения теории.

Это не отменяет первый тезис. И публикуются вполне рабочие модели.
Причина обращения: