Регрессионная модель Султонова (РМС) - претендующая на математическую модель рынка. - страница 27

 
gpwr:

У случайного блуждания приращения цены описываются нормальным распределением, а не сама цена.

Вы сейчас охарактеризовали один конкретный класс СБ. А их выделяют как минимум три.
 
TheXpert:
А где ее взять?

Нету её. Я привёл этот пример чтобы показать что можно торговать зная статистику поведения цены, забыв про замудрённые модели рынка, на которых основана например (18), всякие тригонометрические и полиномные регрессии и нейросети.
 
anonymous:

Вы сейчас охарактеризовали один конкретный класс СБ. А их выделяют как минимум три.


Охарактеризовал наиболее частый применяемый класс СБ. Вот из английской википидии (руская временно закрыта):

A random walk having a step size that varies according to a normal distribution is used as a model for real-world time series data such as financial markets. The Black–Scholes formula for modeling option prices, for example, uses a gaussian random walk as an underlying assumption.

Вообще-то, я пытался объяснить что если приращения случайной величины имеют какое-то распределение (нормальное, униформное, и т.п.), это не означает что сама случайная величина имеет то же распределение. И даже не того поля ягоды :)

 
gpwr:


Охарактеризовал наиболее частый применяемый класс СБ. Вот из английской википидии (руская временно закрыта):

A random walk having a step size that varies according to a normal distribution is used as a model for real-world time series data such as financial markets. The Black–Scholes formula for modeling option prices, for example, uses a gaussian random walk as an underlying assumption.

Вообще-то, я пытался объяснить что если приращения случайной величины имеют какое-то распределение (нормальное, униформное, и т.п.), это не означает что сама случайная величина имеет то же распределение. И даже не того поля ягоды :)

Для сведения замечу, что (18) оперирует приращением цены за единицу расчетного периода и выходит на саму цену путем добавления условно постоянной составляющей, которую пересчитывает каждый раз.
 
gpwr:

Нету её. Я привёл этот пример чтобы показать что можно торговать зная статистику поведения цены, забыв про замудрённые модели рынка, на которых основана например (18), всякие тригонометрические и полиномные регрессии и нейросети.
Ну, почему же - коинтеграция, довольно часто встречающаяся стат характеристика и широко используемая при построении ТС.
 
gpwr:


Охарактеризовал наиболее частый применяемый класс СБ. Вот из английской википидии (руская временно закрыта):

A random walk having a step size that varies according to a normal distribution is used as a model for real-world time series data such as financial markets. The Black–Scholes formula for modeling option prices, for example, uses a gaussian random walk as an underlying assumption.

Вообще-то, я пытался объяснить что если приращения случайной величины имеют какое-то распределение (нормальное, униформное, и т.п.), это не означает что сама случайная величина имеет то же распределение. И даже не того поля ягоды :)

классическая монетка (т.е. равномерно распределённая дискретная величина блужданий) даст вам для бесконечного) числа реализаций уже на 120 шаге идеальное дискретизированное нормальное распределение. Доску Гальтона вспомните... )

А при нормально-распределённых непрерывных приращениях процесс могут назвать Винеровским. а там уже и до Броуновского моста рукой подать.

;)

 
yosuf:
Для сведения замечу, что (18) оперирует приращением цены за единицу расчетного периода и выходит на саму цену путем добавления условно постоянной составляющей, которую пересчитывает каждый раз.

Вы вкратце опишите, в чем отличия от линейной регрессии...
 
Roman.:

Вы вкратце опишите, в чем отличия от линейной регрессии...
Линейная регрессия применяется тогда, когда Вы предполагаете существование линейной зависимости цены от времени, чего явно не наблюдается в общем случае, хотя в ограниченном временном интервале иногда может проявиться линейная зависимость, однако попытка приминения этого допущения приведет к значительным отклонениям в будущем. Поэтому вынуждены применить нелинейную регрессию, к которым относится РМС, причем, как показано ранее, она охватывает однозначно и случай линейной регрессии.
 

В связи с этим http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C, может быть изменить название ветки?: 

Различают математическую модель и регрессионную модель. Математическая модель предполагает участие аналитика в конструировании функции, которая описывает некоторую известную закономерность. Математическая модель является интерпретируемой — объясняемой в рамках исследуемой закономерности. При построении математической модели сначала создаётся параметрическое семейство функций, затем с помощью измеряемых данных выполняется идентификация модели — нахождение её параметров. Известная функциональная зависимость объясняющей переменной и переменной отклика — основное отличие математического моделирования от регрессионного анализа.

Недостаток математического моделирования состоит в том, что измеряемые данные используются для верификации, но не для построения модели, вследствие чего можно получить неадекватную модель. Также затруднительно получить модель сложного явления, в котором взаимосвязано большое число различных факторов.

Регрессионная модель объединяет широкий класс универсальных функций, которые описывают некоторую закономерность. При этом для построения модели в основном используются измеряемые данные, а не знание свойств исследуемой закономерности. Такая модель часто неинтерпретируема, но более точна. Это объясняется либо большим числом моделей-претендентов, которые используются для построения оптимальной модели, либо большой сложностью модели. Нахождение параметров регрессионной модели называется обучением модели.

Недостатки регрессионного анализа: модели, имеющие слишком малую сложность, могут оказаться неточными, а модели, имеющие избыточную сложность, могут оказаться переобученными.

Примеры регрессионных моделей: линейные функции, алгебраические полиномы, ряды Чебышёва, нейронные сети без обратной связи, например, однослойный персептрон Розенблатта, радиальные базисные функции и прочее.

И регрессионная, и математическая модель, как правило, задают непрерывное отображение. Требование непрерывности обусловлено классом решаемых задач: чаще всего это описание физических, химических и других явлений, где требование непрерывности выставляется естественным образом. Иногда на отображение накладываться ограничения монотонности, гладкости, измеримости, и некоторые другие. Теоретически, никто не запрещает работать с функциями произвольного вида, и допускать в моделях существование не только точек разрыва, но и задавать конечное, неупорядоченное множество значений свободной переменной, то есть, превращать задачи регрессии в задачи классификации.

При решении задач регрессионного анализа встают следующие вопросы.
Как выбрать тип и структуру модели, какому именно семейству она должна принадлежать?
Какова гипотеза порождения данных, каково распределение случайной переменной?
Какой целевой функцией оценить качество аппроксимации?
Каким способом отыскать параметры модели, каков должен быть алгоритм оптимизации параметров?
 

 
yosuf:
Линейная регрессия применяется тогда, когда Вы предполагаете существование линейной зависимости цены от времени, чего явно не наблюдается в общем случае, хотя в ограниченном временном интервале иногда может проявиться линейная зависимость, однако попытка приминения этого допущения приведет к значительным отклонениям в будущем. Поэтому вынуждены применить нелинейную регрессию, к которым относится РМС, причем, как показано ранее, она охватывает однозначно и случай линейной регрессии.


Точно нелинейная? Прям-таки регрессия по гамма-функции? А может все-таки линейная, но не с прямой линией, а с гаммафункцией?

В любом случае, Юсуф, вы ничего не открыли. Математике дано известна регерессия, линейная, нелиненая, с пярмой линией, с любой другой функцией.

Причина обращения: