От теории к практике - страница 295

 
Renat Akhtyamov:
То есть ты говоришь, что параллельные линии пересекаются (поддержки и сопротивления)?

Ценой! Ну, или интегралом ретурнов.

 
Alexander_K2:

Ценой! Ну, или интегралом ретурнов.

Вот один из вариантов по использованию энтропии

npdeneqtest                      Nonparametric Test for Equality of Densities

npdeptest                         Nonparametric Entropy Test for Pairwise Dependence

npsdeptest                        Nonparametric Entropy Test for Serial Nonlinear Dependence

npsymtest                         Nonparametric Entropy Test for Asymmetry

npunitest                         Nonparametric Entropy Test for Univariate Density Equality


Цепляю документацию. Здесь есть формулы: Entropy-Based Inference using R and the np Package: A Primer

Файлы:
np.zip  2331 kb
 
Alexander_K2:

Я только в Википедии видел формулу вычисления:

Идет сравнение текущего распределения вероятностей с нормальным распределением как мерой хаоса.

Не вкурил мысль.

То что я понял из твоей фразы, это что упорядоченный процесс не может иметь нормального распределения.

Позвольте поинтересоваться сфигали такое утверждение?

Как взаимосвязаны хаотичность и нормальность?

ЗЫ Я не опровергаю, я интересуюсь.

 
Nikolay Demko:

упорядоченный процесс не может иметь нормального распределения.


Це тайна! Тссссссс...

Поэтому и читаю философские трактаты об негэнтропии.

Например - 

 
Nikolay Demko:

Ну ты хоть намекни как эту негэнтропию вычислять.

А то ругаешься непонашенски и хочешь чтоб тебя понимали.

ЗЫ Я тут на досуге всё обгуглил и обяндексил, ничё кроме общих фраз не нашёл. Негэнтропия это противоположность энтропии, то есть мера упорядоченности. Это всё что выудил за вечер гугления.

Я не гуглил, но пересечения линий поддержки с линиями сопротивления представить себе не могу; разве что - о машеньках речь... 

 
Алексей Тарабанов:

Я не гуглил, но пересечения линий поддержки с линиями сопротивления представить себе не могу; разве что - о машеньках речь... 

У их копенгагенская интерпретация. В ней все может быть.

 
Yuriy Asaulenko:

У их копенгагенская интерпретация. В ней все может быть.

Подождем реакции наших уважаемых коллежек? 

 

Википедия пишет - Термин [Негэнтропия] иногда используется в физике и математике (теории информации, математической статистике) для обозначения величины, математически противоположной к величине энтропии.
https://ru.wikipedia.org/wiki/Негэнтропия

Так что можно посчитать энтропию, и просто взять её с отрицательным знаком для получения негэнтропии.


Подсчёт энтропии в R, самый простой способ из десятков что там есть (эмпирическая энтропия):

1) есть ряд чисел 2  7  4  3  7  9  4  4  4  4  4  1  3 10  3  8  4  9 10  7 который нас интересует.

2) считаем число повторов каждого значения:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Получили новый ряд чисел 1 1 3 7 3 1 2 2
считаем сумму чисел:
sum = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(логично что сумма == длинна ряда в первом пункте)
и теперь делим:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Получаем:
0.05 0.05 0.15 0.35 0.15 0.05 0.10 0.10
это плотность распределения чисел в ряду из первого пункта.

3) Энтропия =  - sum(freq*log(freq)    (формула для векторов в R синтаксисе. log() натуральный)
H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15)  + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log(0.10) + 0.10*log(0.10)  )
H это и будет энтропия.

4) Там ещё есть масштаб, при желании пользователя проводится операция над результатом
H / log(2)
или
H / log(10)

5) домножить H на -1 и получится негэнтропия.

 
Dr. Trader:

5) домножить H на -1 и получится негэнтропия.

Если бы было так все просто, я бы и не просил уважаемых математиков разобраться с этим вопросом.

Еще раз:

Это - разница между текущим распределением вероятностей приращений и Гауссовским с одинаковыми матожиданием и дисперсией для определенного объема выборки.

Проблема в том, что дисперсию приращений нельзя считать по обычной формуле (единственное, что знают из математики дитяти, заполонившие сей форум в поисках и страданиях). Надо применять непараметрические метОды :))

 

Более того, эта формула имеет глубинный философский и физический смысл. Имеем меру структурированности процесса, его отклонения от хаоса.

Господа! Бодрые старички и молодежь!

Негэнтропия - это и есть параметр, определяющий состояние тренд/флэт!!!

Дарю его Вам.

Причина обращения: