Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
То есть ты говоришь, что параллельные линии пересекаются (поддержки и сопротивления)?
Ценой! Ну, или интегралом ретурнов.
Ценой! Ну, или интегралом ретурнов.
Вот один из вариантов по использованию энтропии
npdeneqtest Nonparametric Test for Equality of Densities
npdeptest Nonparametric Entropy Test for Pairwise Dependence
npsdeptest Nonparametric Entropy Test for Serial Nonlinear Dependence
npsymtest Nonparametric Entropy Test for Asymmetry
npunitest Nonparametric Entropy Test for Univariate Density Equality
Цепляю документацию. Здесь есть формулы: Entropy-Based Inference using R and the np Package: A Primer
Я только в Википедии видел формулу вычисления:
Идет сравнение текущего распределения вероятностей с нормальным распределением как мерой хаоса.
Не вкурил мысль.
То что я понял из твоей фразы, это что упорядоченный процесс не может иметь нормального распределения.
Позвольте поинтересоваться сфигали такое утверждение?
Как взаимосвязаны хаотичность и нормальность?
ЗЫ Я не опровергаю, я интересуюсь.
упорядоченный процесс не может иметь нормального распределения.
Це тайна! Тссссссс...
Поэтому и читаю философские трактаты об негэнтропии.
Например -
Ну ты хоть намекни как эту негэнтропию вычислять.
А то ругаешься непонашенски и хочешь чтоб тебя понимали.
ЗЫ Я тут на досуге всё обгуглил и обяндексил, ничё кроме общих фраз не нашёл. Негэнтропия это противоположность энтропии, то есть мера упорядоченности. Это всё что выудил за вечер гугления.
Я не гуглил, но пересечения линий поддержки с линиями сопротивления представить себе не могу; разве что - о машеньках речь...
Я не гуглил, но пересечения линий поддержки с линиями сопротивления представить себе не могу; разве что - о машеньках речь...
У их копенгагенская интерпретация. В ней все может быть.
У их копенгагенская интерпретация. В ней все может быть.
Подождем реакции наших уважаемых коллежек?
Википедия пишет - Термин [Негэнтропия] иногда используется в физике и математике (теории информации, математической статистике) для обозначения величины, математически противоположной к величине энтропии.
https://ru.wikipedia.org/wiki/Негэнтропия
Так что можно посчитать энтропию, и просто взять её с отрицательным знаком для получения негэнтропии.
Подсчёт энтропии в R, самый простой способ из десятков что там есть (эмпирическая энтропия):
1) есть ряд чисел 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7 который нас интересует.
2) считаем число повторов каждого значения:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Получили новый ряд чисел 1 1 3 7 3 1 2 2
считаем сумму чисел:
sum = 1 + 1 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(логично что сумма == длинна ряда в первом пункте)
и теперь делим:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Получаем:
0.05 0.05 0.15 0.35 0.15 0.05 0.10 0.10
это плотность распределения чисел в ряду из первого пункта.
3) Энтропия = - sum(freq*log(freq) (формула для векторов в R синтаксисе. log() натуральный)
H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15) + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log(0.10) + 0.10*log(0.10) )
H это и будет энтропия.
4) Там ещё есть масштаб, при желании пользователя проводится операция над результатом
H / log(2)
или
H / log(10)
5) домножить H на -1 и получится негэнтропия.
5) домножить H на -1 и получится негэнтропия.
Если бы было так все просто, я бы и не просил уважаемых математиков разобраться с этим вопросом.
Еще раз:
Это - разница между текущим распределением вероятностей приращений и Гауссовским с одинаковыми матожиданием и дисперсией для определенного объема выборки.
Проблема в том, что дисперсию приращений нельзя считать по обычной формуле (единственное, что знают из математики дитяти, заполонившие сей форум в поисках и страданиях). Надо применять непараметрические метОды :))
Более того, эта формула имеет глубинный философский и физический смысл. Имеем меру структурированности процесса, его отклонения от хаоса.
Господа! Бодрые старички и молодежь!
Негэнтропия - это и есть параметр, определяющий состояние тренд/флэт!!!
Дарю его Вам.