Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 371

 
Дмитрий:


Я так и не понял - обратная корреляция или корреляции нет?

Или, по твоему, если у двух случайных рядов коэффициент корреляции равен -1, то у них "нет корреляции"?

Ёклмн.....


аа... ну так бы сразу )) ну понял короче ага... 
 
Дмитрий:


1. никто и не анализирует корреляцию - речь идет о выборе предикторов.

2. ты своими словами повторил мою мысль тремя страницами ранее - "Зависимость - частный случай корреляции. Если две переменные зависят, то корреляция точно есть. Если корреляция есть, то не обязательно есть зависимость.".

3. кросс-энтропия точно так же как корреляция не даст ответ по наличию функциональной зависимости


1) Сначала сам за корреляцию вещаешь, потом посты удаляешь, потом не помнишь о чём писал пару страниц назад.

Дмитрий:

Все МО основано на том, что входящие переменные должны коррелировать с выходной переменной.


2) нет, я сказал что зависимость может быть даже там где нет корреляции.


3) Кросс-энтропия. Можно оценивать сразу большой набор предикторов по отношению к цели. Когда каждый из предикторов не способен её предсказать, но определённая их комбинация - способна. Для форекса к сожалению не граально, но в целом для машинного обучения отбор предикторов через кросс-энтропию на порядки качественней чем отбор через корреляцию.

 
Dr. Trader:


2) нет, я сказал что зависимость может быть даже там где нет корреляции.



Не может быть зависимости там, где нет корреляции. Корреляция может быть линейной или нелинейной, но она будет, если есть зависимость.

Может быть корреляция при отсутствии зависимости - ложная корреляция.

Ни один пост в этой ветке я не удалял.

 

Не могу (уж не знаю почему) скачать книгу, чтобы привести подтверждение.

У кого есть такая возможность, скачайте и разместите здесь картинку с примером, чтобы прекратить пустые перепалки.

Бендат Дж., Пирсол А.

Прикладной анализ случайных данных: Пер. с англ. - М.: Мир, 1989. 

на стр. 126

ПРИМЕР 5.4. НЕКОРРЕЛИРОВАННЫЕ ЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.


.

зы

пример очень говорящий.

 
Корелляция переменных не означает возможности прогнозирования. Пары могут быть коррелированны. То есть ходить взаимосвязанно, но спрогнозировать одну посредством другой не получится, потому как они изменяются одновременно, и уж не как ни с опережением. Это если говорить про корелляцию!!!!
 
Дмитрий:

Два одинаково коррелированных предиктора - что выбрасываем на основании более низкой корреляции? Какой из них менее коррелирован?

Дмитрий, Вы уж простите, но подозреваю Вы или меня троллить пытаетесь, или юродствуете, или просто тупой, при всем уважении... Разве не видно на тривиальном примере, что два признака оба имеют нулевую корреляцию с таргетом, НО при этом оба являются существенными, ни один нельзя выкинуть, линейная зависимость нулевая, не линейная 100%, то есть корреляция может быть нулевой а датасет полностью прогнозируемый, что Ваше утверждение:

Дмитрий:

Все МО основано на том, что входящие переменные должны коррелировать с выходной переменной.

Иначе нет смысла ВО ВСЕХ моделях МО.

полностью опровергает.

 
Дмитрий:


Не может быть зависимости там, где нет корреляции. Корреляция может быть линейной или нелинейной, но она будет, если есть зависимость.

Снова ложь, нет никакой нелинейной корреляции корреляция это СТРОГО определенная математическая структура, как сложение или косинус, изучите хотя бы википедию перед тем как нести чепуху.
 
Олег avtomat:

Не могу (уж не знаю почему) скачать книгу, чтобы привести подтверждение.

У кого есть такая возможность, скачайте и разместите здесь картинку с примером, чтобы прекратить пустые перепалки.

Бендат Дж., Пирсол А.

Прикладной анализ случайных данных: Пер. с англ. - М.: Мир, 1989. 

на стр. 126

ПРИМЕР 5.4. НЕКОРРЕЛИРОВАННЫЕ ЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ.


.

зы

пример очень говорящий.


http://sci.alnam.ru/book_dsp.php

только там нет картинки на стр 126

 

Че вы ту все вцепились в корреляцию!

В машинном обучении имеется понятие "важность - importance" переменных, которое вообще не имеет никакого отношения к корреляции. Вычисление очень часто встроено в сам алгоритм машинного обучения. 

Например, в случайном лесе.

Из всего подмножества предикторов, может быть несколько сотен, выбирается несколько штук и смотрится по внутреннему алгоритму предсказывают ли значения этих предикторов конкретное значение класса.   Либо принимается,либо отбрасывается. 

В конце просматривают все узлы дерева и смотрят сколько раз использовался предиктор в каждом узле дерева - получается важность предикторов. 


Все пытаюсь сбить коллектив на обсуждение уже существующих в этой области разработок, которые гораздо содержательнее чем упражнения в корреляции.

 
СанСаныч Фоменко:

Че вы ту все вцепились в корреляцию!

В машинном обучении имеется понятие "важность - importance" переменных, которое вообще не имеет никакого отношения к корреляции. Вычисление очень часто встроено в сам алгоритм машинного обучения. 

Например, в случайном лесе.

Из всего подмножества предикторов, может быть несколько сотен, выбирается несколько штук и смотрится по внутреннему алгоритму предсказывают ли значения этих предикторов конкретное значение класса.   Либо принимается,либо отбрасывается. 

В конце просматривают все узлы дерева и смотрят сколько раз использовался предиктор в каждом узле дерева - получается важность предикторов. 


Все пытаюсь сбить коллектив на обсуждение уже существующих в этой области разработок, которые гораздо содержательнее чем упражнения в корреляции.


а в алглиб тоже темный лес есть, кстати.. можно использовать, не выходя из мт5
Причина обращения: