Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3518

 

Другая выборка и разметка

Permutation Entropy (train): 0.7652171231205366
Permutation Entropy (test): 0.7575991534095268
Permutation Entropy (exam): 0.7589746432648261

На показатель не оказывает ли влияние баланс классов?

 
Aleksey Vyazmikin #:

Я взял три выборки и измерил показатель. Или что надо?

Измерить энтропию меток до обучения. Потом сопоставить с результатами на ООС обученной модели уже по своим оценкам. Снижение энтропии должно улучшать торговлю на ООС.
 

ChatGPT:
Перестановочная энтропия измеряет сложность или непредсказуемость временного ряда на основе перестановок его значений. Этот показатель основывается на частоте появления различных перестановок в ряду данных.

Зависимость показателя перестановочной энтропии от сбалансированности классов зависит от того, какие именно классы вы рассматриваете в вашем временном ряде и как часто они встречаются. Если классы встречаются в данных примерно одинаково часто, это может привести к более равномерному распределению перестановок и, как следствие, к более низкой перестановочной энтропии.

Однако, если один или несколько классов значительно преобладают над другими, это может привести к более неравномерному распределению перестановок и, следовательно, к более высокой перестановочной энтропии.

Таким образом, можно ожидать, что сбалансированные классы могут привести к более низкой перестановочной энтропии, в то время как несбалансированные классы могут привести к более высокой перестановочной энтропии. Однако это может зависеть от конкретных данных и их распределения.

 
Aleksey Vyazmikin #:

Другая выборка и разметка

На показатель не оказывает ли влияние баланс классов?

Оказывает в какой-то степени.
 
Maxim Dmitrievsky #:
Измерить энтропию меток до обучения. Потом сопоставить с результатами на ООС обученной модели уже по своим оценкам. Снижение энтропии должно улучшать торговлю на ООС.

Думаю, для этого нужен Recall под единицу, у меня таких и близко нет моделей.

 
Aleksey Vyazmikin #:

Думаю, для этого нужен Recall под единицу, у меня таких и близко нет моделей.

Субъективно, снижение энтропии должно влиять на любых дынных и для любых моделей. Если есть такая зависимость, но она пока не доказана.
Чатгпт говорит, что нет прямой зависимости. Но мы, конечно же, очень ему верим. 
 
Чем меньше энтропия - тем больше паттернов всяческих, меньше шума в данных. Порядок меток косвенно отражает паттерны в исходных данных. Такая логика.
Не важно, что эти метки не зависят друг от друга, а зависят от фичей. (на самом деле зависят друг от друга)
 
Maxim Dmitrievsky #:
Субъективно, снижение энтропии должно влиять на любых дынных и для любых моделей. Если есть такая зависимость, но она пока не доказана.

Я к тому, что при низком Recall - будет очень мало единиц после классификации, а их, вероятно, должно быть примерно столько же для корректной оценки. Или предлагаете брать только участок, где модель классифицировала пример единицей и по этим данным оценивать энтропию? Тогда объём данных будет очень мал.

 
Aleksey Vyazmikin #:

Я к тому, что при низком Recall - будет очень мало единиц после классификации, а их, вероятно, должно быть примерно столько же для корректной оценки. Или предлагаете брать только участок, где модель классифицировала пример единицей и по этим данным оценивать энтропию? Тогда объём данных будет очень мал.

Надо сравнивать относительно других похожих моделей, похожие разметки между собой. Тогда не важны абсолютные значения энтропии.
 
Maxim Dmitrievsky #:
Субъективно, снижение энтропии должно влиять на любых дынных и для любых моделей. Если есть такая зависимость, но она пока не доказана.
Чатгпт говорит, что нет прямой зависимости. Но мы, конечно же, очень ему верим. 

переводчик на англ. форуме перевел, что "должно влиять на любые дыни". Там было слово "Данные" :)

Хотя на некоторые дыни это тоже может повлиять :)
Причина обращения: