Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3387

 
mytarmailS #:
1 матрица с признаками

2 мы говорим про линейно зависимые признаки или обо всем подряд? 

1. Как получается эта матрица? Что за цифры там?

2. Я говорю про правила\листья. Мне не важно в моём подходе как и из чего получилось правило, но если отклик схож с другим на выборке обучения, то дополнительной информации оно не несёт.

 

Почему большое кол-во признаков - зло? Интересный график из книги по козулу.

Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.

Если у вас больше 14 (и даже 10) признаков, то получится очень много правил, которые вы уже не сможете редуцировать без потерь.


 
Maxim Dmitrievsky #:

Почему большое кол-во признаков - зло? Интересный график из книги по козулу.

Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.

Ничего не ясно. Вероятность найти где такой же пример, как в обучающей выборке?

 
Aleksey Vyazmikin #:

Ничего не ясно. Вероятность найти где такой же пример, как в обучающей выборке?

такую же строку в датасете

если у вас 1000 строк всего

Грубо говоря, если у вас 18+ признаков, вы обучаете классификатор запоминать каждую строку, потому что они даже не повторяются

а в причинном выводе вы не можете сопоставить примеры, чтобы посчитать статистики
 
Aleksey Vyazmikin #:

1. Как получается эта матрица? Что за цифры там?

2. Я говорю про правила\листья. Мне не важно в моём подходе как и из чего получилось правило, но если отклик схож с другим на выборке обучения, то дополнительной информации оно не несёт.

1. Любые значения признаков

2. Я вас удивлю,  всем неважно как создавались признаки,  все оценивают признаки только по отклику
 
Maxim Dmitrievsky #:

Почему большое кол-во признаков - зло? Интересный график из книги по козулу.

Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.

Если у вас больше 14 (и даже 10) признаков, то получится очень много правил, которые вы уже не сможете редуцировать без потерь.


Это все в рамках казуала.. 
В моделях с не структурироваными признаками (текст, картики) 
Несколько тыс. Признаков это норма
 
mytarmailS #:
Это все в рамках казуала.. 
В моделях с не структурироваными признаками (текст, картики) 
Несколько тыс. Признаков это норма

там используются эффективные алгоритмы сжатия внутри нейронки, по типу sec2sec, поэтому тоже справедливо

 
Maxim Dmitrievsky #:

там используются эффективные алгоритмы сжатия внутри нейронки, по типу sec2sec, поэтому тоже справедливо

Если мы про текст то Там используется в 95% случаев обычный счётчик слов типа - сколько раз слово встречалось в данном наблюдении? 0, 1, 103..

А чтобы матрица признаков меньше занимала её держат в формате "разреженой матрицы"  это выгодно поскольку 95% значений матрицы это нули

В картинках свертка..

А seq2seq это екзотика на редкую задачу 
 
mytarmailS #:
Если мы про текст то Там используется в 95% случаев обычный счётчик слов типа - сколько раз слово встречалось в данном наблюдении? 0, 1, 103..

А чтобы матрица признаков меньше занимала её держат в формате "разреженой матрицы"  это выгодно поскольку 95% значений матрицы это нули

В картинках свертка..

А seq2seq это екзотика на редкую задачу 

Это другие архитектуры, слоеные пироги. Сложно сравнивать. Говорим про обычную классификацию или регрессию. В этом случае это выглядит как универсальный закон.

 
Maxim Dmitrievsky #:

Это другие архитектуры, слоеные пироги. Сложно сравнивать. Говорим про обычную классификацию или регрессию. В этом случае это выглядит как универсальный закон.

Да все оно одно то же.. 

Я не про нейронки, а про структуру подачи признаков. 

----------------------------------------------------------------------

О Вспомнил, это называеться bag of words.



что тут нового, незнакомого, непонятного, сложного ?


Та же таблица признаков + любой МО


Вот это работа с неструктурироваными данными (текст) потом переводим в структуру  bag of words и дальше что угодно

Причина обращения: