Обсуждение статьи "Оценка и выбор переменных для моделей машинного обучения" - страница 3

 
Vladimir Perervenko:

Сначала дается определение Классификации на уровне детского сада. Потом рассказывается о том, что порождается неопределенность(!?) А заканчивается как всегда : "Где ключ от квартиры где деньги лежат?"

Вам нужно повысить теоретическую подготовку. Учиться, учиться и еще раз ... Ну вы знаете.

И будьте скромнее.

ПС. Свое предложение разместите во Фриланс. Получите реальный продукт.

О ключе от квартиры слышал не в первый раз. Перечитайте мое предложение: "Детали модели, нормализации данных, и их выбора меня не интересуют. Меня интересуют результаты предсказаний ..." Причём предсказаний на прошлом участке истории от 2000 года по сегодня. Так что читать видимо мы тут все не умеем. Короче, теория продолжается. Перечитали другие книги и статьи и написали свою. Вы хоть попробуйте сначала поторговать на реальном рынке ипользуя свои методы, а потом пишите статьи. Ну ладно, теоретики-академики. Дал я вам тут рекламы немного, а то ветка начала тонуть в навале новых статей. 

 

Вот ещё пара статей на данную тему:

http://robotwealth.com/machine-learning-financial-prediction-david-aronson/

http://robotwealth.com/machine-learning-for-financial-prediction-experimentation-with-david-aronsons-latest-work-part-2/

 

Возможно, кому-то покажется полезным. 

Machine learning for financial prediction: experimentation with David Aronson’s latest work – part 1
Machine learning for financial prediction: experimentation with David Aronson’s latest work – part 1
  • 2016.03.04
  • Robot Master
  • robotwealth.com
One of the first books I read when I began studying the markets a few years ago was David Aronson’s Evidence Based Technical Analysis. The engineer in me was attracted to the ‘Evidence Based’ part of the title. This was soon after I had digested a trading book that claimed a basis in chaos theory, the link to which actually turned out to be...
 
Эндрю Нг (Andrew  Ng) -  в русской транскрипции все-таки наверное более правильно Эндрю Ын ;)

Во первых, ОГРОМНОЕ спасибо автору за уникальную серию статей, это действительно Грааль для тех, кто в теме или по крайней мере пытается разобраться!

Во-вторых, без предварительной подготовки чтение данных материалов для среднестатистического человек темный лес, я бы даже сказал лежит за его event horizon когнитивных возможностей. Посему очень рекомендуется прослушать курсы по машинному обучению на курсере https://ru.coursera.org (есть нарезка тех же лекций на ютубе).

В них вся информация, как говориться из первых рук и их читают так сказать отцы-создатели deep learning: есть курс и от Geoffrey E. Hinton и от Andrew  Ng.

В качестве базы  перед этими курсами, я бы также рекомендовал курсы по эконометрике и линейной алгебры от ВШЭ на том же ресурсе.

И только после этого возможно придет понимание того, о чем пишет Владимир в своих статьях.

Еще раз, БРАВО! 
 

Статья объёмная, спасибо за труд.

Однако, вызывает сомнение:

1. Использование стратификации с выбранной целевой, которая размечается на каждом баре. Перемешивание двух нерепрезентативных выборок обычно улучшают результат, что его искажает.

2. Отбор признаков на базе построенных моделей, особенно учитывая рандом первого сплита и метод жадности, - это скорей способ уменьшения признаков для метода построения моделей. Не всегда жадный метод оказывается правильным и устойчивым. Тут, возможно нужно использовать разные подвыборки, как минимум.

Второй метод не понял до конца - там так же случайный первый предиктор, а потом пытаемся построить лист или строится дерево и оставляется лучший лист, по которому и происходит оценка?

Причина обращения: