Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Можно пойти по пути выбрасывания одинаковых входов. Для каждой колонки с каждой другой посчитать среднее отклонение. Таким образом можно найти две наиболее похожие колонки, одну из них выкинуть. Какую из двух, можно посчитать по среднему отклонению по всем колонкам, и т.д.
Визуально все веса делятся на две группы. Если нужно их поделить по принципу значимые/не значимые, то 5,11,7,1,3,9 явно выделяются, такого набора думаю хватит.
Это верное решение!
Я не знал, что НС такое может. Для меня это открытие.
Получается, НС могут моделировать взаимодействия.
С меня приз вам. Спасибо!
Правда, НС не дают представления о виде закономерности. То есть, трактуемость модели под вопросом.
Попозже я выложу логику создания набора данных и расскажу про вид зависимости.
Визуально все веса делятся на две группы. Если нужно их поделить по принципу значимые/не значимые, то 5,11,7,1,3,9 явно выделяются, такого набора думаю хватит.
Если интересно, попробуйте удалить из набора данных один любой значимый предиктор и еще раз обучите НС и выведите картинку с весами. Думаю, будет сюрприз.
Это уже вне задания. Для роста темы.
Если интересно, попробуйте удалить из набора данных один любой значимый предиктор и еще раз обучите НС и выведите картинку с весами. Думаю, будет сюрприз.
Это уже вне задания. Для роста темы.
Печка - очень важная деталь интерьера в том смысле, что всегда надо танцевать от не нее.
Dr.Trader
Ваш пример с НС говорит только о том, что НС больше понравились указанные Вами предикторы и не понравились другие. Алгоритмов, которые делают подобные вещи пруд-пруди.
Все это было бы хорошо, если такой отбор осуществляется среди предикторов, которые имеют отношение, имеют предсказательную мощность, предсказательную способность для целевой переменной.
По моей практике, всегда среди произвольного набора предикторов существуют предикторы, которые не имеют отношение (или очень слабое) к целевой переменной. Так подлость состоит в том, что при наличии некоторого количества таких шумовых предикторов или их некоторой случайной подборки значений большинству алгоритмов, включая НС, не удается выделить информационные предикторы среди шумовых.
Поэтому "печка" определяется как действие, которое позволяет предварительно очистить исходный набор предикторов от безнадежных, шумовых предикторов, а уж потом...
ПС.
С НС не работал, а вот случайные леса, при некотором количестве шумовых предикторов, норовят отбросить информационные предикторы в соответствии со своим встроенным алгоритмом. Как результат на шуме дают необыкновенную результативность с ошибкой менее 5%!
ПСПС
Наличие шумовых предикторов в обязательном порядке вдет к переобучению модели со всеми вытекающими для реала
Печка - очень важная деталь интерьера в том смысле, что всегда надо танцевать от не нее.
Dr.Trader
Ваш пример с НС говорит только о том, что НС больше понравились указанные Вами предикторы и не понравились другие. Алгоритмов, которые делают подобные вещи пруд-пруди.
Все это было бы хорошо, если такой отбор осуществляется среди предикторов, которые имеют отношение, имеют предсказательную мощность, предсказательную способность для целевой переменной.
По моей практике, всегда среди произвольного набора предикторов существуют предикторы, которые не имеют отношение (или очень слабое) к целевой переменной. Так подлость состоит в том, что при наличии некоторого количества таких шумовых предикторов или их некоторой случайной подборки значений большинству алгоритмов, включая НС, не удается выделить информационные предикторы среди шумовых.
Поэтому "печка" определяется как действие, которое позволяет предварительно очистить исходный набор предикторов от безнадежных, шумовых предикторов, а уж потом...
ПС.
С НС не работал, а вот случайные леса, при некотором количестве шумовых предикторов, норовят отбросить информационные предикторы в соответствии со своим встроенным алгоритмом. Как результат на шуме дают необыкновенную результативность с ошибкой менее 5%!
ПСПС
Наличие шумовых предикторов в обязательном порядке вдет к переобучению модели со всеми вытекающими для реала
НС очень хорошо справилась.
Рандом лес не смог осилить такую задачу, где взаимодействие набора переменных. А индивидуальная значимость каждого предиктора умышленно была нулевой.
Рад что получилось :) , спасибо за приз.
Я попробовал убрать один вход (4 случая) - если убрать input_5 или input_9 то больше ничего не работает, нейронка с такой-же конфигурацией даже не обучается до ошибки меньше 50%, начинает просто выдавать в большем случае или 0 или 1.
Если убрать input_20 то всё хорошо, результат правильный. Но странно вышло с input_15, если его убрать то нейронка даже толком не обучилась, проблемы такие-же как если убрать input_5 или input_9. Дальше я не проверял.
Я приложил файл с R кодом для обучения нейронки, если интересно. Там по сути просто чуть изменённый код из лога Rattle.
Рад что получилось :) , спасибо за приз.
Я попробовал убрать один вход (4 случая) - если убрать input_5 или input_9 то больше ничего не работает, нейронка с такой-же конфигурацией даже не обучается до ошибки меньше 50%, начинает просто выдавать в большем случае или 0 или 1.
Если убрать input_20 то всё хорошо, результат правильный. Но странно вышло с input_15, если его убрать то нейронка даже толком не обучилась, проблемы такие-же как если убрать input_5 или input_9. Дальше я не проверял.
Я приложил файл с R кодом для обучения нейронки, если интересно. Там по сути просто чуть изменённый код из лога Rattle.
Ну в общем-то процесс понятен, нейронка просто пытается имеющиеся данные уложить в какую-то логику, и если часть из входов не несёт новой информации то минимизирует их воздействие дабы не вредили. Сложные взаимосвязи входов она вряд ли найдёт, согласен.
Ещё, пакет nnet в R это не совсем обычная нейронка. Судя по описанию, он должен использовать обучение второго порядка. Обычно в нейронках веса изменяются согласно производным, а здесь - согласно производным от производных. И при обучении строится некая "hessian" матрица, в которой хранятся важные данные о всех весах для всех обучающих примеров сразу. Говорят что это очень круто, этот пакет должен быть сильный. https://ru.wikipedia.org/wiki/Алгоритм_Бройдена_—_Флетчера_—_Гольдфарба_—_Шанно - я это не понял, но это если кто-то математик то разберётся.