Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 888
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Так я возьму только те у которых поддержка и достоверность большая. Я так представляю работу - у меня генерируются в индикаторе предикторы в реальном времени и на истории, складываются в строку, а потом эта строка ищется в массиве, если найдена, то помечаем бар как благоприятный для входа, а если нет, то ничего не делаем. Соответственно задвоенные строки только увеличат массив. Нет, ну можно конечно сделать градацию по цвету, где будет информация о достоверности и поддержке (умножив одно на другое получим коэффициент, который в зависимости от значения будет менять цвет), но для этого легче просто сделать отдельный массив типа int с индексом. Или я что-то не понимаю....
Теоретически - если НС скормить все без отсева недостоверных строк, сама должна их найти и повысить им значимость. Но можно конечно и самому это сделать, как вы описали. Заодно интересно и сравнить - что лучше.
Хотя в статях есть примеры с отсевом шумовых строк.Согласен, пайтон - самый топовый ЯП у ХФТшников, это как раз те у кого отрицательная ошибка, я выше упоминал, они там квантовую перепутанность также исследуют, чтобы передавать сигнал быстрее света, тоже на пайтоне есть библиотеки, в даркнете.
всякую ахинею нести в очередной раз не обязательно, это показывает ваш уровень
Да я стебусь с некоторых 90%-ных ахтунгов, не принимайте всерьёз, пайтон это студенческий язык, по бырому перепробовать кучу библ и нарисовать графики, например для закрепления курса Воронцова, а "исследования" ну разве что у аспирантов или что то далекое от реальности, в серьёзных канторах весь инструментарий написан на С++, больше половины алгоритмов эксклюзивные или измененные известные, задачи очень конкретные и узкоспециализированные, которые не предполагают гонять параметры 100500 библиотек, так что пайтон присутствует в следовых количествах.
Алешенька, иди дальше осваивай МО, про с++ api и Cython и миграцию моделей и отдельных модулей и развертывание на серверах после исследований/обучения не, не слышал?
и без отрицательной ошибки в попытках предсказать ретурны больше не приходи. А то сильно расстраиваешь - гонору много а полезной инфы тоже отрицательное кол-во
Теоретически - если НС скормить все без отсева недостоверных строк, сама должна их найти и повысить им значимость. Но можно конечно и самому это сделать, как вы описали. Заодно интересно и сравнить - что лучше.
Хотя в статях есть примеры с отсевом шумовых строк.Вообще я не до конца понимаю, как организовать работу НС, если она берет данные с истории, теоретически из любой точки... а вот с деревом/лесом все проще, они историю не анализируют, поэтому на вход им нужно подавать ограниченное количество переменных, а результаты выхода уже известны, и я их записал в массив, что-то новое после обучение дерево создать же не может, а вот нейросеть может по разному реагировать на новые данные, так-как на вход она вешает веса (коэффициенты) и они константны на каждом нейроне, но если нейронов 10 и более, и на каждую фичу свой коэффициент, то что-то много очень вариантов решений получается - по всем вариантам явно сеть не обучается, поэтому от неё могут быть разные сюрпризы, ну или я что-то не понимаю.
А индикатор я сделал, но перебор массива быстрым не получается, ну и сам код очень пока тормозной - нужна оптимизация.
Вообще я не до конца понимаю, как организовать работу НС, если она берет данные с истории, теоретически из любой точки... а вот с деревом/лесом все проще, они историю не анализируют, поэтому на вход им нужно подавать ограниченное количество переменных, а результаты выхода уже известны, и я их записал в массив, что-то новое после обучение дерево создать же не может, а вот нейросеть может по разному реагировать на новые данные, так-как на вход она вешает веса (коэффициенты) и они константны на каждом нейроне, но если нейронов 10 и более, и на каждую фичу свой коэффициент, то что-то много очень вариантов решений получается - по всем вариантам явно сеть не обучается, поэтому от неё могут быть разные сюрпризы, ну или я что-то не понимаю.
А индикатор я сделал, но перебор массива быстрым не получается, ну и сам код очень пока тормозной - нужна оптимизация.
В НС подается та же самая таблица с данными - ни каких отличий с лесом. Просто алгоритмы другие внутри.
В НС подается та же самая таблица с данными - ни каких отличий с лесом. Просто алгоритмы другие внутри.
Тогда накой НС смотреть на историю при обучении, если она это не использует при работе?
Не слышал конечно, куда мне до вас, теперь буду знать что самый cool это не пайтон апи к си библам а наоборот, с++ апи к пайтону, с развертыванием на серверах. Продолжайте жечь)))
ртуть в градуснике твоего сарказма скукожилась в пузырьке и взорвалась только что, или настолько расширилась что он взорвался от зашкала тупняка и слюнбрызжания, как угодно
api к фреймворкам на разных языках, в т.ч. питон и ++
че дурочку то включил, или не включил а просто изначально все печально?
Нифига! У меня случайное блуждание также круто предсказывается как и форекс! 90% акураси если без переобучения, а с переобучением 100%.
Уууу! До аборигенов, кажется, начинает доходить, что переобучение не только не смертельно, но, во многих случаях, даже самое оно.)
ну вот ужасный оверфит, но все равно трейдабельно в первой половинке oos :) Могу еще ужаснее сделать, но смысла нет. Деньги там где-то посредине между овер и недо фитом
Деньги везде, кроме недо... Вопрос исключительно применения.
Тогда накой НС смотреть на историю при обучении, если она это не использует при работе?
При обучении она получила веса и смещения для нейронов, и в соответствии с ними рассчитывает выход на новых данных.