Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 888

 
Aleksey Vyazmikin:

Так я возьму только те у которых поддержка и достоверность большая. Я так представляю работу - у меня генерируются в индикаторе предикторы в реальном времени и на истории, складываются в строку, а потом эта строка ищется в массиве, если найдена, то помечаем бар как благоприятный для входа, а если нет, то ничего не делаем. Соответственно задвоенные строки только увеличат массив. Нет, ну можно конечно сделать градацию по цвету, где будет информация о достоверности и поддержке (умножив одно на другое получим коэффициент, который в зависимости от значения будет менять цвет), но для этого легче просто сделать отдельный массив типа int с индексом. Или я что-то не понимаю....

Теоретически - если НС скормить все без отсева недостоверных строк, сама должна их найти и повысить им значимость. Но можно конечно и самому это сделать, как вы описали. Заодно интересно и сравнить - что лучше.

Хотя в статях есть примеры с отсевом шумовых строк.
 
Алёша:

Согласен, пайтон - самый топовый ЯП у ХФТшников, это как раз те у кого отрицательная ошибка, я выше упоминал, они там квантовую перепутанность также исследуют, чтобы передавать сигнал быстрее света, тоже на пайтоне есть библиотеки, в даркнете.

всякую ахинею нести в очередной раз не обязательно, это показывает ваш уровень

 
Алёша:

Да я стебусь с некоторых 90%-ных ахтунгов, не принимайте всерьёз, пайтон это студенческий язык, по бырому перепробовать кучу библ и нарисовать графики, например для закрепления курса Воронцова, а "исследования" ну разве что у аспирантов или что то далекое от реальности, в серьёзных канторах весь инструментарий написан на С++, больше половины алгоритмов эксклюзивные или измененные известные, задачи очень конкретные и узкоспециализированные, которые не предполагают гонять параметры 100500 библиотек, так что пайтон присутствует в следовых количествах.

Алешенька, иди дальше осваивай МО, про с++ api и Cython и миграцию моделей и отдельных модулей и развертывание на серверах после исследований/обучения не, не слышал?

и без отрицательной ошибки в попытках предсказать ретурны больше не приходи. А то сильно расстраиваешь - гонору много а полезной инфы тоже отрицательное кол-во

 
elibrarius:

Теоретически - если НС скормить все без отсева недостоверных строк, сама должна их найти и повысить им значимость. Но можно конечно и самому это сделать, как вы описали. Заодно интересно и сравнить - что лучше.

Хотя в статях есть примеры с отсевом шумовых строк.

Вообще я не до конца понимаю, как организовать работу НС, если она берет данные с истории, теоретически из любой точки... а вот с деревом/лесом все проще, они историю не анализируют, поэтому на вход им нужно подавать ограниченное количество переменных, а результаты выхода уже известны, и я их записал в массив, что-то новое после обучение дерево создать же не может, а вот нейросеть может по разному реагировать на новые данные, так-как на вход она вешает веса (коэффициенты) и они константны на каждом нейроне, но если нейронов 10 и более, и на каждую фичу свой коэффициент, то что-то много очень вариантов решений получается - по всем вариантам явно сеть не обучается, поэтому от неё могут быть разные сюрпризы, ну или я что-то не понимаю.

А индикатор я сделал, но перебор массива быстрым не получается, ну и сам код очень пока тормозной - нужна оптимизация.

 
Aleksey Vyazmikin:

Вообще я не до конца понимаю, как организовать работу НС, если она берет данные с истории, теоретически из любой точки... а вот с деревом/лесом все проще, они историю не анализируют, поэтому на вход им нужно подавать ограниченное количество переменных, а результаты выхода уже известны, и я их записал в массив, что-то новое после обучение дерево создать же не может, а вот нейросеть может по разному реагировать на новые данные, так-как на вход она вешает веса (коэффициенты) и они константны на каждом нейроне, но если нейронов 10 и более, и на каждую фичу свой коэффициент, то что-то много очень вариантов решений получается - по всем вариантам явно сеть не обучается, поэтому от неё могут быть разные сюрпризы, ну или я что-то не понимаю.

А индикатор я сделал, но перебор массива быстрым не получается, ну и сам код очень пока тормозной - нужна оптимизация.

В НС подается та же самая таблица с данными - ни каких отличий с лесом. Просто алгоритмы другие внутри.

 
elibrarius:

В НС подается та же самая таблица с данными - ни каких отличий с лесом. Просто алгоритмы другие внутри.

Тогда накой НС смотреть на историю при обучении, если она это не использует при работе?

 
Алёша:

Не слышал конечно, куда мне до вас, теперь буду знать что самый cool это не пайтон апи к си библам а наоборот, с++ апи к пайтону, с развертыванием на серверах. Продолжайте жечь)))

ртуть в градуснике твоего сарказма скукожилась в пузырьке и взорвалась только что, или настолько расширилась что он взорвался от зашкала тупняка и слюнбрызжания, как угодно

api к фреймворкам на разных языках, в т.ч. питон и ++

че дурочку то включил, или не включил а просто изначально все печально?

 
Алёша:

Нифига! У меня случайное блуждание  также круто предсказывается как и форекс! 90% акураси если без переобучения, а с переобучением 100%.

Уууу! До аборигенов, кажется, начинает доходить, что переобучение не только не смертельно, но, во многих случаях, даже самое оно.)

 
Maxim Dmitrievsky:

ну вот ужасный оверфит, но все равно трейдабельно в первой половинке oos :) Могу еще ужаснее сделать, но смысла нет. Деньги там где-то посредине между овер и недо фитом

Деньги везде, кроме недо... Вопрос исключительно применения.

 
Aleksey Vyazmikin:

Тогда накой НС смотреть на историю при обучении, если она это не использует при работе?

При обучении она получила веса и смещения для нейронов, и в соответствии с ними рассчитывает выход на новых данных.

Причина обращения: