Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1797

 
Aleksey Nikolayev:

Поразмышлял об этом (речь идёт о некоем месте для обсуждения применения теорвера и матстата). Полагаю, в настоящее время что-то подобное лучше делать в виде статей и последующего их обсуждения.

Поделился этой идеей с администрацией и получил предварительное согласие. Если есть какие-то идеи и предложения по поводу тематики статей, то делитесь ими здесь.

Действительно сложно выбрать темы из сложной науки и что бы полезно для людей)))

Если по направлениям, то видимо практическое применение различных моделей в трактовке ВР. Разбор различных алгоритмов НС для ВР с привязкой к мат.моделям. Вероятностное ожидание результатов НС. Теорвер и алгоритмы МО, какие лучше, какие хуже.) 

Мне последнее нравиться.

Спс за мысль почитать.))) По матстату есть и доходчивый материал))) В общем вывод что ряд можно оценить / определить / охарактеризовать через модель там присутствует и как тема определение минимального участка для определения достоверной модели. 

 

Здесь на сайте есть закрытые группы по приглашению

но лучше статьи

 
НС будет читать мысли? Ссылка.
Искусственный интеллект научился переводить сигналы человеческого мозга в текст с точностью 97%
Искусственный интеллект научился переводить сигналы человеческого мозга в текст с точностью 97%
  • 2020.04.02
  • www.techcult.ru
Команда исследователей Калифорнийского университета в Сан-Франциско под руководством нейрохирурга Эдварда Чанга успешно применила новый метод декодирования электрокортикограммы – записи ритмической электрической активности коры мозга с помощью электродов, наложенных непосредственно на его поверхность. В ходе исследований четырех пациентов с...
 
Aleksey Vyazmikin:
НС будет читать мысли? Ссылка.
Единственная информационная неприкосновенность это мысли человека и то уже будет в прошлом. Чую мы явно стремимся себя уничтожить. Не мы так скайнет сделает это с удовольствием. Потому как начав обучатся она переймёт от нас именно этот навык. УНИЧТОЖЕНИЕ :-(
 

Вожусь с arma. Пока докопался до сути, узнал много интересного. Всегда считал, что тест на единичный корень как то связан с мнимой единицей. Оказалось, что это тест на устойчивость фильтра. arma это фильтр, состоящий из бих и ких фильтров. Фильтр можно представить в виде отношения полиномов B/A. Их корни называются нулями и полюсами. По их положению на единичной окружности судят о устойчивости фильтра. Тест на единичный корень как раз про это.

Никак не получается сделать устойчивый arma фильтр, с ar такой проблемы нет.

 
Rorschach:

Вожусь с arma. Пока докопался до сути, узнал много интересного. Всегда считал, что тест на единичный корень как то связан с мнимой единицей. Оказалось, что это тест на устойчивость фильтра. arma это фильтр, состоящий из бих и ких фильтров. Фильтр можно представить в виде отношения полиномов B/A. Их корни называются нулями и полюсами. По их положению на единичной окружности судят о устойчивости фильтра. Тест на единичный корень как раз про это.

Никак не получается сделать устойчивый arma фильтр, с ar такой проблемы нет.

Можно сказать что фильтр, можно что это метод описывающий ВР. Если модель неустойчиво описывает ВР, значит надо либо увеличивать количество полиномов, либо переходить к более сложной или другой модели. 

 
Aleksey Vyazmikin:
НС будет читать мысли? Ссылка.

Работы были еще до НС и МО. Результаты в распознавании образов были давно, но про них так не писали. ИИ, НС, МО просто драйверы рекламы и продвижения)))) Поломойка с ИИ всегда дороже простой швабры)))

 
Aleksey Vyazmikin:

Как я думаю, данный подход, в отличии от принципа жадности, позволит более плавно снижать полноту выборки, а значит должен сделать сигнал от листа более устойчивым.

лучше направить энергию на генерацию новых признаков.. ИМХО...

Если признаки  гуд, то можно даже пробовать экстремумы предсказывать, у меня где то  400 ,и 10 моделей, но вижу что нужно в десятки раз больше, обучающие выборки могут достигнуть > 100 GB , жесть )))  у меня нету таких мощностей ...

Из картинок видно что алгоритм что то да может распознавать, но нужно наращивать признаки...

Valeriy Yastremskiy:

Работы были еще до НС и МО. Результаты в распознавании образов были давно, но про них так не писали. ИИ, НС, МО просто драйверы рекламы и продвижения)))) Поломойка с ИИ всегда дороже простой швабры)))

Ага, конечно ))) Хотел бы я посмотреть как с помощью  " if ,then, else "  распознают картинки, или речь генерируют  вот это был бы хардкор )) А если серьезно то несете чушь !

 
mytarmailS:

лучше направить энергию на генерацию новых признаков.. ИМХО...

Если признаки  гуд, то можно даже пробовать экстремумы предсказывать, у меня где то  400 ,и 10 моделей, но вижу что нужно в десятки раз больше, обучающие выборки могут достигнуть > 100 GB , жесть )))  у меня нету таких мощностей ...

Когда много предикторов - начинается переобучение, особенно если это бустинг - появляются листья, которые активируются на выборке всего там 0,01% - это явно мусор.

Поэтому важно работать в двух направлениях - искать пути улучшения моделей за счет их структуры и пред/пост обработки данных, а так же за счет добавления новых предикторов.


Ничего не получилось с данными, что я ранее Вам скидывал для экспериментов?

Я поставил на реальный счет тот советник сейчас - и вижу, что есть другие проблемы - к примеру не заливается лимитник полностью, тонкий рынок - большие проскальзывания...

 
Aleksey Vyazmikin:

Когда много предикторов - начинается переобучение,

не начинается , есть же кроссвалидация + доп. выборка для проверки..

А переобучение как раз из за того что вы имеете  признаки которые несут в себе 5% полезной информации , а вы хотите выжать из них 70%  , а ее просто нету.. информации полезной нету..

для этого и нужно много признаков

Aleksey Vyazmikin:

появляются листья, которые активируются на выборке всего там 0,01% - это явно мусор.

Когда вы торгуете руками например, вы смотрите на графики , на разные ТФ  , видите там какие то паттерны и принимаете решения, потом идете на мелкий ТФ и ищете точку входа , потом ждете точного момента и входите...  Что это было? Это сжатие информации.

1) разные ТФ и паттерны в них   - сжатие

2) мелкий ТФ , точка входа - сжатие

3) момент входа - сжатие

в результате по отношению к выборке это будет даже не 0,01% и даже не 0,001 %  , но мусором вы это не считаете правда ?

Aleksey Vyazmikin:

Ничего не получилось с данными, что я ранее Вам скидывал для экспериментов?

с какими данными? я что то пропустил..