Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 695
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Я вот над регрессией задумался....
Регрессия на фин. рынках скорее не гладкая функция, а ступенчатая с шагом в 1 пт. (и для учителя и для прогноза). Если например ограничиться движением в +/- 100 пт., то тогда прослеживается аналогия с классификацией, на 200 классов. Т.е. на выходе мы предсказываем наиболее вероятный класс - например +22 пт.
Не означает ли это, что для хороших результатов структура/сложность модели (число нейронов) для регрессии должна быть в 200 раз больше? Ну если увеличить шаг до 5 пт, то в 40 раз - чуть поэкономнее будет за счет меньшей точности.
Нет идей на эту тему?
не получится делать регрессию на цены, делайте на приращения, тогда и кол-во вариантов будет меньше
нейронов больше не надо, их вообще по сути много не надо для регрессии.. в линейной регрессии вон вообще по 1 коэффициенту на каждую фичу :)
не получится делать регрессию на цены, делайте на приращения, тогда и кол-во вариантов будет меньше
нейронов больше не надо, их вообще по сути много не надо для регрессии.. в линейной регрессии вон вообще по 1 коэффициенту на каждую фичу :)
приращение и имеется в виду под движением +/- 100 пт., а не цены.
Ну аналогия то с 200 классами прямая ведь... хотя они идут последовательно и все же могут быть сглажены из ступенчатой в гладкую функцию
приращение и имеется в виду под движением +/- 100 пт.
Ну аналогия то с 200 классами прямая ведь...
ну в классы то тоже не одно значение попадает на выходе, просто разделяется через сигмоид
Нет идей на эту тему?
Для классификации на 200 классов нужно 200 нейронов на выходе, и соответственно много нейронов во внутренних слоях чтобы это всё как-то заставить работать.
А для регрессии нужен всего 1 нейрон на выходе, какое значение он выведет - это и будет проноз, "+22п, плюсминус погрешность". И скрытых нейронов наверное хватит поменьше.
Учитель будет дискретным, с числом знаком как у символа. Но прогноз - обычное неприрывное double число с 16 знаками, и поэтому функция оценки (mean square error например) тоже будет непрерывной.
Любопытная статья по исследованию восьми моделей машинного обучения
Неприятно что авторы статьи взяли искусственные цены вместо цены на нефть например. Результаты получились для идеальных условий, и непонятно будут ли они применимы для реальной торговли.
Сегодня прям день Граалей, но мы то знаем как он выглядет и скольких трудов стоит чтобы держать его в руках!!!!
Не побоюсь этого слова, но сегодня я нашёл грааль для себя. Провёл неоднократные тесты и результаты меня просто паразили. Особая благодарность Dr. Trader за оказанную поддержку которая собственно и привела к открытию. Не побоюсь этого слова........ С помощью R удалось эффективно находить набор вахных предикторов, а с учётом того что целевая имеет одинаковое количество классов, то подыграв её немного (прибавив или удалив единичку) набор важных предикторов можно расширить на один, два столбца. Один раз попробовал и прям так нормально добавилось их. Далее начинаем оптить и выбираем модель с максимальными показателями результата обучения.
Смущает конечно не великий размер полинома, но и проработает он в теории 50% интервала обучения, то бишь неделю, а мне и этого достаточно!!!!!! Но вот ведь какая штука.... И я сейчас обращаюсь здесь к тем людям, которые ищют надёжные и стабильные закономерности. Проще объяснить на примере.........
Я сохраняю таблицу данных в размере 1000 строк и 111 столбцов, где 110 предикторов и соотвественно выход. НО я не беру всю таблицу, а беру небольшой свежий участок в размере 40 записей (это 2 недели работы ТС примерно) В итоге имею обучающий набор размера 40 на 110 плюс целевая. По сути я беру срез рынка именно в этот день именно на этом интервале. Этот срез стационарен. Далее не без помощи выдающегося гения своего дела мистера Dr. Trader в среде програмирования R произвожу выбор значимых входных переменных по отношению к выходу и получаю от 3 до 5 столбцов в которых, я так понимаю, есть та самая пресловутая альфа позволяющая иметь преимущество перед другими участниками рынка. А теперь самое главное.... К чему собственно был весь этот базар. Стоит мне добавить ещё одну строчку в таблицу данных для обучения, как набор столбцов резко изменится, то есть альфа убежит в другой набор столбцов. Может быть и не сразу, а после добавления не одной, а нескольких строчек. Тобишь сигналов ТС!!!! Альфа это как раз таки та самая закономерность в чистом виде которая минимальна и достаточна для целевой функции. НО эта закономерность в не явном виде, тоесть увидеть её не вооружоным глазом крайне сложно. Именно на этом этапе и подключается ИИ и делает свою работу.
А теперь представьте как может скакать альфа на всем поле данных которое я выгружаю, если она редко содержится более чем в пяти входах, а общее поле 110 входов. Другими словами, при каждом новом срезе я получаю совершенно разные наборы предикторов. И как Вы хотите за ней угнатся да ещё и на дистанции в ГОДА!!!!!!! если её тут на недели то хрен словишь нормально....... Но Вы абсалютно правы Грааль существует, только у каждого он свой и для того чтобы его держать нужно парой прилагать не малые усилия.......
И опять же обращаясь к теоретикам демо счетов, делается это вот как.......
Я проработал теорию и сделал по ней коекакие тесты. Тесты показали хороший результат. Модели обучены ВПС-ка с роботом заряжена. Следите за моим сигналом на этой неделе и сразу будет видно чего стоит мои предположения.
Не понимаю в чём проблема, кластеризуете бары (ну чтоб сравнивать было надёжно), строите статистику повторения какого либо элемента, можно начинать с наиболее встречающегося. Затем строите статистику повторений в паре с другим элементом (лучше вторым из статистики, хотя всё равно придётся проверит все), выбираете максимальную статистику наносите на график вторую точку, и так далее. Как только график покажет перегиб это и есть оптимальная длинна для этого слова. И так проверяете все буквы.
Получите набор слов, из которых уже будете складывать предложения, вот к словам уже можно применять НС только предварительно стоит словам присвоить кодировку по степени близости к друг другу, хотя с этим справиться и НС, есть же автоэнкодеры в конце концов. Ну кароч на этом этапе есть свобода для полёта фантазии.
Может кто-нибудь проверить индикатор приращений? почему-то на низких ТФ происходят дыры в отрисовке, и не только, если перематывать назад.. окно индикатора становится пустым. Или мне просто пора уже перустановить терминал
так правильнее
double pr2 = (pr!=0?log(pr):0);
Неприятно что авторы статьи взяли искусственные цены вместо цены на нефть например. Результаты получились для идеальных условий, и непонятно будут ли они применимы для реальной торговли.
Сделано специально, чтобы покрыть теоретическое многообразие цен и явно назвать это многообразие.