Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3399
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вот эта тоже хорошая https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc
Да, хорошая, многое уже слышал ранее, но есть и новые идеи для меня. И, забавно, что нашёл схожий алгоритм того, что у меня запланирована в разработке, со схожей целью.
Наверное есть под это всё пакеты готовые для R, не пробовали сделать нечто типа рейтинга результата отбора разными методами?
На MQL реализовывал подходы в полу ручном режиме, но это хлопотно было. Может, потом на питоне сделаю.
Да, хорошая, многое уже слышал ранее, но есть и новые идеи для меня. И, забавно, что нашёл схожий алгоритм того, что у меня запланирована в разработке, со схожей целью.
Наверное есть под это всё пакеты готовые для R, не пробовали сделать нечто типа рейтинга результата отбора разными методами?
На MQL реализовывал подходы в полу ручном режиме, но это хлопотно было. Может, потом на питоне сделаю.
как ето понять?
Типа узнать какой метод отбора признаков лкчше?
По сути есть всего два вида, полный перебор и евристические методы поиска (дискретная оптимизация)
Полный перебор всегда лучше, но не всегда возможен если признаков много. К тому же мы ищем не по одному лучшему признаку , а лучшую подгруппу признков, на более мение нормальном датасете сделать полный перебор невозможно из за комбинаторго взрыва, потому евристика - дискретная оптимизация (но без гарантии что нашли лучшее решение).
Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика. Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору
https://abess-team.github.io/abess/
вроди для питона тоже есть
====================================
Да и соль (суть) даже не в ефетивном отборе признков (хотя и это надо) а в генерации признаков претендентов. Это самое главное, это самое важное , это сенсоры , глаза и ушы торговой системы
Опубликована статья Работа с ONNX-моделями в форматах float16 и float8:
Форматы данных, используемые для представления моделей машинного обучения, играют ключевую роль в их эффективности. В последние годы появилось несколько новых типов данных, разработанных специально для работы с моделями глубокого обучения. В данной статье мы обратим внимание на два новых формата данных, которые стали широко применяться в современных моделях.
В данной статье мы сосредоточимся на двух таких новых форматах данных — float16 и float8, которые начинают активно использоваться в современных ONNX-моделях. Эти форматы представляют собой альтернативные варианты более точных, но требовательных к ресурсам форматам даннных с плавающей точкой. Они обеспечивают оптимальное сочетание производительности и точности, что делает их особенно привлекательными для различных задач машинного обучения. Мы изучим основные характеристики и преимущества форматов float16 и float8, а также представим функции для их преобразования в стандартные float и double.
Это поможет разработчикам и исследователям лучше понять, как эффективно использовать эти форматы в своих проектах и моделях. В качестве примера мы рассмотрим работу ONNX-модели ESRGAN, которая применяется для улучшения качества изображений.
Автор: MetaQuotes
как ето понять?
Типа узнать какой метод отбора признаков лкчше?
По сути есть всего два вида, полный перебор и евристические методы поиска (дискретная оптимизация)
Полный перебор всегда лучше, но не всегда возможен если признаков много. К тому же мы ищем не по одному лучшему признаку , а лучшую подгруппу признков, на более мение нормальном датасете сделать полный перебор невозможно из за комбинаторго взрыва, потому евристика - дискретная оптимизация (но без гарантии что нашли лучшее решение).
Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика. Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору
https://abess-team.github.io/abess/
вроди для питона тоже есть
====================================
Да и соль (суть) даже не в ефетивном отборе признков (хотя и это надо) а в генерации признаков претендентов. Это самое главное, это самое важное , это сенсоры , глаза и ушы торговой системы
Туфта этот абес.
Наилучший набор признаков на истории по критерию минимизации ошибки классификации.
А проблема в предсказательной способности признаков, а не в ошибке классификации. Есть некая предсказательная способность признаков и ей соответствует некая ошибка классификации, которая есть данность для имеющегося набора признаков. Хочешь уменьшить ошибку классификации - ищи другой набор признаков с увеличенной предсказательной способностью.
как ето понять?
Типа узнать какой метод отбора признаков лкчше?
Верно. Взять десяток выборок и проверить эффективность построения моделей на отобранных предикторах для каждой выборки.
Полный перебор всегда лучше, но не всегда возможен если признаков много.
Это конечно очевидно. Поэтому и интересна эвристика.
Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика. Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору
Запустил на выборке - часов пять уже минуло - устал ждать. Вообще, я так понял он подходит для регрессии больше (в том числе логистической для классификации), и не является универсальным.
GPT предлагает такой код на R для отбора и сохранения исключенных предикторов. Я тут ограничил число предикторов 50 штуками - и решил снова подождать.
Исключил все столбцы :) Либо метод таков, либо ошибка в коде... А может предикторы так плохи - добавлю ещё.
Верно. Взять десяток выборок и проверить эффективность построения моделей на отобранных предикторах для каждой выборки.
Это конечно очевидно. Поэтому и интересна эвристика.
Запустил на выборке - часов пять уже минуло - устал ждать. Вообще, я так понял он подходит для регрессии больше (в том числе логистической для классификации), и не является универсальным.
GPT предлагает такой код на R для отбора и сохранения исключенных предикторов. Я тут ограничил число предикторов 50 штуками - и решил снова подождать.
Исключил все столбцы :) Либо метод таков, либо ошибка в коде... А может предикторы так плохи - добавлю ещё.
сколько столбцов в данных?
сколько столбцов в данных?
Чуть больше 2000
Запустил на выборке - часов пять уже минуло - устал ждать
неужели так сложно прочитать пример с кодом на странице с методом, зачем говнокодить с GPT и не понимать что делаеться?
он за минуту дожен считать а не за 5 часов
Чуть больше 2000
скинь мне пример данных я посмотрю
и подходит он и для регресии и для классификации, ТАМ ЖЕ написано, и примеры есть.. что за люди
все же написано показа разжовано
неужели так сложно прочитать пример с кодом на странице с методом, зачем говнокодить с GPT и не понимать что делаеться?
он за минуту дожен считать а не за 5 часов
Что не так с кодом? На хэлпе в студио он у меня зависает :)
скинь мне пример данных я посмотрю
и подходит он и для регресии и для классификации, ТАМ ЖЕ написано, и примеры есть.. что за люди
все же написано показа разжовано
Там же написано даже на скрине "логистическая регрессия" - естественно я смотрел примеры, которые почему то уже на питоне у них