Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3399

 
mytarmailS #:
Вот эта тоже хорошая https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 

Да, хорошая, многое уже слышал ранее, но есть и новые идеи для меня. И, забавно, что нашёл схожий алгоритм того, что у меня запланирована в разработке, со схожей целью.

Наверное есть под это всё пакеты готовые для R, не пробовали сделать нечто типа рейтинга результата отбора разными методами?

На MQL реализовывал подходы в полу ручном режиме, но это хлопотно было. Может, потом на питоне сделаю.

 
Aleksey Vyazmikin #:

Да, хорошая, многое уже слышал ранее, но есть и новые идеи для меня. И, забавно, что нашёл схожий алгоритм того, что у меня запланирована в разработке, со схожей целью.

Наверное есть под это всё пакеты готовые для R, не пробовали сделать нечто типа рейтинга результата отбора разными методами?

На MQL реализовывал подходы в полу ручном режиме, но это хлопотно было. Может, потом на питоне сделаю.

как ето понять?

Типа узнать какой метод отбора признаков лкчше?

По сути есть всего два вида, полный перебор и евристические методы поиска (дискретная оптимизация)

Полный перебор всегда лучше, но не всегда возможен если признаков много. К тому же мы ищем не по одному лучшему признаку , а лучшую подгруппу признков, на более мение нормальном датасете сделать полный перебор невозможно из за комбинаторго взрыва, потому евристика -  дискретная оптимизация (но без гарантии что нашли лучшее решение).

Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика.  Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору

https://abess-team.github.io/abess/

вроди для питона тоже есть

====================================

Да и соль (суть) даже не в ефетивном отборе признков (хотя и это надо) а в генерации признаков претендентов. Это самое главное, это самое важное , это сенсоры , глаза и ушы торговой системы

 

Опубликована статья Работа с ONNX-моделями в форматах float16 и float8:

Форматы данных, используемые для представления моделей машинного обучения, играют ключевую роль в их эффективности. В последние годы появилось несколько новых типов данных, разработанных специально для работы с моделями глубокого обучения. В данной статье мы обратим внимание на два новых формата данных, которые стали широко применяться в современных моделях.

В данной статье мы сосредоточимся на двух таких новых форматах данных — float16 и float8, которые начинают активно использоваться в современных ONNX-моделях. Эти форматы представляют собой альтернативные варианты более точных, но требовательных к ресурсам форматам даннных с плавающей точкой. Они обеспечивают оптимальное сочетание производительности и точности, что делает их особенно привлекательными для различных задач машинного обучения. Мы изучим основные характеристики и преимущества форматов float16 и float8, а также представим функции для их преобразования в стандартные float и double.

Это поможет разработчикам и исследователям лучше понять, как эффективно использовать эти форматы в своих проектах и моделях. В качестве примера мы рассмотрим работу ONNX-модели ESRGAN, которая применяется для улучшения качества изображений.

Автор: MetaQuotes

Работа с ONNX-моделями в форматах float16 и float8
Работа с ONNX-моделями в форматах float16 и float8
  • www.mql5.com
Форматы данных, используемые для представления моделей машинного обучения, играют ключевую роль в их эффективности. В последние годы появилось несколько новых типов данных, разработанных специально для работы с моделями глубокого обучения. В данной статье мы обратим внимание на два новых формата данных, которые стали широко применяться в современных моделях.
 
mytarmailS #:

как ето понять?

Типа узнать какой метод отбора признаков лкчше?

По сути есть всего два вида, полный перебор и евристические методы поиска (дискретная оптимизация)

Полный перебор всегда лучше, но не всегда возможен если признаков много. К тому же мы ищем не по одному лучшему признаку , а лучшую подгруппу признков, на более мение нормальном датасете сделать полный перебор невозможно из за комбинаторго взрыва, потому евристика -  дискретная оптимизация (но без гарантии что нашли лучшее решение).

Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика.  Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору

https://abess-team.github.io/abess/

вроди для питона тоже есть

====================================

Да и соль (суть) даже не в ефетивном отборе признков (хотя и это надо) а в генерации признаков претендентов. Это самое главное, это самое важное , это сенсоры , глаза и ушы торговой системы

Туфта этот абес. 

Наилучший набор признаков на истории по критерию минимизации ошибки классификации. 

А проблема в предсказательной способности признаков, а не в ошибке классификации. Есть некая предсказательная способность признаков и ей соответствует некая ошибка классификации, которая есть данность для имеющегося набора признаков. Хочешь уменьшить ошибку классификации - ищи другой набор признаков с увеличенной предсказательной способностью. 

 
mytarmailS #:

как ето понять?

Типа узнать какой метод отбора признаков лкчше?

Верно. Взять десяток выборок и проверить эффективность построения моделей на отобранных предикторах для каждой выборки.

mytarmailS #:
Полный перебор всегда лучше, но не всегда возможен если признаков много.

Это конечно очевидно. Поэтому и интересна эвристика.

mytarmailS #:
Есть один хороший пакет, глубоко не тестировал и матиматику не знаю, но парни вроди как утверждают что алгоритм находит лучшую подгуппу за полиномиальное время (те оч. быстро), то есть как бы и не полный перебор и не евристика.  Немножко его поюзал, вроди делает пакет что они говорят. Так что по сути вот это и есть лидер из методов по отбору

Запустил на выборке - часов пять уже минуло - устал ждать. Вообще, я так понял он подходит для регрессии больше (в том числе логистической для классификации), и не является универсальным.

GPT предлагает такой код на R для отбора и сохранения исключенных предикторов. Я тут ограничил число предикторов 50 штуками - и решил снова подождать.

# Установка и загрузка пакета abess
#install.packages("abess")
library(abess)

# Загрузка данных из CSV
data <- read.csv("E:\\FX\\MT5_CB\\MQL5\\Files\\00_Standart_50\\Setup\\train.csv", sep = ";")

# Указание столбца целевой переменной
target_column <- "Target_100"
target <- data[, target_column]

# Исключение столбцов по их именам
столбцы_исключения <- c("Time","Target_P","Target_100","Target_100_Buy","Target_100_Sell")
#data_without_excluded <- data[, !names(data) %in% столбцы_исключения]

# Выбор только первых 50 столбцов
data_without_excluded <- data[, 1:50]

# Применение метода abess
# Здесь вам нужно указать вашу модель и настройки метода abess
# Например:
model <- abess(y = target, x = data_without_excluded, method = "lasso")

# Все столбцы
все_столбцы <- names(data)

# Индексы всех столбцов
индексы_всех_столбцов <- seq_along(все_столбцы)

# Индексы выбранных столбцов
индексы_выбранных_столбцов <- model$selected

# Индексы исключенных столбцов
индексы_исключенных_столбцов <- setdiff(индексы_всех_столбцов, индексы_выбранных_столбцов)

# Сохранение информации в CSV файл
write.csv(индексы_исключенных_столбцов, "E:\\FX\\MT5_CB\\MQL5\\Files\\00_Standart_50\\Setup\\исключенные_столбцы.csv", row.names = FALSE)

Исключил все столбцы :) Либо метод таков, либо ошибка в коде... А может предикторы так плохи - добавлю ещё.

 
Aleksey Vyazmikin #:

Верно. Взять десяток выборок и проверить эффективность построения моделей на отобранных предикторах для каждой выборки.

Это конечно очевидно. Поэтому и интересна эвристика.

Запустил на выборке - часов пять уже минуло - устал ждать. Вообще, я так понял он подходит для регрессии больше (в том числе логистической для классификации), и не является универсальным.

GPT предлагает такой код на R для отбора и сохранения исключенных предикторов. Я тут ограничил число предикторов 50 штуками - и решил снова подождать.

Исключил все столбцы :) Либо метод таков, либо ошибка в коде... А может предикторы так плохи - добавлю ещё.

сколько столбцов в данных?

 
mytarmailS #:

сколько столбцов в данных?

Чуть больше 2000

 
Aleksey Vyazmikin #:

Запустил на выборке - часов пять уже минуло - устал ждать

неужели так сложно прочитать пример с кодом на странице с методом, зачем говнокодить с GPT и не понимать что делаеться?

он за минуту дожен считать а не за 5 часов

 
Aleksey Vyazmikin #:

Чуть больше 2000

скинь мне пример данных я посмотрю

 и подходит он и для регресии и для классификации, ТАМ ЖЕ написано, и примеры есть.. что за люди


все же написано показа разжовано


 
mytarmailS #:

неужели так сложно прочитать пример с кодом на странице с методом, зачем говнокодить с GPT и не понимать что делаеться?

он за минуту дожен считать а не за 5 часов

Что не так с кодом? На хэлпе в студио он у меня зависает :)


mytarmailS #:

скинь мне пример данных я посмотрю

 и подходит он и для регресии и для классификации, ТАМ ЖЕ написано, и примеры есть.. что за люди


все же написано показа разжовано


Там же написано даже на скрине "логистическая регрессия" - естественно я смотрел примеры, которые почему то уже на питоне у них

Причина обращения: