Обсуждение статьи "Кросс-валидация и основы причинно-следственного вывода в моделях CatBoost, экспорт в ONNX формат" - страница 2

 
Forester #:
Так обратный порядок не получится:
Должно быть  А зачем вообще делать обратный порядок?

Не вспомнить почему так делал.. проблема с серийностью исходного массива наверное. Как его не переворачивал через AsSeries true-false, получал одинаковые сигналы модели.

Не сильно разбираюсь в "особенностях" MQL.

Еще с настройками аутпутов оннх модели не совсем понятно, методом тыка настроил. Описал это в статье.
 
Maxim Dmitrievsky #:

Не вспомнить почему так делал.. проблема с серийностью исходного массива наверное. Как его не переворачивал через AsSeries true-false, получал одинаковые сигналы модели.

Не сильно разбираюсь в "особенностях" MQL.

Еще с настройками аутпутов оннх модели не совсем понятно, методом тыка настроил. Описал это в статье.
Думаю переворачивать не надо (сейчас вы подаете не перевернутый массив), т.к. в тестере получаете тот же график, что и в питоне. Иначе сплиты работали бы не на своих фичах и был бы рандом в прогнозе.


Сериность не поможет, если вы после создания массива заполнили его по индексам, как заполнили - так и считается. Наверное... сам с серийностью не работаю.

 
Forester #:
Думаю переворачивать не надо (сейчас вы подаете не перевернутый массив), т.к. в тестере получаете тот же график, что и в питоне. Иначе сплиты работали бы не на своих фичах и был бы рандом в прогнозе.


Сериность не поможет, если вы после создания массива заполнили его по индексам, как заполнили - так и считается.

A вы вместо f подставьте features, прогноз получится другой

 
Maxim Dmitrievsky #:

A вы вместо f подставьте features, прогноз получится другой

Странно... вроде 1 к 1 копируется. features динамический, а f статический, но вряд ли это причина отличий.

UPD: в примерах из справки по OnnxRun фичи в матрице передаются, а у вас массивом, может в этом причина? Странно, что справка не пишет, как надо.

 
Forester #:
Странно... вроде 1 к 1 копируется.

Именно так, а отклик модели другой

k-- артефакт, да, можно удалить

 
Maxim Dmitrievsky #:

Именно так, а отклик модели другой

k-- артефакт, да, можно удалить

Увидел, что серийность задана для featurs. Наверное потому и разный результат.

 
Forester #:

Странно... вроде 1 к 1 копируется. features динамический, а f статический, но вряд ли это причина отличий.

UPD: в примерах из справки по OnnxRun фичи в матрице передаются, а у вас массивом, может в этом причина? Странно, что справка не пишет, как надо.

В качестве input/output значений в ONNX модели можно передавать только массивы, вектора или матрицы (далее Данные). 

C вектором вроде тоже неправильный отклик был. Надо перепроверять, но пока и так работает.

https://www.mql5.com/ru/docs/onnx/onnx_types_autoconversion

Документация по MQL5: ONNX модели / Автоконвертация данных
Документация по MQL5: ONNX модели / Автоконвертация данных
  • www.mql5.com
Автоконвертация данных - ONNX модели - Справочник MQL5 - Справочник по языку алгоритмического/автоматического трейдинга для MetaTrader 5
 
Отличная статья. Слышал про идею использовать 2 нейронки: одну для прогнозирования направления, другую - для прогнозирования вероятности правильного прогноза первой. И поэтому возник вопрос: выбрали градиентный бустинг, потому, что он лучше, нейросетей в данной области?
 
Ramirzaev #:
Отличная статья. Слышал про идею использовать 2 нейронки: одну для прогнозирования направления, другую - для прогнозирования вероятности правильного прогноза первой. И поэтому возник вопрос: выбрали градиентный бустинг, потому, что он лучше, нейросетей в данной области?

Спасибо. Сравнивал результаты простых MLP, RNN, LSTM с бустингом на своих датасетах. Сильной разницы не увидел, иногда бустинг даже был лучше. И бустинг гораздо быстрее обучается, и не нужно сильно заморачиваться с архитектурой. Не могу сказать, что он однозначно лучше, потому что НС - понятие растяжимое, можно же собрать очень много разных вариантов НС. Наверное из-за простоты выбрал, в этом плане лучше.

Причина обращения: