Обсуждение статьи "Кросс-валидация и основы причинно-следственного вывода в моделях CatBoost, экспорт в ONNX формат" - страница 2

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Так обратный порядок не получится:
Должно быть А зачем вообще делать обратный порядок?
Не вспомнить почему так делал.. проблема с серийностью исходного массива наверное. Как его не переворачивал через AsSeries true-false, получал одинаковые сигналы модели.
Не сильно разбираюсь в "особенностях" MQL.
Еще с настройками аутпутов оннх модели не совсем понятно, методом тыка настроил. Описал это в статье.Не вспомнить почему так делал.. проблема с серийностью исходного массива наверное. Как его не переворачивал через AsSeries true-false, получал одинаковые сигналы модели.
Не сильно разбираюсь в "особенностях" MQL.
Еще с настройками аутпутов оннх модели не совсем понятно, методом тыка настроил. Описал это в статье.Сериность не поможет, если вы после создания массива заполнили его по индексам, как заполнили - так и считается. Наверное... сам с серийностью не работаю.
Думаю переворачивать не надо (сейчас вы подаете не перевернутый массив), т.к. в тестере получаете тот же график, что и в питоне. Иначе сплиты работали бы не на своих фичах и был бы рандом в прогнозе.
Сериность не поможет, если вы после создания массива заполнили его по индексам, как заполнили - так и считается.
A вы вместо f подставьте features, прогноз получится другой
A вы вместо f подставьте features, прогноз получится другой
Странно... вроде 1 к 1 копируется. features динамический, а f статический, но вряд ли это причина отличий.
UPD: в примерах из справки по OnnxRun фичи в матрице передаются, а у вас массивом, может в этом причина? Странно, что справка не пишет, как надо.
Странно... вроде 1 к 1 копируется.
Именно так, а отклик модели другой
k-- артефакт, да, можно удалить
Именно так, а отклик модели другой
k-- артефакт, да, можно удалить
Увидел, что серийность задана для featurs. Наверное потому и разный результат.
Странно... вроде 1 к 1 копируется. features динамический, а f статический, но вряд ли это причина отличий.
UPD: в примерах из справки по OnnxRun фичи в матрице передаются, а у вас массивом, может в этом причина? Странно, что справка не пишет, как надо.
В качестве input/output значений в ONNX модели можно передавать только массивы, вектора или матрицы (далее Данные).
C вектором вроде тоже неправильный отклик был. Надо перепроверять, но пока и так работает.
https://www.mql5.com/ru/docs/onnx/onnx_types_autoconversion
Отличная статья. Слышал про идею использовать 2 нейронки: одну для прогнозирования направления, другую - для прогнозирования вероятности правильного прогноза первой. И поэтому возник вопрос: выбрали градиентный бустинг, потому, что он лучше, нейросетей в данной области?
Спасибо. Сравнивал результаты простых MLP, RNN, LSTM с бустингом на своих датасетах. Сильной разницы не увидел, иногда бустинг даже был лучше. И бустинг гораздо быстрее обучается, и не нужно сильно заморачиваться с архитектурой. Не могу сказать, что он однозначно лучше, потому что НС - понятие растяжимое, можно же собрать очень много разных вариантов НС. Наверное из-за простоты выбрал, в этом плане лучше.