Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1696

 
И это я ещё про свои добавленные примочки не говорю, которые существенно сокращают время оптимизации и повышают вероятность получения именно обобщенной модели.
 
Mihail Marchukajtes:
ВООТ, а теперь мы подобрались к самому интересному. Вы думаете оптимизатор Решетова просто так стал хорошим оптимизатором тупо используя в основе систему опорных векторов. А вот и нет. Дело в том что там реализован набор алгоритмов в окружении нейросетки. Это и создание инварианта, и хитрое деление обучающей выборки и т.д. И я как то уже предлагал попробовать перенести логику работы JPrediction в тот же R, но поддержку эта идея не получила поэтому как то так все и осталось. С моими познаниями, если я вчера весь день создавать сборную матрицу определённого размера в которую нужно было занести значения из другой таблице на основании данных третьей. Я только data.frame делал часов шесть и только в конце увидел что он формируется по столбам в отличии от списка который формируется по строкам. Подсказать ведь не кому. А где, кстати Док? Что то давно его не видать.....

Мля)))....

Да с чего ты взял что он хороший?? ты сравнивал с чем то другим?   С чем ты сравнивал?

 
mytarmailS:

Мля)))....

Да с чего ты взял что он хороший?? ты сравнивал с чем то другим?   С чем ты сравнивал?

К сожалению, если помнишь, все мои попытки провести сравнительный анализ с другими моделями в том числе и смоделями из Р, потерпели неудачу. Потому как мой датасет был слишком мал для господ тутошных. Однако чтобы провести эксперимент сравнения с достаточной чистотой нужно скопировать алгоритм работы JPrediction в Р и провести сравнительный анализ. А потом уже можно будет допиливать и методы обучения и типы сетей поменять туда сюда. Но пока что я сужу о работе оптимизатора исключительно эмпирическим путём. Тупо на практике. Если он (оптимизатор) по факту является фуфломицином, то я даже не представляю какие можно получить сногшибательные результаты в других системах, если это фуфло вполне помогает мне зарабатывать.
 
Mihail Marchukajtes:
К сожалению, если помнишь, все мои попытки провести сравнительный анализ с другими моделями в том числе и смоделями из Р, потерпели неудачу. Потому как мой датасет был слишком мал для господ тутошных. Однако чтобы провести эксперимент сравнения с достаточной чистотой нужно скопировать алгоритм работы JPrediction в Р и провести сравнительный анализ. А потом уже можно будет допиливать и методы обучения и типы сетей поменять туда сюда. Но пока что я сужу о работе оптимизатора исключительно эмпирическим путём. Тупо на практике. Если он (оптимизатор) по факту является фуфломицином, то я даже не представляю какие можно получить сногшибательные результату в других системах, если это фуфло вполне помогает мне зарабатывать.

в чем именно проблема сравнения JPrediction с чем то другим?

 
mytarmailS:

в чем именно проблема сравнения JPrediction с чем то другим?

В ообще проблема сравнения заключалась в слишком маленьком обучающем наборе. Ведь метод опорных векторов является трудозатратным потому как перетряхивает данные досконально. А идея была в следующем. Мы берем один и тот же обучающий файл и получаем две модели одну в оптимизаторе, дуругу в альтернативной системе, а потом просто сравниваем их работу на ООС. Если интересно можем попробовать...
 

Ну и вот. Эпикфейл не заставил себя долго ждать. Ещё раз убеждаюсь что деньги любят тишину. Хотя именно сейчас вижу хорошую возможность встать по лучшей цене. Шортану по маленько наверно, не на долго, в рамках сегодняшнего дня.


 
mytarmailS:

в чем именно проблема сравнения JPrediction с чем то другим?

Если хочешь можем заморочиться в каком плане. Я напишу ряд ключевых условий реализованных в оптимизаторе для создания системы. Ты делаешь её в Р, но со свободной интерпритацией. Далее мы оба обучаем один и тот же файл и смотрим его работу на ООС. Может быть у тебя уже есть свой ИИ в Р, отличный от логики оптимизатора Решетова но нужно будет так сказать определится с правилами игры, что бы сравнение было адекватным, а не слона с мухой сравнивать. Там и расставим все точки над И!!!!
 
Что самое интерессное, данный рост по СИ начинает отыгрывать следующий опцион, ну что тут сказать. Молодцы...
 
Печаль, лосяшь подкрался незаметно и без поворотно. Ухожу в монастырь :-(
 
Aleksey Vyazmikin:

Красиво. Но мне интересно посмотреть сетку разбиения диапазонов предиктора, которые в дальнейшем перебираются.

Видимо просто сетка по

Border count

The number of splits for numerical features.

The default value depends on the processing unit type and other parameters:

  • CPU: 254
  • GPU in PairLogitPairwise and YetiRankPairwise modes: 32
  • GPU in all other modes: 128
либо равномерная но шкале, либо по количеству примеров (перцентили)
Причина обращения: