Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1116

 

Смотрим. 

Дели предиктор на две части: одна часть относится к одному классу, а другая часть к другому классу. Строим гистограмму каждой половины и совмещаем.

Итак.









Разного качества предикторы, но все они имеют предсказательную способность гораздо лучше, чем ранее (по памяти)

Надо ввести меру расстояния между гистограммами, которая более реально покажет между ними разницу, что будет более точно, чем в виде картинки.

 
itslek:

датасет на 42 примера


Слушайте я вас не понимаю.... если ваш ИИ крутой что способен обучится на 1000 примеров то такая выборка ему будет и вовсе как орех. В чём проблемма?

 
СанСаныч Фоменко:

Смотрим. 

Дели предиктор на две части: одна часть относится к одному классу, а другая часть к другому классу. Строим гистограмму каждой половины и совмещаем.

Итак.









Разного качества предикторы, но все они имеют предсказательную способность гораздо лучше, чем ранее (по памяти)

Надо ввести меру расстояния между гистограммами, которая более реально покажет между ними разницу, что будет более точно, чем в виде картинки.

Отлично... продолжает. Нужен результат работы обученной модели. Анализ данных это хорошо, но самое важное это прибыль если я не ошибаюсь конечно. Именно по этому я и прошу проторговать их, если получится...

 
Mihail Marchukajtes:

Слушайте я вас не понимаю.... если ваш ИИ крутой что способен обучится на 1000 примеров то такая выборка ему будет и вовсе как орех. В чём проблемма?

вообще-то наоборот... 

лучше алгоритм похуже но больше примеров чем крутой алгоритм но меньше данных. 

даже 1000 - это мало, темболее для рынка...

 
itslek:

вообще-то наоборот... 

согласен.... смотря какой инструмент ИИ использовать. Для некоторых размер выборки нужен большим, а для некоторый, как вектор опорных векторов большая выборка не нужна, потому как метот ресурсозатратный и с большой выборкой работает крайне долго...

 
Mihail Marchukajtes:

согласен.... смотря какой инструмент ИИ использовать. Для некоторых размер выборки нужен большим, а для некоторый, как вектор опорных векторов большая выборка не нужна, потому как метот ресурсозатратный и с большой выборкой работает крайне долго...

А что такое ИИ?

 

Не плохие результаты по предсказательной способности НЕ приведут к построению устойчивых моделей, так как просто смешное количество наблюдений = 51. Надо минимум в 10 раз больше, а лучше в 100 раз.

Если построить модели на этом количестве наблюдений, то результаты ужасающие. 


    Predicted

Actual  [0,0] (0,1] Error

  [0,0]  42.9  28.6    40

  (0,1]  28.6   0.0   100


Overall error: 57.1%, Averaged class error: 70%


Rattle timestamp: 2018-10-18 21:29:39 user

======================================================================

Error matrix for the Linear model on Mic1.txt [validate] (counts):


       Predicted

Actual  [0,0] (0,1] Error

  [0,0]     1     4    80

  (0,1]     2     0   100


Error matrix for the Linear model on Mic1.txt [validate] (proportions):


       Predicted

Actual  [0,0] (0,1] Error

  [0,0]  14.3  57.1    80

  (0,1]  28.6   0.0   100


Overall error: 85.7%, Averaged class error: 90%


Rattle timestamp: 2018-10-18 21:29:39 user

======================================================================

Error matrix for the Neural Net model on Mic1.txt [validate] (counts):


       Predicted

Actual  [0,0] (0,1] Error

  [0,0]     2     3    60

  (0,1]     1     1    50


Error matrix for the Neural Net model on Mic1.txt [validate] (proportions):


       Predicted

Actual  [0,0] (0,1] Error

  [0,0]  28.6  42.9    60

  (0,1]  14.3  14.3    50


Overall error: 57.1%, Averaged class error: 55%


Rattle timestamp: 2018-10-18 21:29:39 user

 
itslek:

вообще-то наоборот... 

лучше алгоритм похуже но больше примеров чем крутой алгоритм но меньше данных. 

даже 1000 - это мало, темболее для рынка...

Ну ладно раз ты новенький обьясню тебе отдельно...

40 примеров моей выборки это порядка месяцаработы на ТФ М15. Что тут плохого обучить модель на выборки в месяц для того чтобы она хотябы 2 недели проработала в плюс. Граалей не существует и еженедельная оптимизация это вполне нормально, не говоря уж про оптимизацию раз в две недели.

Что то вон Максимка обучает свои модели на интервале год и более и результом особо не блещет....

 
СанСаныч Фоменко:

Не плохие результаты по предсказательной способности НЕ приведут к построению устойчивых моделей, так как просто смешное количество наблюдений = 51. Надо минимум в 10 раз больше, а лучше в 100 раз.

СанСаныч, объясни дураку, зачем предсказательная способность классификатору?

Причина обращения: