Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1397

 
Yuriy Asaulenko:

Выводы простые, мы имеем перекос распределения в сторону удачных сделок, благодаря которому они более вероятны, чем 50/50. Все. Больше ничем помочь не могу.)

а вот тут вы ошибаетесь, потому что сделки нужно не только открыть но и закрыть, поэтому вероятность выигрыша у вас 20%, а проигрыша 80%

простая арифметика
 
Maxim Dmitrievsky:

ну и все.. это все выводы которые в принципе можно сделать из картинки )

не плохо и не хорошо.. 
По моему очень хорошая картинка. Посчитаете среднее всех точек отдельно справа от 2,5 и отдельно слева от -2,5. На глаз, примерно  4 и -4
 
Maxim Dmitrievsky:

Давайте лучше научим персепртрон из алглиб дообучаться, а?

при каждом новом запуске трейна веса рандомизируются, убрать рандомизацию и попробовать дообучать, как можно делать во всех нормалаьных пакетах

представляете сколько всего интересного можно делать с этим

Ну так а зачем алглиб нужен? MLP там реализован не очень оптимально, в бесплатной версии. В норме MLP это чуть более 150 строк, даже из заголовочного файла лень переносить.

 
elibrarius:
По моему очень хорошая картинка. Посчитаете среднее всех точек отдельно справа от 2,5 и отдельно слева от -2,5. На глаз, примерно  4 и -4

без нормальных тестов сказать все равно ничего невозможно, даже если ограничить диапазон принятия решения

 
Maxim Dmitrievsky:

а вот тут вы ошибаетесь, потому что сделки нужно не только открыть но и закрыть, поэтому вероятность выигрыша у вас 20%, а проигрыша 80%

простая арифметика

Оставим глупости соседям.))

 
Yuriy Asaulenko:

Оставим глупости соседям.))

такова жизь

 
Грааль:

Ну так а зачем алглиб нужен? MLP там реализован не очень оптимально, в бесплатной версии. В норме MLP это чуть более 150 строк, даже из заголовочного файла лень переносить.

что бы ничего левого не подключать не геморить

 
Maxim Dmitrievsky:

без нормальных тестов сказать все равно ничего невозможно, даже если ограничить диапазон принятия решения

Понятно, что только у вас тесты нормальные. Остальные - дет. сад и пр. У вас часом не мания величия? Нет?

Или так - пока кого-то не обос -шь, ходишь как оплеванный.))

 
Yuriy Asaulenko:

Понятно, что только у вас тесты нормальные. Остальные - дет. сад и пр. У вас часом не мания величия? Нет?

вы это с поклоном спросили? иначе не отвечу

касательно нормальных тестов это и меня касается. Ошибка модели часто мало что обозначает, поэтому пишу.

да и потом, пассивный аморфный диалог никому не интересен, он не приводит к истине или развитию
 
Maxim Dmitrievsky:

что бы ничего левого не подключать не геморить

Ну разумеется! Чистые плюсы. 

У меня весь ML для MLP это 3 строчки

auto dataset = csv::read_csv("dataset.csv");

auto ml = Mlp({ 2, 100, 10, 1 }, 0.01, 0.1, 200, new TanhActiv());

MLtest(ml, dataset, { 0,1 }, { 2 }, 0.7);

по параметрам должно быть понятно что они значат у MLP, у функции MLtest первые два списка это индексы колонок для инпутов и аутпутов датасета, а последний пропорция разбиения лерна и теста
Причина обращения: