Поиск набора индикаторов для подачи на входы в нейросеть. Дискуссия. Инструмент оценки результатов. - страница 7

 

to iliarr

Попробуйте, ради интереса, в качестве фитнес функции использовать колличество сделок, или относительную просадку. О результатах сообщите, очень интересно.

зы Может быть, что сеть вообще торговать не будет, если использовать просадку в качестве фитнес функции. :))

 
joo >>:

to iliarr

Попробуйте, ради интереса, в качестве фитнес функции использовать колличество сделок, или относительную просадку. О результатах сообщите, очень интересно.

зы Может быть, что сеть вообще торговать не будет, если использовать просадку в качестве фитнес функции. :))

думал об этом. но решил отложить на некоторое время...

если целевой функцией будет только количество сделок или только просадка, толку буде мало т.к. сеть будет учиться либо часто и бесцельно входить/выходить в рынок либо учиться избегать просадок....

надо оптимизировать и прибыльл, и количество сделок, и просадку... на сколько я помню, JGAP позволяет иметь целевую функцию с несколькими выходами.. сейчас более приоритетными вижу задачи : разобраться с входными данными и довести до ума рекуррентную нейросеть.

на настоящий момент, как я вижу, поиск и тестирование входных данных тем методом который я предложил, мало кому интересен...

 

Пришли к общему знаменателю по поводу тестирования? ;-). По этому поводу есть такое предложение. Если сеть обучается без учителя получать гипотетически неограниченную прибыль, то следует иметь в виду, что входные данные все равно накладывают ограничение сверху на размер прибыли. На выбранном периоде обучения можно оценить сумму, больше который получить нельзя (постоянным лотом, выбранной стратегией). Значит можно вычислить коэффициент обученности сетки на этом периоде как отношение теоретической максимально возможной прибыли к тому, что дает сеть. Потом аналогичные оценки делаются для валидационного периода, и коэффициенты сравниваются.

Как тут уже правильно замечали, без такой проверки, имхо, обученность сетки ничего не стоит.

 
marketeer >>:

Если сеть обучается без учителя получать гипотетически неограниченную прибыль

Это называется переобучение. мы уже поднимали этот вопрос.

 
Да я в курсе, как это называется. Потому и предложил, как с этим бороться, потому что вы тут копья ломаете.
 

Вопрос к любителям искать входы для нейросетей :)

Никто не баловался с методом главных компонент (он же - "principial component analysis" или "pca")?

 
lea >>:

Вопрос к любителям искать входы для нейросетей :)

Никто не баловался с методом главных компонент (он же - "principial component analysis" или "pca")?

А как вы его применять собираетесь?!

 
lea >>:

Вопрос к любителям искать входы для нейросетей :)

Никто не баловался с методом главных компонент (он же - "principial component analysis" или "pca")?


    Я разрабатывал систему на основе алгоритма GHA. Отлично себя зарекомендовал если присутствует шум. Можно через ДПФ, а можно с помощью анализа главных компонент. Убедительная просьба воздержаться от употребления слова "любители" без приставки "уважаемые" :)
 

lea писал(а) >>

Никто не баловался с методом главных компонент (он же - "principial component analysis" или "pca")?

Баловался, но в совсем другой области применения. Кстати, нелинейный PCA заставить заработать у меня так и не получилось. А линейный, имхо, слабоват.

 
IlyaA писал(а) >>

Я разрабатывал систему на основе алгоритма GHA. Отлично себя зарекомендовал если присутствует шум. Можно через ДПФ, а можно с помощью анализа главных компонент.

А считали всё это в чём? MathCad/MathLab?

Убедительная просьба воздержаться от употребления слова "любители" без приставки "уважаемые" :)

Ок :)

TheXpert писал(а) >>

Баловался, но в совсем другой области применения. Кстати, нелинейный PCA заставить заработать у меня так и не получилось. А линейный, имхо, слабоват.

Пока что расчитываю обойтись линейным.

rip писал(а) >>

А как вы его применять собираетесь?!

По прямому назначению - выбрать набор переменных, которые будут скоррелированы слабже исходных.

Причина обращения: