Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 48

 
Dr.Trader:

Ещё немного поэкспериментировал с RNeat, пришёл к выводу что с ней нельзя работать также как с обычными нейронными сетями.

Спасибо за то что делитесь выводами, очень интересно...

Я взял ваш пример с ирисами переделал под свои данные и у меня вылетела ошибка, что не так я так и не понял. Скажите пожалуйста вы же  точно пробовали кроме ирисов подставлять свои данные, какие были результаты по сравнению с обычной сетью?

 
Любопытная статья по оценке классификационных моделей.
 
Dr.Trader:

Ещё немного поэкспериментировал с RNeat, пришёл к выводу что с ней нельзя работать также как с обычными нейронными сетями.

1) в отличие от обычных моделей, обучение RNeat не использует исходные данные. Модель как-бы рандомно генерируется, улучшается, и только в конце тестируется на исходных данных. Обычно модели используют исходные данные, строят на них свою логику, а дальше на валидационной выборке можно узнать о том правильна ли логика модели, или она просто заучила исходные примеры. В отличие от остальных, RNeat вообще не способна запоминать исходные данные ибо она не знает о них, всё что модель знает это требуемые результаты и насколько она близка к ним.

2) кроссвалидация не поможет улучшить результаты фронттеста. Мы вроде все согласны что можно обучить обычную модель, провести пару кроссвалидаций, и как-то обработать ошибки на всех выборках для итоговой фитнесс оценки модели. Поскольку RNeat не знает исходных данных, для неё не важно в какой выборке находятся данные - тренировочной или тестовой, она будет подстраивать свою логику на нужный результат в любом случае. Теоретически она будет "обучаться" (точнее мутировать :) ) на всех выборках которые используются в фитнесс функции. Всё что можно - обучить модель до нужной точности, и надеяться что она не переобучилась, довольно рискованный подход для форекса. Кроссвалидацию можно использовать только после обучения, как финальную оценку возможного результата во фронттесте, и ни в коем случае не использовать эту валидационную выборку внутри фитнесс функции.

На кроссвалидации параметры обучения подбираются. В этой НС есть какие-то параметры? Должны же быть.
 
mytarmailS:

 Скажите пожалуйста вы же  точно пробовали кроме ирисов подставлять свои данные, какие были результаты по сравнению с обычной сетью?

Подставил данные с форекса (eurusd d1 за год), модель уже сутки учится, показывает свою собственную лучшую оценку = 0.017 (чем больше тем лучше, для ирисов было 0.7). Пока что результатов реально никаких, модель даже на тренировочных данных показывает ошибку 50%, оставлю её обучаться ещё пару суток.

Alexey Burnakov:
На кроссвалидации параметры обучения подбираются. В этой НС есть какие-то параметры? Должны же быть.

Модель постепенно усложняется, добавляет всё больше нейронов. Есть параметр максимального числа нейронов, для ограничения их роста. И второй параметр определяющий число особей в генетике. Обычно они оба чем больше тем лучше, ограничение вводится скорее для экономии памяти и времени, лучше пользоваться максимально допустимым для себя значением а не подбирать.

В моделе судя по описаниям есть цена за каждый нейрон и связи между ними, поэтому она сама по себе стремится использовать как можно меньше нейронов. Если обучение пройдёт успешно, то модель достигнет требуемой точности до того как достигнет максимального числа нейронов.

 
Dr.Trader:

Подставил данные с форекса (eurusd d1 за год), модель уже сутки учится, показывает свою собственную лучшую оценку = 0.017 (чем больше тем лучше, для ирисов было 0.7). Пока что результатов реально никаких, модель даже на тренировочных данных показывает ошибку 50%, оставлю её обучаться ещё пару суток.

предикторов много?
 
СанСаныч Фоменко:
Любопытная статья по оценке классификационных моделей.

Я пробовал 3 разные метрики для оценки модели на поднаборе предикторов: Accuracy как в этой статье; R^2 модели; и просто средняя ошибка модели mean(abs(y-x)/(max(y)-min(y))), где X это вектор результатов предсказаний, а Y это требуемые результаты). 

Accuracy для фитнесс функций вполне подходило, но у меня была проблема в том что примеров в выборке не очень много, accuracy выходит очень ступенчатая. Две близкие по качеству модели просто давали одинаковый результат. Но если обучащающих и валидационных примеров много, то это будет хорошая метрика. Про остальные метрики из статьи сказать ничего не могу.

R^2 вообще странно себя вёл, он мог быть даже негативным при том что больше 50% результатов были правильными, в общем не понравилось.

Средняя ошибка мне подошла лучше всех. Ступенчатость как в accuracy не присутствует, так как я подставляю в формулу результат регрессии, ещё до округления к классам 0 или 1. Даже если две модели дадут одинаковый результат для классов, то я всё равно смогу определить лучшую, в плане насколько результат регрессии "ближе" к нужным результатам.

 

mytarmailS:
предикторов много?

около 400 

 
Ребят есть тут кто разбирается в спектральном анализе фурье хоть более менее.  Нужна помощь
 
mytarmailS:
Ребят есть тут кто разбирается в спектральном анализе фурье хоть более менее.  Нужна помощь
А чего там непонятного? Разлагаем периодическую функцию на гармоники и получаем спектр.
 
Yury Reshetov:
А чего там непонятного? Разлагаем периодическую функцию на гармоники и получаем спектр.

Так то оно так, но у меня задача другая...

Мне нужно найти схожести в ВР те участки которые близки между собой, близость можно измерять корреляцией, евклидовой метрикой итп..  По моим экспериментам я понял что такие метрики не подходят для моей задачи я думаю что очень хорошо подойдет поиск близостей  через амплитуды, фазы, частоты..  Но как такое делается понятия не имею, потому и спрашиваю может кто знает как да что, что правильно что нет, как вообще оно должно быть

 P.S. можно и в личку, чтобы не офф-топить , в принципе разговор не по теме этой ветки и вряд ли кому то интересен 

 
Yury Reshetov:
А чего там непонятного? Разлагаем периодическую функцию на гармоники и получаем спектр.
Почему периодическую?
Можем разложить и единичный импульс, совсем не периодический)
Причина обращения: