Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 335

 
Азбука ИИ: «Рекуррентные нейросети»
Азбука ИИ: «Рекуррентные нейросети»
  • 2016.11.04
  • Тарас Молотилин
  • nplus1.ru
N+1 совместно с МФТИ продолжает знакомить читателя с наиболее яркими аспектами современных исследований в области искусственного интеллекта. В прошлый раз мы писали об общих принципах машинного обучения и конкретно о методе обратного распространения ошибки для обучения нейросетей. Сегодня наш собеседник — Валентин Малых, младший научный...
 

Дела пошли на поправку после применения трала?

А м.б. условие по закрытию сделки подшаманить, ведь трал - это слишком легкий выход из положения, без попытки разбора полётов?

Для автомата закрытие сделки связано с каким либо условием.

На реале стопы будут портить нервы...

 
Renat Akhtyamov:

Дела пошли на поправку после применения трала?

А м.б. условие по закрытию сделки подшаманить, ведь трал - это слишком легкий выход из положения, без попытки разбора полётов?

Для автомата закрытие сделки связано с каким либо условием.

На реале стопы будут портить нервы...

Отчего-же? Трал отличная вещь. Я, так всегда, даже при работе руками, все сделки бросаю на адаптивный трал сразу после открытия, чтобы не заморачиваться.
 
Renat Akhtyamov:

Дела пошли на поправку после применения трала?

А м.б. условие по закрытию сделки подшаманить, ведь трал - это слишком легкий выход из положения, без попытки разбора полётов?

Для автомата закрытие сделки связано с каким либо условием.

На реале стопы будут портить нервы...


да не, та версия что-то тупит, уже не помню, мб параметры не те залил на впс.. позже обновленную версию в мониторинг поставлю с нормальным риском

Там доделок очень много еще, в частности буду добавлять больше входов, сейчас 3 а будет 5

 

Начал заниматься обучением нейросети. Запланированная задача пока не идет. Пишет, что данные не в формате. Пока не понимаю, что она хочет.(

Но вот примерчик сделал, для сети [3,4,1]

//Ожидаемый отклик НС
t  = 0.3    1.    0.    0.    0.5 
//Реальный отклик обученной НС
ans  = 0.3223616    0.9315578    0.1047166    0.0809235    0.4536240  

Вроде нормально.

 
Yuriy Asaulenko:

Начал заниматься обучением нейросети. Запланированная задача пока не идет. Пишет, что данные не в формате. Пока не понимаю, что она хочет.(

Но вот примерчик сделал, для сети [3,4,1]

Вроде нормально.


tensorflow от гугла тоже выглядит неплохо, но там не очень удобно с установкой и питоном
 
Maxim Dmitrievsky:

tensorflow от гугла тоже выглядит неплохо, но там не очень удобно с установкой и питоном

Это SciLab нейронка. Сейчас основная задача вдруг (нежиданно)) пошла обучаться. Где-то напортачил видимо.)

Вообще, говорят, в инет и на С++ нейронок полно. Но не искал.

 
Yuriy Asaulenko:

Это SciLab нейронка. Сейчас основная задача вдруг (нежиданно)) пошла обучаться. Где-то напортачил видимо.)

Вообще, говорят, в инет и на С++ нейронок полно. Но не искал.


Да их везде как грязи, сейчас настоящий нейронный бум )
 

Эксперимент по обучению нейросети (НС) пересечению двух МАшек не удался. Обучение велось на распознавание только пересечения вверх.

Для эксперимента была выбрана НС - 3,3,3,1 и протестирована на обучение и распознавание искусственно созданных паттернов. Однако после обучения распознаванию МА, ни одно пересечение распознано не было. Причина - НС нужны более контрастные образы, всяческие разности в 0.01-0.1 между входами ее абсолютно не волнуют.

Для заданной структуры НС вполне досоверное распознавание можно получить при разности сигналов не менее 0.2-0.3.

 

Начинаю изучать нейросети.

Смотрю на варианты, которые можно реализовать непосредственно в МТ5.

Интересен вариант с использованием ALGLIB (https://www.mql5.com/ru/articles/2279), но из описания сети следует, что там последовательная сеть без обратных связей. И минус в том, что ее обучение можно проводить только одним потоком процессора (который обрабатывает эксперт с нейросетью).

Мне кажется не сильно сложно будет добавить 2 скрытых последовательных слоя к нейросети из статьи https://www.mql5.com/ru/articles/497 и далее обучать ее либо полным перебором, либо генетическим в тестере. Но при этом можно задействовать намного больше вычислительных  потоков (ядра своего процессора, в сети и в облаке). Я правильно понимаю?

Как в обучение такой сети добавить ручные указания на правильные ответы (места покупок и продаж)?

Может где-то уже есть библиотека для многослойной последовательной сети?

И еще, не совсем понимаю полезность использования внутренних слоев, для целей торговли на форекс/бирже. Есть ли смысл в их добавлении? Почему?

Нейросеть: Самооптимизирующийся советник
Нейросеть: Самооптимизирующийся советник
  • 2016.10.03
  • Jose Miguel Soriano
  • www.mql5.com
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.
Причина обращения: