Обучение нейросети

 
Предлагаю в этой ветке обсудить создание обучающей выборки для тренировки сети. Имеются ввиду значения подаваемые при обучении на выход (выходы) сети . В принципе, это определяет торговую стратегию, которую реализует данная сеть. Мой скромный опыт с рекурентными сетями показывает, что обучение по зигзагу не позволяет добиться количества ошибок менее 20%. Но и в таком виде сеть работала бы удовлетворительно, если бы не большое количество мелких убыточных сделок во флете. Причем эта неприятность практически не зависит от таймфрейма. Использование какой нибудь JMA или чего то похожего при обучении дает сильное запаздывание на вход. Для "чистоты" использовалась система "перевертыш". Вариант с ручной расстановкой стрелок на график не пробовал, считаю что необходимо найти аналитическую модель. Хотелось бы услышать мнение опытных форумян по этому вопросу.
 
FION >>:
Предлагаю в этой ветке обсудить создание обучающей выборки для тренировки сети. Имеются ввиду значения подаваемые при обучении на выход (выходы) сети .

Правильные входы важнее т.к. из входов при обучении требуется определёная реакция сети ( Выход) ИМХО.

 
BARS писал(а) >>

Правильные входы важнее т.к. из входов при обучении требуется определёная реакция сети ( Выход) ИМХО.

Не могу согласитться, важно и то и другое. Под "выходом" имеется ввиду значение которое подается на выход сети с обратной связью при ее обучении на истории. Допустим, на вход подаем веер из разности 20 машек относительно "длинной" опорной.

 
FION >>:

Не могу согласитться, важно и то и другое.

А я не могу тут согласится.

Подаш на сеть "Гафно" во входы... перегрузиш бедолагу и будеш потом думать что ни так... :)

 

Тут нюансов до хрена и больше !

 
BARS писал(а) >>

А я не могу тут согласится.

Подаш на сеть "Гафно" во входы... перегрузиш бедолагу и будеш потом думать что ни так... :)

Тут нюансов до хрена и больше !

Меня интересует что Вы подаете на выход при обучении? Не зацикливайтесь на входах. Предположим что входы содержат всю необходимую инфрмацию.

 

Тут важно подавать не то, что нужно вам или пробовать подавать что-то, что по вашему мнению является более информативным. Тут нужно требовать от сети правильные ответы. В этом сложность. Нейросеть не умеет думать за вас и если вы ошиблись с выходом и напихали в нее кучу конфликтных ситуаций, она их не сможет правильно интерпретировать. Даже если сможет, опять же, ее "недальновидность", так сказать, может повлиять на результат. Это может быть вызвано недостаточным количеством данных ряда. А так же, порой, может на ее работу повлиять избыточность данных. То есть нет однозначного решения проблемы. Они созданы для распознавания патернов, это верно, но какого размера? Что, если размерность мала для однозначного определения направления движения валюты или наоборот, что если размерность слишком велика в определенный момент? Это большой вопрос, на который нет однозначного ответа. А пытаться что-то там на пару сделок состряпать это не прибыльно по меньшей мере, а в большей, возможно даже просадите весь свой депозит.

 
Насчет размерностей понятно, непонятно насчет избыточности. В информационных системах избыточность информации приводит к повышению достоверности, почему здесь не так?
 

К достоверности ряда возможно. Но не для выявления его дальнейшего движения. Рынок хаотичен, не имеет устойчивости частот, поэтому невозможно с 100% точностью угадать никогда, какая размерность данных нужна, чтобы определенно описать процесс, чтобы это описание подходило для однозначного определения патерна. Под однозначным я здесь понимаю приемлемую точность, хотя бы 80-90%.:) Для нейросети это нормально. А гадания на кофейной гуще нейросетевика, я думаю, не устроит.:)

 
FION писал(а) >>
Насчет размерностей понятно, непонятно насчет избыточности. В информационных системах избыточность информации приводит к повышению достоверности, почему здесь не так?

Существуют два конкурирующих процесса:

1. Ошибка аппроксимации (ошибка обучения), которая монотонно падает с ростом числа весов в НС;

2. ошибка модели, реализуемая данной НС, которая возрастает с ростом числа весов.

Поэтому существует оптимум, связывающий число весов НС и длину обучающей выборки и определяемый суммой этих ошибок. Он и соответствует минимальной ошибке предсказания.

Ни больше не меньше1

 
Neutron >>:

Существуют два конкурирующих процесса:

1. Ошибка аппроксимации (ошибка обучения), которая монотонно падает с ростом числа весов в НС;

2. ошибка модели, реализуемая данной НС, которая возрастает с ростом числа весов.

Поэтому существует оптимум, связывающий число весов НС и длину обучающей выборки и определяемый суммой этих ошибок. Он и соответствует минимальной ошибке предсказания.

Ни больше не меньше1

Вам удалость что-нибудь предсказать на рынке с помощью нейросетей?

 
FION >>:

Меня интересует что Вы подаете на выход при обучении? Не зацикливайтесь на входах. Предположим что входы содержат всю необходимую инфрмацию.

Выход требуемый от сети зависит от задачи поставленой перед ней. Если мы будем мучать входы, от сюда будет прыгать и размерность сети. А размерность уже трется о само обучение... ( Может легко переобучится и т.п.)

Я вот мурыжил всегда сети с 1 выходом а не с 2 выходами. И уже через манипуляцию ( Добавление,Уменьшения...) входов, требовал от сети ответа на конкретную задачу.Например: Хай-Лой на доу. ТФ Д1.

Можно прогнозировать : Бай-Селл, Хай- лой... цену... тут даже тики прогнозировать пробывали :)

 Мой знакомый уже плюнул на рекурентную... больше года мучал её. А резы не очень стабильные...   

 

Причина обращения: