Использование искусственного интеллекта в МТС - страница 20

 
usdeur:
solandr писал (а):
usdeur:
Для продолжения - пишите на Е-майл

К большому сожалению в ответе я ничего не понял. Вы могли бы написать что-то конкретное по проблеме уже здесь на форуме? Иначе какой смысл обмениваться e-mail?
А где сам Е-майл?
 

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

 
Здравствуйте, Господа-разработчики!
После того как я узнал про ИНС и применение их на форекс, я загорелся желанием капитально изучить эту тему (ИНС, про форекс я знаю уже давно), что я и сделал. С изучением ME4 у меня проблем нет так как я давно знаю С. И так, у меня есть нескольколько вопросов в применении ИНС относительно ФОРЕКС, ответов на которые я пока не нашел:
1) В одном из материалов которые я читал было написанно, что при обучении ИНС существует возможность "переучить систему", "переученная" ИНС выдает правильные результаты только при ситуациях (шаблонах) которым была обучена, в остальных случиях её результаты не верны, т.е. ИНС становится банальной таблицей и теряет способность к обобщению. Мой вопрос таков: возможна ли такая ситуация с ИНС работающей с ФОРЕК, зависит ли возможность формирования подобной ситуации от способа обучения (ГА, стохастический, метод обратного распространения ошибки) или типа сети (я собираюсь применять однонапрвленную многослойную модель). Как избежать подобной ситуации?
2) Допустим, я выбираю банальный метод обучения сети на истории (а) и работы после обучения(б): (а) беру какойто момент в истории Т, неравный текущему моменту Т=0, на вход обучающей системы подаю цены закрытия Х(Т+1), Х(Т+2), Х(Т+3),... Х(Т+N), (где N=const, а Х - цена инструмента, функция от Т), подаю прогноз который зделала моя система Х'(Т) до обучения этому моменту и реальное значени Х(Т), если Х(Т) != Х'(Т) то обучаю систему этой ситуации, потом уменьшаю Т на единицу и повторяю этот весь цикл занова пока Т > 0 (чем больше Т тем "давнее" момент времени Т, за "шаг" Т можно взять, например, один день), когда система обучена (б) просто ставлю систему на ожидание "шага" (в нашем случае ждем сутки) , если предыдущий прогноз не оправдался, то обучаю систему, затем вычисляю прогноз и открываю зделку по нему и тд..
Советники работающие на основе ИНС, которые я видел на этом ресурсе, ориентируются на вероятность правильности прогноза (поправьте меня если я не прав), и если эта вероятность больше некоторой константы Б, задаваемой человеком, то зделка открывается. Каким способом вообще можно оценить эту вероятность, например при том способе работы советника который я описал?
Я, лично не представляю как советник может НЕ открывать зделки каждые сутки, например (за исключением случая когда прогнозируемый доход ниже спреда по инструменту) так например будет действовать представленная мной система. На какие показатели, входные даанные может ориентироватся сеть чтобы входить в рынок НЕ строго периодически.
3) В советнике тов. Ceasar я видел константу забывания, я не понимаю зачем одна нужна, и как реализовать забывание в зависимости способа обучения? разве не является способность к "забыванию" естественным свойством ИНС? объясните доходчиво плз.

ЗЫ Мне необходимо мнение профи в теме ИНС, если лень писать то плз, кинте просто ссылку на ресурс(ы) отвечающие на каждый из пунктов топика по-отдельности.
ЗЗЫ Я не читал исходников прог, лишь изучил инструкции по их пременению.
 
Aleksey24:

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

Чтото вы странное спросили.
Растолкуйте вопрос.
 
Mak:
Aleksey24:

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

Чтото вы странное спросили.
Растолкуйте вопрос.



Наврено вопрос означает - "стоит ли париться с нейронными сетями?"
 
Mak:
Aleksey24:

Вопрос к матемамикам:

Равносильна ли идея применить многомерное нормальное распределение оптимизируемых параметров принципу нейронных сетей?

Пожалуйста растолкуйте доходчиво.

Чтото вы странное спросили.
Растолкуйте вопрос.



Наверно вопрос означает - "стоит ли париться с нейронными сетями?"
 
Еще добавлю по своему вопросу (2). Жизнеспособна ли такая структура программы, я не говорю про сами входящие данные, я иммею ввиду мой подход к обучению ИНС, т.е. когда вызывать функию обучения?
 
1. Возможна, и более того, именно эта ситуация будет в большинстве случаев.
От способа обучения независит, от типа сети может быть, но вряд ли.
Как избежать - обучающая выборка должна в сотни, тысячи раз превышать число весовых параметров в сети,
тогда вероятность переобученности будет меньше.

Смыс простой, НС - это просто функция от множества входов и множества весовых параметров.
Подбирая множество параметров стремятся получить на выходе функции заданный отклик - это обучение.
Весовых параметров много - сотни и тысячи, отсюба и переобученность сетей в большинстве случаев.
 
ИМХО, париться с сетями не стоит :)

Обучение НС - это фактически оптимизация функции с огромным числом параметров (сотни и тысячи).
Я не знаю что нужно сделать, чтобы небыло переобученности в этом случае,
разве что взять обучающую выборку размером в 1-100 млн самплов.
Ито без гарантии ...
 
Mak, ты что-то явно преувеличиваешь. Вместо превышения в сотни-тысячи раз, как ты говоришь, по теории ИНС вполне достаточно 10. И критерии переобученности (подгонки) известны: это глобальный минимум ошибки на участке тестирования.

Другое дело - архитектура сети. Лучше сетки классифицирующие, чем интерполирующие.
Причина обращения: