Нейросети,как их освоить с чего начать? - страница 11

 
Integer >>:

Если бы вы занимались трехмерной графикой и анимацией, писали бы свою 3DStudioMAX?

Это разные вещи...


Я же приводил конкретный пример... попробуйте изменить в вашей любимой программе нейросетей функцию ошибки...


Мягко говоря вы хотите сказать, чтол по функциям и объему кода 2ДМАКС равен Нейрошелу ????

ну-ну...

 
Solver.it писал(а) >> попробуйте изменить в вашей любимой программе нейросетей функцию ошибки...
А вы не допускаете следующую мысль - для того чтобы получить профит с помощью этой программы, в ней не нужно изменять эту функцию ошибки?
 
LeoV писал(а) >>
А вы не допускаете следующую мысль - для того чтобы получить профит с помощью этой программы, в ней не нужно изменять эту функцию ошибки?

Благодаря этому Вашему милостливому высказыванию мы Теперь знаем что у вас в ваших киншпектах от лучших специалистов NS нет и не было понятия об оптимизации.
А вы с свою очередь не допускаете следующую мысль - что вы живет в стране несколько отличающейся от юсэй,
и которой поэтому якобы не положено иметь софт для полноценной оптимизации в части создания и применения NN?

 
Korey писал(а) >>

Благодаря этому Вашему милостливому высказыванию мы Теперь знаем что у вас в ваших киншпектах от лучших специалистов NS нет и не было понятия об оптимизации.

:-)

 
Korey писал(а) >>

Ты сам-то понял что написал? )))

 

Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!

Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором. С другой стороны, всё, что делает чёрный ящик под названием НС, так это поиск и эксплуатация квазистационарных процессов на рынке. Другого не дано. Именно, квазистационарных, а не стационарных вобще (таких на рынке просто нет) и не нестационарных (такие процессы в принципе нельзя эксплуатировать). Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d

Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить! Но самая большая засада сидит там, где её не ждёшь - квазистационарные процессы (те, что выявляет в котире и затем эксплуатирует наша НС) имеют характерное время жизни (вобще, отличное от нуля и меньшее некоторого). Понятно, что на большой по величине обучающей выборке, больше вероятность смены выбранного процесса... понимаете? Чем короче обучающая выборка, тем лучше - меньше вероятность обломиться из-за смены настроения на рынке! Тут, похоже, ответ на вопрос "Что лучше - 2-х слойная НС-ка с короткой обучающей программой, или могучая 3-ка с тремя университетами за спиной (пока училась, всё стало уже не нужным)?", даст простой эксперимент.

Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:

1 - р=10% правильно угаданных знаков (вероятность=1/2+р).

2 - 15-16%

3 - 12%

Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).

 
Neutron писал(а) >>

Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!

Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором. С другой стороны, всё, что делает чёрный ящик под названием НС, так это поиск и эксплуатация квазистационарных процессов на рынке. Другого не дано. Именно, квазистационарных, а не стационарных вобще (таких на рынке просто нет) и не нестационарных (такие процессы в принципе нельзя эксплуатировать). Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d

Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить! Но самая большая засада сидит там, где её не ждёшь - квазистационарные процессы (те, что выявляет в котире и затем эксплуатирует наша НС) имеют характерное время жизни (вобще, отличное от нуля и меньшее некоторого). Понятно, что на большой по величине обучающей выборке, больше вероятность смены выбранного процесса... понимаете? Чем короче обучающая выборка, тем лучше - меньше вероятность обломиться из-за смены настроения на рынке! Тут, похоже, ответ на вопрос "Что лучше - 2-х слойная НС-ка с короткой обучающей программой, или могучая 3-ка с тремя университетами за спиной (пока училась, всё стало уже не нужным)?", даст простой эксперимент.

Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:

1 - р=10% правильно угаданных знаков (вероятность=1/2+р).

2 - 15-16%

3 - 12%

Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).

Интересно а кто нибудь пробовал использовать НС для предсказания номеров лотерии?

 

gpwr, ты издеваешься над всеми! - это касательно пердсказания номера лотереи. И убери,пожалуйста, цитирование моего поста - это ещё более добавит локаничности к твоему сообщению:-)

 
Neutron писал(а) >>

Я выше уже приводил ссылку на вывод оптимального соотношения между числом синапсов НС - w, размерностью её входа - d и оптимальной длииной обучающей выборки Р (4 или 5 стр. топика): w^2=P*d

Размер сети, способность к обучению и распознаванию сильно зависит от архитектуры сети. Вы какую имеете в виду? Ворда, рекуррентную, ВНС или может МГУА?
 
Речь идёт о классическом многослойном нелинейном персептроне с одним выходом (покупка-продажа).
Причина обращения: