Нейросети,как их освоить с чего начать? - страница 12

 
Neutron >>:

Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!

Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором.

Вобщем нет, аргументировать не буду -- надоело.

Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить!


Второй раз вижу эту степень. Таакс посчитаем.


Возьмем для примера сеть m - n - k -- буквы обозначают количество нейронов соответственно во входном, скрытом и выходном слое.

Сложность распространение сигнала -- O(m*n + n*k) это при полносвязных синапсах.

Сложность обратного распространения аналогична.

Теперь введем дополнительный скрытый слой того же размера.

Сложность получается O(m*n + n*n + n*k).

Возьмем отношение -- получается (m + n + k)/(m + k).


Кроме того введение 2-го скрытого слоя позволяет конкретно уменьшить размеры 1-го.

Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:

1 - р=10% правильно угаданных знаков (вероятность=1/2+р).

2 - 15-16%

3 - 12%

Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).

Самое время задуматься о фрактальных НС с дробным количеством слоев :)) . 2.5 будет в самый раз.

 

гипотетический путь освоение технологии НС
шаг 1.

строим НС в NS с одним выходом бай/селл, кормим ее Close[x] смотрим график, видим, - шумит сеточка!
шаг 2.

Скармливаем что нить более гладкое чем исходная котировка, все равно шумит эта НС.
Отчего? Да от того что учитель неровный. В ручную то лень его приготовить. (тут спирантка нужна))
шаг 3.

читаем статью Решетова, посылаем NS, тренируем в тестере и заметьете - без какой либо функции ошибки заданной в явном виде.
Значит Тестер Стратегий урчит, разработчик мурлыкает, грит какой Решетов умный, все учел, изобрел настоящего Учителя .
Однако, теперь Ю.Решетов умница по опрелелению, но вот комп под МТ-4 чой то не очень то справляется, а где МТ-5?
Да и на 4 входа эта "НС" Опять шумит. Теперь уже исторические данные оказываются неровные, - содержат разные типы рынка а какие именно мы не знаем)
....повторяем шаги 1-3 в цикле.
шаг 4.

понимаем что зациклились - выращивать сеть не можем, MQL - медленный, а тренировка в нейропакете вроде как далека от торговли.
шаг 5.

Раздумья на перепутье - теперь уже мы начали работать с НС, знаем что НС это не столько математика. сколько технология,
может быть NS Trader спасет, в нем тестер лучше.
ну и...
а зачем все это?
шаг 6.

если мы изобретаем сеть и обучаем ее, то в этом то процессе все яснее становится что нам реально нужно, и это реальное исполняется без НС,
совсем без НС.
получается
НС для того только и нужна чтобы пока ей тупой что то объясняешь, самому это объясняемое понять)))

 
TheXpert писал(а) >>

Таакс посчитаем.

На 7 стр. топика я выкладывал архив со статьёй, там приведена оценка сложности обучения (стр.65-66): С=P*w^2=d*P^2=(w^4)/d, что позволяет заключить, что я слегка проврался (немножко беременна) и сложность, таки, пропорциональна d*Р^2 или через число синапсов: (w^4)/d

Кроме того введение 2-го скрытого слоя позволяет конкретно уменьшить размеры 1-го.

Это откуда следует?
 
Neutron >>:
Это откуда следует?

Если нестрого, то опосредованно из количества настраиваемых параметров. Строго ниасилю. Не силен в доказательствах.

А если добавить свою мысль, я вообще с некоторых пор думаю что самая классная по сходимости нелинейности скорости структура персептрона -- елочка, правда не проверял пока.

Дойдут руки, нарисую.


Новогодние мысли какие-то :)) .

 
Korey писал(а) >>
НС для того только и нужна чтобы пока ей тупой что то объясняешь, самому это объясняемое понять)))

Тут есть один важный момент, который ты не захотел освЯтить - объяснять НС придётся один раз (заодно и сам поймёшь, как ты правильно заметил), а дальше, она, как токарный станок будет обрабатывать изменчивый мир (котир), не особо заботясь о том, что бы ты до конца понимал, то что она имеет в виду!

TheXpert писал(а) >>

структура персептрона -- елочка

Чё курим?

А-а, понял! Ну, точно на ёлку похоже. У меня тоже самое на интуитивном уровне.

 
Neutron >>:

...

Это откуда следует?

читайте хайкина -------> п.4.15. Методы упрощения сети

 

Разницы нет никакой, какой алгоритм вы берете для обучения . Результат все равно один.:) Нужно не в нейросети капаться, нужно искать входы.

 
PraVedNiK писал(а) >>

читайте хайкина -------> п.4.15. Методы упрощения сети

Не вопрос. Почитаем!

 

Елочка! Интуиция здесь не причем, НС это пирамидальный шифратор, + это похожесть на БПФ.
Например, исходя из модели пирамидального шифратора элементарно подсчитывается минимальное число нейронов.

т.е. пирамидальный шифратор это минимальное покрытие проектируемой НС.

 
Neutron >>:

Чё курим?

Бросил :)

А-а, понял! Ну, точно на ёлку похоже. У меня тоже самое на интуитивном уровне.

Причина обращения: