Статистическое преимущество нейронной сети - страница 2

 

...моделирование рекомедуется начинать с простейших классических моделей (линейная регрессия, линейный дискриминант, полиномиальная регрессия малой степени, байесовский классификатор) и только после этого переходить к нейронным сетям. Если нелинейная модель (нейронная сеть), реализующая высоконелинейное отображение входных сигналов в выходные, обобщает хуже более простой модели, то это указывает на неадекватность более сложной модели. Причем нейромодель может быть в этой задаче и лучшим решением − но недостаточность размера выборки или избыточность размера нейросети не позволяют адекватно настроить параметры нейронной сети.

Статья здесь http://neuropro.ru/memo12.shtml .
 
FION писал(а) >>
Статья здесь http://neuropro.ru/memo12.shtml .

Один из бесчисленных памятников словоблудию на заданную тему

Куча псевдоумных слов скрывают практической отсутствие сути, вроде и весна прошла )))

говоря по-русски - лапша на уши.

Еще раз читаем мысль grasn-а про "статистический феномен".

 
Valio писал(а) >>

Один из бесчисленных памятников словоблудию на заданную тему

Куча псевдоумных слов скрывают практической отсутствие сути, вроде и весна прошла )))

говоря по-русски - лапша на уши.

Еще раз читаем мысль grasn-а про "статистический феномен".

В чём там лапша?

 
StatBars >>:

В чём там лапша?

Как в чем? В дошираке!



Простите, не смог удержаться, от хорошей шутки, (как мне кажется, хорошей) Это все Саблук виноват, это все его заразные штучки-шуточки с картинками. :о) Надеюсь, что Вы хотя бы улыбнулись. Ну а если серьезно - статья действительно пустая, типа "если модель врет - то она неадекватна". И еще несколько не вредных выводов, что уже не плохо. Но уверяю Вас, законы Мерфи куда интересней и полезней, чем выделенные в статье ума-приключения. Полагаю, многие на этом форуме напишут статью не хуже.


PS^ Хотя конечно, Белинским быть проще, правда это не совсем так.

 
grasn писал(а) >>

... если серьезно - статья действительно пустая, типа "если модель врет - то она неадекватна".

Я дал ссылку на статью, потому как в ней обсуждается хоть какой-то сравнительный критерий. Заметьте, что все обсуждения "угадывания" нейросетью пляшут вокруг шума - 50/50. Не лучше ли сравнивать с какой-нибудь универсальной рабочей моделью, например линейной регрессией на "стандартном" периоде - 14 или 20 (ВВ) или еще более простой моделью: если был белый бар - следущий белый, если черный - следущий черный?

 

Поковырял тут я его намедни ..

Автору конечно больший респект за проделанный труд и публикацию .. но это хотиь и похожа на нейроалгоритм, но всеже не нейросеть, а скорее аппроксиматор

и даже не градиентный, минус в том что смотрит в будущее. И прежде чем вступать в полемику - тестим сами, причем простым способом.
 
Valio писал(а) >>

Поковырял тут я его намедни ..

Автору конечно больший респект за проделанный труд и публикацию .. но это хотиь и похожа на нейроалгоритм, но всеже не нейросеть, а скорее аппроксиматор

и даже не градиентный, минус в том что смотрит в будущее. И прежде чем вступать в полемику - тестим сами, причем простым способом.
А Вас не затруднит здесь расписать на основе чего Вы сделали такой вывод?
 

Ну если уж 50/50, то лучше монетки ничего нет, погрешность 0-я.:)

 
registred >>:

Ну если уж 50/50, то лучше монетки ничего нет, погрешность 0-я.:)


А повторяемость.

Попробуйте одной монеткой предугадать как выпадет другая, которую подбрасывают следом.

Берусь принимать ставки что вы проиграете.

 
Urain >>:

А повторяемость.

Попробуйте одной монеткой предугадать как выпадет другая, которую подбрасывают следом.

Берусь принимать ставки что вы проиграете.

Какая повторяемость? Вероятность всегда одна и та же - 50/50. Хоть 300 монеток подкинь, все равно, та, о которой мы пытаемся что-то предсказать, при своем подбрасывании, сохранит за собой право выбрать одно из двух положений.:)

Причина обращения: