Гибридные нейросети. - страница 7

 
joo >>:

Вообще то, я его придумал ещо в 3-4 классе. Когда там корни извлекают? Вот, извлекал корни квадратные, кубические.. Правда на тетрадном листе в клеточку.

Тестил. Результаты реально впечатляют.


  Озвуч (похвастайся).
 
IlyaA >>:

Неужели задача, которую я описал тебя не тронула. Это вроде как везде проходят. Да ты что. На этом принципе бОльшая часть радиоэлектронной аппаратуры построена.

Мы не экстраполируем и не усредняем, а изолируем. Здесь интегрирование шума работает.

Смысл обучения не в выделении путем отсеивания некоторых особых имеющих место признаков и последующего запоминания . И дело даже не в том, что отсеять признаки мы не можем.

Принцип обучения я изложил в одной из веток:

Обучение - процесс приобретения способности к обобщению, классификации, абстрагированию, к умению делать выводы.

Какими средствами - это уже другой вопрос.

IlyaA писал(а) >>

Как люди обучаются? :) Они читают одну тему, потом другую. Каждая тема изучается индивидуально. Потом обощение. А так сетка твоя зазубрит картинку и не обобщит ничего. Станет узкоспециализирована.

Читай выше.

IlyaA писал(а) >>

Не читай много книг, а чтоже ты предложешь? Смотреть телек и биться головой о стенку?

Смысл более глубок, чем кажется, вернее кажется, что смысла в этих словах вообще нет. Смысл - думай, рассуждай, делай выводы, а не тупо зубри.

IlyaA писал(а) >>

Озвуч (похвастайся).

Мне это не нужно. Был вопрос, был ответ.

 
IlyaA >>:


О да, сеть на первых этапах полносвязная, ну или по типу сетей свертки, но там слоев много). И это все счастье множиться на 10 и начинает спариваться. Обсчитывать приходится каждого, т.е. имеем 10х. А если возникла идея обучить профитному трюку, то приходится на каждом поколении просчитывать весь временной интервал, через каждого потомка прогонять. Эта операция меня вообсче убила своей ресурсоемкостью и я возвращаюсь к своему первоначальному вопросу.

Почему не использовать RProp? В случае с генетикой дает существенное ускорение вычислений.

 
joo >>:

Смысл обучения не в выделении путем отсеивания некоторых особых имеющих место признаков и последующего запоминания . И дело даже не в том, что отсеять признаки мы не можем.

Принцип обучения я изложил в одной из веток:

Обучение - процесс приобретения способности к обобщению, классификации, абстрагированию, к умению делать выводы.

Какими средствами - это уже другой вопрос.


Есть мне, что мы начали философствовать и я предлагаю закончить обсуждение этого вопроса с пометкой "остались при своих".
 
rip >>:

Почему не использовать RProp? В случае с генетикой дает существенное ускорение вычислений.


Согласен он быстрее, также как и градиентный спуск. Разница не большая. Смысл использования генетики в том, что вероятность нахождения ГЛОБАЛЬНОГО экстремума приближается к 1. Ни один градиент такого не покажет (если ошибаюсь поправь). В добавок поверхность оптимизируемой гиперплоскости испещрена бесконечным числом локальных экстремумов со значительными амплитудами. Масло в огонь подливает увеличение числа нейронов, гиперплоскость становится еще заковырестей. В таких условиях градиенты сходятся, но как я писал выше вероятность нахождения глобального экстремума 50-80%.
 
IlyaA писал(а) >>

Согласен он быстрее, также как и градиентный спуск. Разница не большая. Смысл использования генетики в том, что вероятность нахождения ГЛОБАЛЬНОГО экстремума приближается к 1. Ни один градиент такого не покажет (если ошибаюсь поправь). В добавок поверхность оптимизируемой гиперплоскости испещрена бесконечным числом локальных экстремумов со значительными амплитудами. Масло в огонь подливает увеличение числа нейронов, гиперплоскость становится еще заковырестей. В таких условиях градиенты сходятся, но как я писал выше вероятность нахождения глобального экстремума 50-80%.

У Вас есть конкретные результаты торговли с помощью этой системы? Стоит ли игра свеч?

 
IlyaA >>:


Согласен он быстрее, также как и градиентный спуск. Разница не большая. Смысл использования генетики в том, что вероятность нахождения ГЛОБАЛЬНОГО экстремума приближается к 1. Ни один градиент такого не покажет (если ошибаюсь поправь). В добавок поверхность оптимизируемой гиперплоскости испещрена бесконечным числом локальных экстремумов со значительными амплитудами. Масло в огонь подливает увеличение числа нейронов, гиперплоскость становится еще заковырестей. В таких условиях градиенты сходятся, но как я писал выше вероятность нахождения глобального экстремума 50-80%.

Согласен, градиент не обеспечивает 100% сходимости алгоритма обучения.

Я использую ГА только для получения новой топологии сети. В среднем RProp показывает достижение локального минимума за 100-200 эпох.

После чего, находятся самые результативные особи, и формируется новая популяция. Мутация. RProp.

 
rip >>:

Согласен, градиент не обеспечивает 100% сходимости алгоритма обучения.

Я использую ГА только для получения новой топологии сети. В среднем RProp показывает достижение локального минимума за 100-200 эпох.

После чего, находятся самые результативные особи, и формируется новая популяция. Мутация. RProp.


Комбинация значит. Господа, разрешите всех поздравить! Мы только что оправдали название ветки. Это идея! Вот что пришло в голову. Мутации в генетике меняют 20-40% весов с незначительным шагом. Велика ли вероятость того что потомки возвращаются к местам обитания родителей?
 
FION >>:

У Вас есть конкретные результаты торговли с помощью этой системы? Стоит ли игра свеч?


Конкретных результатов нет. Только идеи и прогнозы. Все перцептроны, которые у меня получались не доживали до стадии индикатора. Я их браковал. :( А самая лучшая идея в настоящий момент преодалевает ресурсоемкость алгоритма. Но ВЕРА живЁт (Надя и Люба тоже :).
 

Вопрос.

Кто реализовывал "Нечеткие сети Такаги-Сугено-Канга"?

Причина обращения: