Практические алгоритмы архитектур нейросетей - страница 4

 
TheVilkas >>:

Простите, коллега, но ассоциативное распознавание образа, например при помощи сети Хопфилда,несколько отличается

от постановки задачи классификации, например при помощи дискриминантного анализа.

Хочу сказать, что распознать образ по его, образа, фрагменту, ну например запаху (ассоциация) несколько

отличается, чем отделение зерен от плевел(дискриминация), они процедурально различны.

Согласен на все сто!

Я собственно хотел тут вставить свои пять копеек, но вы меня почти упредили.

Могу лишь добавить, что нейон(настоящий) это лишь механизм. В мозгу он столь же туп, как и в проге, более того - здесь я рискую быть закиданным тухлыми помидорами - память(память живых организмов) к нейронам их головного мозга вообще никакого отношения не имеет! Ну, разве что его, нейрона, "оперативка", которая не содержит никаких образов или фрагментов образов. Память нейрона обслуживает "BIOS" нейрона и точка.

 
TheVilkas >>:

Простите, коллега, но ассоциативное распознавание образа, например при помощи сети Хопфилда,несколько отличается

от постановки задачи классификации, например при помощи дискриминантного анализа.

Хочу сказать, что распознать образ по его, образа, фрагменту, ну например запаху (ассоциация) несколько

отличается, чем отделение зерен от плевел(дискриминация), они процедурально различны.

Конечно. Как это конфликтует с тем, что я сказал? Это разные процедуры классификации.

 
Почитав в свое время физиологию мозга, скажу вам что нейроны математических нейросетей даже рядом не стояли с настоящими нейронами. В основу модели нейросети было положено первое и далекое от реальности понимание этого механизма. И к тому же сами нейроны и их "сети", то есть примитивные механизмы на их основе, это не основа интеллекта. Там многоуровневое построение, нейроны->органы->механизмы и системы (к сожалению многое подзабыл, и терминологию в том числе). К чему это я... А- это я в защиту нейронов, не смейте их обижать! Они далеко не такие простые и тупые, как вы их себе представляете. И сами по себе сложные организмы, да и просто не заслуживают пренебрежительного отношения. Может быть даже во всей вселенной более ничего подобного нету!
 

Ну вот, ввиду отсутствия эрудиции дисскуссия свелась к коммунальной сваре )))

Поскольку я как бы обещал "практические" то предлагаю начать с основ - подготовки данных для НС.

Вчера готовил для MatLab'а к заливке входные данные в классификатор, массив 100,000 баров M15

написал в самом Матлабе соответствующий скриптик ... лопатил целых 2ч.20 мин, пень 2,6Г, я в шоке))

Вспомнил про си-шник Сергеева, залез в VC++, вот он собственно:

        nPattern=1000;
        ...
        // входные вектора
        for (N=0; N<nNeuron[0]; N++) // по всем нейронам входного слоя
        {
                min=in[N][0]; // ищем минимум на всей выборке
                for (pat=0; pat<nPattern; pat++) if (in[N][pat]<min) min=in[N][pat];
                // подвигаем на величину минимального значения 
                for (pat=0; pat<nPattern; pat++)  in[N][pat]-=min;
                max=in[N][0]; // ищем максимум на всей выборке
                for (pat=0; pat<nPattern; pat++)  if (in[N][pat]>max) max=in[N][pat];
                 // сужаем до [-1,1]
                for (pat=0; pat<nPattern; pat++) in[N][pat]=2*(in[N][pat]/max)-1;
        }

И что мы видим в коде ? Правильно - алгоритмический глюк, автор видимо с большого перепуга вдруг вместо нормирования векторов имеет место быть циклический сдвиг по ортам осей с последующим масштабированием для всей выборки .. все хлопали в ладоши, и я в тч, LOL. Кстати в своей статье автор так и не объяснил для чего именно принципиально нужна эта операция для того же Кохенена. Все просто, последний в своих алгоритмах использует Декартовы расстояния, и также нормирует начальные веса своих синапсов.

C пониманием всего выше сказанного нормирование вх. вектора следует проводить лишь после т.н. линейной ковариации, а не наоборот как изложено и в статье и в коде ... т.е. в итоге имеем ошибку возведенную в квадрат, полный бардак короче .. Плюс еще какой-то "потерпевший" уже поделился радостью создания грааля "по-мотивам статьи" .. смешно.

PS:

Swetten писал(а) >>
-- Покажите дело, -- сказал Корейко задумчиво ..

Не суетитесь, — заметил Остап ...

 
Valio >>:

C пониманием всего выше сказанного нормирование вх. вектора следует проводить лишь после т.н. линейной ковариации, а не наоборот как изложено и в статье и в коде

PS:

Swetten писал(а) >>
-- Покажите дело, -- сказал Корейко задумчиво ..

Не суетитесь, — заметил Остап ...

Вот с этого момента поподробнее пожалуйста. Что за ковариация? Мне нужно понимать

 
Valio >>:

Ну вот, ввиду отсутствия эрудиции дисскуссия свелась к коммунальной сваре )))

Ну куда нам, убогим.

И что мы видим в коде ? Правильно - алгоритмический глюк, автор видимо с большого перепуга вдруг вместо нормирования векторов имеет место быть циклический сдвиг по ортам осей с последующим масштабированием для всей выборки .. все хлопали в ладоши, и я в тч, LOL.

Это независимое нормирование. Для того, чтобы аргументированно называть это глюком, требуется веское обоснование с доказательством неверности предположения.

Да, некоторые лидеры будут сбиваться, да разбиение будет другим -- только слабо сказать ПОЧЕМУ это неправильно?

Кстати в своей статье автор так и не объяснил для чего именно принципиально нужна эта операция для того же Кохенена. Все просто, последний в своих алгоритмах использует Декартовы расстояния, и также нормирует начальные веса своих синапсов.

Гм, можно ссылку на источник? В классической сети Кохонена в качестве фитнес-функции используется скалярное произведение или угол между векторами, емнип.

 
paralocus >>:

Вот с этого момента поподробнее пожалуйста. Что за ковариация? Мне нужно понимать

Вообще, у меня просьба...

Думаю, что буду в этом не одинок. Пишите пожалуйста, по возможности, проще, чтобы умственно отсталые вроде меня могли вкурить. Я, конечно, в курсе, что учиться надо - тем вроде и занят - но некоторых господ здесь, на этом форуме, понять крайне тяжело(я не имелл ввиду вас лично). Вобщем, крестьянин должен понимать где тут в этих ковариациях начала, а где концы.

 

Присоединяюсь к просьбе paralocus.

 
Swetten >>:

Присоединяюсь к просьбе paralocus.

Ковариация

 

Ой, мама...

P.S. Кстати, дяденька Решетов, а не напомните ссылочку на скрипт для закачки истории? Ну, который сам на кнопу "Home" жмёт? :)

Причина обращения: