Искусственные нейронные сети. - страница 9

 
tol64:
Но также и внёс этим аргумент против. Фотоаппарат многократно превзошёл возможности глаза, если это ещё и телескоп. ))

Сомнительное утверждение, вся астрономия была проработана до открытия телескопа те обычным глазом, в этом деле главное не передача изображения а его интерпретация, хотя согласен чел с 10 метровыми глазами зрелище жутковатое :)

Комп кстати тоже превзошёл во многом человека, хотя был создан не по подобию мозга.

 
IgorM:

...

.... и что груно, так это то, что отфильтровав ненужную информацию  и создав математическую модель рынка ,можно построить эффективную ТС и без НС

И почему же это грустно? )) Наоборот. Если ТС найдена и вполне эффективна без НС, то радоваться надо. ))
 
Urain:

Сомнительное утверждение, вся астрономия была проработана до открытия телескопа те обычным глазом, в этом деле главное не передача изображения а его интерпретация, хотя согласен чел с 10 метровыми глазами зрелище жутковатое :)

Комп кстати тоже превзошёл во многом человека, хотя был создан не по подобию мозга.

Но текущая компьютерная модель уже "скрипит по швам". Сложно и даже уже почти невозможно развивать дальше. Поэтому тот же Квабена и др. пытаются реализовать модель подобную мозгу. 

А если чела увеличить пропорционально 10-ти метровым глазам телескопам, то он уже не будет выглядеть жутковато. Ну или телескопы уменьшить до текущих размеров глаз, если получиться конечно. ))) 

 
tol64:И почему же это грустно? )) Наоборот. Если ТС найдена и вполне эффективна без НС, то радоваться надо. ))

грустно о потраченном времени в пустую - можно было бы не заниматься НС, а заниматься сразу анализом и фильтрацией данных

ЗЫ: не хотел, но все таки скажу как вижу, что ищут в НС все начинающие, хотя бы образно: если бы не красивое название "нейронные сети", а скажем к примеру, "экспонентциональнорегрессионная математическая подгонка", то к такому математическому аппарату было бы меньше интереса и ожидания, а благодаря звучному названию люди ждут чуда от "умной логарифмической линейки"

 
tol64:

Но текущая компьютерная модель уже "скрипит по швам". Сложно и даже уже почти невозможно развивать дальше. Поэтому тот же Квабена и др. пытаются реализовать модель подобную мозгу. 

А если чела увеличить пропорционально 10-ти метровым глазам телескопам, то он уже не будет выглядеть жутковато. Ну или телескопы уменьшить до текущих размеров глаз, если получиться конечно. ))) 

Сам мат.апарат компьютера реализовал методы 300 летней давности, от этого и тупик.

Математика практически не развивает параллельные методы в этом суть проблемы.

Главная фишка которую стоит позаимствовать это параллельность методов, и НС в этом отношении шаг вперёд, но вот само копирование работы НС в соответствии с природными НС это шаг назад.

 
tol64:

Здорово, что Вы знакомы с такими исследователями персонально. А с Генри Маркрамом случайно не знакомы? Его прогноз в 2009 был - 10 лет. :) Интересно, на каком этапе он сейчас находится. 

Генри Маркрам строит мозг в суперкомпьютере 

Нет, персонально не знаком. Но с его blue brain проектом знаком. Маркрам верит что мы сможем понять и скопировать принцип работы нашего мозга только если с большой точностью смоделируем как работает нейрон со всеми деталями (ионные каналы, диф уравнения описывающие движения ионов и распространение электрических импульсов по всему телу нейрона, задержки, и т.п.). В 2009 году, IBM объявили всему миру что они смоделировали мозг кота. Маркрам был довольно озлоблен (http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain), утверждая что исследователи из IBM использовали точечные нейроны с точечными связями, т.е. простейшие математические модели (такие как нейроны классических сетей с их суммой взвешанных входов и нелинейной функцией активации). Другой интересный учёный в этой области это Пенроуз. Так он утверждает что даже зная все детали обменов ионов, химических реакций и распространения импульсов по телу нейрона недостаточно чтобы понять и объяснить как работает мозг. Он утверждает что это только возможно учитывая квантовые реакции внутри нейронов (Теория Хамероффа-Пенроуза). Читайте здесь https://en.wikipedia.org/wiki/Quantum_mind. Пенроуз также утверждает что через эти квантовые реакции, наш мозг способен "уходить" в другие измерения и черпать знание оттуда. Поищите его лекции (Roger Penrose) в youtube. Они дивольно интересные.

С предсказаниями Маркрама я не знаком. До 1990-х годов невробиологи верили что информация между нейронами обменивается в виде количества импульсов, которое можно описать числом, откуда и появились классические сети. В середине 90-х, учёные установили что время индивидуальных импульсов важнее чем их количество за определьнный промежуток времени. Маркрам и другие учёные обнаружили новое правило, по которму изменяются веса синапсов, а именно STDP. Много невробиологов за последнии 10 лет стали строить так называемые спайковые сети, в которых информация распространяется в виде импульсов (типа бинарного сигнала 0/1), а веса изменяются по STDP. Эти невробиологи стали утверждать что причина почему классические сети не привели к созданию роботов это потому что они неправильно описывали информацию (числа вместо импульсов), нейрон (сумма взвешанных входов вместо дифф уравнений), и изменение весов (правило Хебба вместо STDP). Но к сожалению эти новые спайковые сети пока не превзошли по возможностям классические сети. К тому же они требуют намного больше компьютерной мощности. Так что пока большого прогресса в невробиологии нет и ожидать новых сетей способных на раскрытие закономерностей не стоит.

Cat Fight Brews Over Cat Brain
  • spectrum.ieee.org
Last week, IBM announced that they had simulated a brain with the number of neurons and synapses present in a cat's brain. In February 2008, the National Academy of Engineering issued a grand challenge to reverse engineer the human brain, sweetening a pot neuroscientists had already been stirring for a long time. There are as many theories of...
 
papaklass:


То есть, если создать модель, которая бы описывала изменения весов при движениях рынка, то результаты могли бы быть другими, не такими удручающими. Вы занимались подобными исследованиями?

Займитесь на досуге.

Для этого понадобится вторая сетка, которая будет искать закономерности изменений весов первой сетки в зависимости от изменений рынка. Потом понадобится третья сетка, которая также будет искать зависимости у второй при изменениях первой и рынка. Потом четвертая ...

Предположим, что мы создали модель, которая описывает изменения весов при движении рынка. Дальше что с ней делать?

 
Reshetov:

Займитесь на досуге.

Для этого понадобится вторая сетка, которая будет искать закономерности изменений весов первой сетки в зависимости от изменений рынка. Потом понадобится третья сетка, которая также будет искать зависимости у второй при изменениях первой и рынка. Потом четвертая ...



А я вот 3 года забирал деньги с рынка не зная, что после первой сети понадобится вторая...

Мне, человеку с аналитическим складом ума вообще опасно читать такого рода ветки, перестаю зарабатывать, думаю не о том.... 

 
St.Vitaliy:

А я вот 3 года забирал деньги с рынка не зная, что после первой сети понадобится вторая...

Ну с вашей то рожицей можно и не забирать деньги с рынка, а просто напечатать.
 
papaklass:

То есть, если создать модель, которая бы описывала изменения весов при движениях рынка, то результаты могли бы быть другими, не такими удручающими. Вы занимались подобными исследованиями?

 

Нет, не пробовал. Вряд ли из этого получится что-то путное. Вот мои мысли. Допустим вместо сети используем полиномную регрессию, которая является ещё одним способом универсального нелинейного моделирования. Итак, наша задача вписать полином

y = а0 + а1*x + a2*x^2 + ...

в наши данные y(x) путём поиска коэффициентов a0, a1, a2,... уменьшающих ошибку нашей полиномной модели. Мы знаем что наша полиномная модель только хороша на тех данных, на которых осуществлялась подгонка. По существу Вы предлагаете сделать коэффициенты модели a0, a1, a2,... (те же веса сети) сделать зависимыми от входных данных,чтобы сделать модель более устойчивой на необученных данных, то есть сделать a1(x), a2(x),... Хорошо. Описываем каждый коэффициент другим полиномом:

a1 = b0 + b1*x + b2*x^2 +...

a2 = c0 + c1*x + c2*x^2 +...

...

Подставляем эти коэффициенты в нашу первую модель и что получаем? Тот же полином, но более высокого порядка, способный более точно описать обучающие данные и плохо работающий на новых данных. С сетями точно так же. Одна сеть обучающая другую, которая обучает третью и т.д., это не что иное как одна большая сеть. Более точного поведения на новых данных мы не получим. Но если кто-то хочет проверить эту идею, оповестите нас о результатах.

Причина обращения: