Yapay sinir ağları. - sayfa 9

 
tol64 :
Ama buna karşı da bir argüman sundu. Kamera, aynı zamanda bir teleskopsa, gözün yeteneklerini birçok kez aştı. ))

Şüpheli bir ifade, tüm astronomi, teleskopun sıradan bir gözle açılmasından önce yapıldı, bu durumda asıl şey görüntünün iletilmesi değil, yorumlanması, 10 metre gözlü insanlar hemfikir olsa da, görüş ürkütücü :)

Bu arada bilgisayar, beyin suretinde yaratılmamış olmasına rağmen birçok yönden insanı geride bıraktı.

 
IgorM :

...

.... ve harika olan şey, gereksiz bilgileri filtreleyerek ve pazarın matematiksel bir modelini oluşturarak, NS olmadan etkili bir TS oluşturabilmenizdir.

Ve neden üzgün? )) Tersine. TS bulunursa ve NS olmadan oldukça etkiliyse, sevinmelisiniz. ))
 
Urain :

Şüpheli bir ifade, tüm astronomi, teleskopun sıradan bir gözle açılmasından önce yapıldı, bu durumda asıl şey görüntünün iletilmesi değil, yorumlanması, 10 metre gözlü insanlar hemfikir olsa da, görüş ürkütücü :)

Bu arada bilgisayar, beyin suretinde yaratılmamış olmasına rağmen birçok yönden insanı geride bıraktı.

Ancak mevcut bilgisayar modeli zaten dikiş yerlerinde gıcırdıyor. Daha fazla gelişmek zor ve hatta neredeyse imkansızdır. Bu nedenle, aynı Kwabena ve diğerleri, beyin benzeri bir model uygulamaya çalışıyorlar.

Ve kaş, teleskopların 10 metrelik gözleriyle orantılı olarak büyütülürse, artık ürkütücü görünmeyecektir. Eh, ya da mümkünse teleskopları gözlerin mevcut boyutuna küçültün. )))

 
tol64 : Peki neden üzgün? )) Tersine. TS bulunursa ve NS olmadan oldukça etkiliyse, sevinmelisiniz. ))

boşuna harcanan zamana üzülüyorum - Ulusal Meclis ile uğraşmamak, ancak verilerin analizi ve filtrelenmesi ile hemen ilgilenmek mümkün olurdu

Not: Ben istemedim, ama yine de tüm yeni başlayanların NN'de ne aradığını gördüğümde, en azından mecazi olarak söyleyeceğim: eğer güzel “ sinir ağları ” adı olmasaydı, ama diyelim ki, örneğin, “üssel olarak gerileyen matematiksel uydurma”, o zaman böyle bir matematik aparatı daha az ilgi ve beklenti olurdu ve sesli isim sayesinde insanlar “akıllı slayt kuralından” bir mucize bekliyorlar.

 
tol64 :

Ancak mevcut bilgisayar modeli zaten dikiş yerlerinde gıcırdıyor. Daha fazla gelişmek zor ve hatta neredeyse imkansızdır. Bu nedenle, aynı Kwabena ve diğerleri, beyin benzeri bir model uygulamaya çalışıyorlar.

Ve kaş, teleskopların 10 metrelik gözleriyle orantılı olarak büyütülürse, artık ürkütücü görünmeyecektir. Eh, ya da mümkünse teleskopları gözlerin mevcut boyutuna küçültün. )))

Bilgisayar donanımının kendisi 300 yıl önceki yöntemleri uyguladı ve bu bir çıkmaz sokak.

Matematik pratikte paralel yöntemler geliştirmez, sorunun özü budur.

Ödünç almaya değer ana özellik, yöntemlerin paralelliğidir ve NN bu açıdan bir adım ileridir, ancak NN'nin çalışmasını doğal NN'ye uygun olarak kopyalamak bir geri adımdır.

 
tol64 :

Böyle araştırmacıları şahsen tanıyor olmanız harika. Henry Markram'ı tanıyor musunuz? 2009'daki tahmini 10 yıldı. :) Şu an ne aşamada olduğunu merak ediyorum.

Henry Markram bir süper bilgisayarda bir beyin inşa ediyor

Hayır, kişisel olarak bilmiyorum. Ama onun mavi beyin projesine aşinayım. Markram, beynimizin nasıl çalıştığının ilkesini ancak bir nöronun nasıl çalıştığını tüm ayrıntılarla (iyon kanalları, iyonların hareketini ve elektriksel uyarıların yayılmasını açıklayan diferansiyel denklemler) büyük bir doğrulukla modellediğimizde anlayabileceğimize ve kopyalayabileceğimize inanıyor. bir nöronun gövdesi boyunca, gecikmeler, vb.) . 2009 yılında IBM, bir kedinin beynini simüle ettiklerini dünyaya duyurdu. Markram, IBM araştırmacılarının noktalı nokta nöronları kullandığını iddia ederek oldukça küsmüştü ( http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain ) bağlantılar, yani en basit matematiksel modeller (ağırlıklı girdilerin toplamı ve doğrusal olmayan aktivasyon fonksiyonu ile klasik ağların nöronları gibi). Bu alandaki bir diğer ilginç bilim adamı da Penrose'dur. Bu nedenle, iyon değişimlerinin, kimyasal reaksiyonların ve uyarıların bir nöronun gövdesi boyunca yayılmasının tüm ayrıntılarını bilmenin bile beynin nasıl çalıştığını anlamak ve açıklamak için yeterli olmadığını iddia ediyor. Bunun ancak nöronlardaki kuantum reaksiyonları göz önüne alındığında mümkün olduğunu iddia ediyor (Hameroff-Penrose Teorisi). Burayı okuyun https://en.wikipedia.org/wiki/Quantum_mind . Penrose ayrıca bu kuantum reaksiyonları aracılığıyla beynimizin diğer boyutlara "gidebildiğini" ve oradan bilgi alabildiğini iddia ediyor. Youtube'da verdiği dersleri (Roger Penrose) arayın. İnanılmaz derecede ilginçler.

Markram'ın tahminlerine aşina değilim. 1990'lara kadar, sinirbilimciler, nöronlar arasındaki bilginin, klasik ağların geldiği yer olan, bir sayı ile tanımlanabilecek bir dizi dürtü biçiminde değiş tokuş edildiğine inanıyorlardı. 90'lı yılların ortalarında, bilim adamları, bireysel dürtülerin zamanlamasının, belirli bir zaman dilimindeki sayılarından daha önemli olduğunu keşfettiler. Markram ve diğer bilim adamları, sinaps ağırlıklarının değiştiği yeni bir kural, yani STDP keşfettiler. Son 10 yılda birçok sinirbilimci, bilginin impuls şeklinde (örneğin bir ikili sinyal 0/1) dağıtıldığı ve ağırlıkların STDP'ye göre değiştiği sözde spike ağları kurmaya başladı. Bu sinirbilimciler, klasik ağların robotların yaratılmasına yol açmamasının nedeninin, bilgiyi (impuls yerine sayılar), nöronu (fark denklemleri yerine ağırlıklı girdilerin toplamı) ve ağırlıklar (STDP yerine Hebb kuralı). Ancak ne yazık ki, bu yeni spike ağlar, yetenekler açısından klasik ağları henüz aşamadı. Ayrıca, çok daha fazla bilgisayar gücüne ihtiyaç duyarlar. Bu nedenle, sinirbilimde büyük bir ilerleme olmasa da, kalıpları ortaya çıkarabilecek yeni ağlar beklemeye değmez.

Cat Fight Brews Over Cat Brain
  • spectrum.ieee.org
Last week, IBM announced that they had simulated a brain with the number of neurons and synapses present in a cat's brain. In February 2008, the National Academy of Engineering issued a grand challenge to reverse engineer the human brain, sweetening a pot neuroscientists had already been stirring for a long time. There are as many theories of...
 
papaklass :


Yani, piyasa hareketleri sırasında ağırlıklardaki değişiklikleri açıklayacak bir model oluşturursanız, sonuçlar çok iç karartıcı değil, farklı olabilir. Benzer araştırmalar yaptınız mı?

Boş zamanlarınızda meşgul olun.

Bunu yapmak için, piyasa değişikliklerine bağlı olarak birinci şebekenin ağırlıklarındaki değişiklik modellerini arayacak ikinci bir şebekeye ihtiyacınız var. Ardından, birincisi ve piyasa değiştiğinde ikincisine olan bağımlılıkları da arayacak olan üçüncü bir şebekeye ihtiyaç duyulacaktır. Sonra dördüncü...

Piyasa hareket ettikçe ağırlıkların nasıl değiştiğini açıklayan bir model oluşturduğumuzu varsayalım. Onunla sonra ne yapmalı?

 
Reshetov :

Boş zamanlarınızda meşgul olun.

Bunu yapmak için, piyasa değişikliklerine bağlı olarak birinci şebekenin ağırlıklarındaki değişiklik modellerini arayacak ikinci bir şebekeye ihtiyacınız var. Ardından, birincisi ve piyasa değiştiğinde ikincisine olan bağımlılıkları da arayacak olan üçüncü bir şebekeye ihtiyaç duyulacaktır. Sonra dördüncü...



Ve 3 yıl boyunca, ilk ağdan sonra ikincisine ihtiyaç olacağını bilmeden piyasadan para aldım ...

Analitik düşünceye sahip biri olarak benim için bu tür dalları okumak genelde tehlikeli oluyor, para kazanmayı bırakıyorum, yanlış bir şey düşünüyorum...

 
St.Vitaliy :

Ve 3 yıl boyunca, ilk ağdan sonra ikincisine ihtiyaç olacağını bilmeden piyasadan para aldım ...

Yüzünle piyasadan para alamazsın, sadece yazdırabilirsin.
 
papaklass :

Yani, piyasa hareketleri sırasında ağırlıklardaki değişiklikleri açıklayacak bir model oluşturursanız, sonuçlar çok iç karartıcı değil, farklı olabilir. Benzer araştırmalar yaptınız mı?

Hayır, yapmadım. Bundan değerli bir şey çıkması pek olası değildir. İşte düşüncelerim. Evrensel doğrusal olmayan modellemenin başka bir yolu olan bir ağ yerine polinom regresyonunu kullandığımızı varsayalım. Yani görevimiz bir polinom girmek

y = a0 + a1*x + a2*x^2 + ...

polinom modelimizin hatasını azaltan a0, a1, a2,... katsayılarını arayarak verilerimizi y(x) içine alalım. Polinom modelimizin yalnızca takıldığı verilerde iyi olduğunu biliyoruz. Özünde, modeli eğitimsiz veriler üzerinde daha kararlı hale getirmek için a0, a1, a2, ... (aynı ağ ağırlıkları) model katsayılarını giriş verilerine bağımlı hale getirmeyi, yani a1(x) yapmayı öneriyorsunuz. ), a2(x), ... İyi. Her katsayıyı başka bir polinomla tanımlarız:

a1 = b0 + b1*x + b2*x^2 +...

a2 = c0 + c1*x + c2*x^2 +...

...

Bu katsayıları ilk modelimizde yerine koyarsak ne elde ederiz? Aynı polinom, ancak eğitim verilerini daha doğru bir şekilde tanımlayabilen ve yeni veriler üzerinde iyi çalışmayan daha yüksek bir düzende. Ağlarda da durum aynı. Bir ağ diğerine öğretiyor, üçüncü bir ağ öğretiyor ve bu böyle devam ediyor, büyük bir ağdan başka bir şey değil. Yeni verilerde daha doğru bir davranış elde edemeyiz. Ancak birisi bu fikri test etmek isterse, sonuçları bize bildirin.

Neden: