Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 15

 
Neutron >> :

Formüllerde, internette dolu olan literatüre kendiniz de bakabilirsiniz.

Acele etmeyelim. Ve "doğrusal olmayan öğrenme" vb. gibi her türlü zil ve ıslıklarla hayatınızı karmaşıklaştırmaya çalışmayın. bu kötü olandan. Sadelik ve uyum içinde güzellik ve güvenilirlik!

Kurtarın ve merhamet edin...

 
:-)
 
Neutron >> :

Acele etmeyelim. Ve "doğrusal olmayan öğrenme" vb. gibi her türlü zil ve ıslıklarla hayatınızı karmaşıklaştırmaya çalışmayın. bu kötü olandan. Sadelik ve uyum içinde güzellik ve güvenilirlik!

s? Bu bir klasik. Nasılsa seni rahatsız etmeyeceğim.

 
Neutron >> :

n örnek uzunluğunda bir giriş sinyali vektörünüz (tek boyutlu olsun) var ve n + 1 örneğin Ağın eğitiminin kalitesi için bir test olmasına izin verin. Bu vektörü (n numuneleri) girişe koyarsınız, daha önce tüm ağırlıkları +/-1 aralığındaki rastgele değerlere eşit olasılık yoğunluğunun düzgün bir dağılımı ile eşitler ve ızgaranın neyi doğurduğuna bakın. çıktıda. Diyelim ki +5.1 verdi ve testiniz n + 1 saydınız (eğitilmiş ızgaranın bu eğitim vektörü üzerinde çabalaması gereken değer) +1.1 Ardından, alınan değer ile istenen +4 arasındaki farkı alıp bu değeri ekleyin. çıkış nöronunun her ağırlığı için işaretini koruyarak (bu FA'siz ise) veya bu değerden FA türevinin değerini bulup son nöronun girişindeki ağırlıklara ekleyin (varsa) FA'dır). Vb.

Bu parçayı sindirirseniz, hatayı ilk (giriş) katmanın girdi ağırlıklarına nasıl daha fazla iteceğinizi anlatacağım.

1. Anladığım kadarıyla, şebekenin iki çalışma modu olmalıdır: 1 - öğrenme, 2 - tanıma ve bu modlar uyumlu değil, yani. ızgara herhangi bir zamanda bunlardan birinde.


2. n uzunluğundaki giriş sinyallerinin bir vektörü, örneğin, n çubuklarda RSI değerlerinin V[n,3] dizisi (üç girişli bir ızgara için) - değil mi? O zaman n+1 okuma, n+1 çubukta aynı RSI'dır. Bu durumda, ızgarayı önceki davranışına dayalı olarak RSI'nin gelecekteki davranışını tahmin etmesi için eğitiyorum.

Eğer öyleyse, o zaman ağırlıklarla ilgili her şey açıktır, pürüzsüz olmayan FA fonksiyonunun türevini almanız gereken noktaya kadar (RSI(i))? Pekala, tamam, bu teknik bir konudur - çözülür.)

 
paralocus писал(а) >>

1. Anladığım kadarıyla, şebekenin iki çalışma modu olmalıdır: 1 - öğrenme, 2 - tanıma ve bu modlar uyumlu değil, yani. ızgara herhangi bir zamanda bunlardan birinde.

2. n uzunluğundaki giriş sinyallerinin bir vektörü, örneğin, n çubuklarda RSI değerlerinin V[n,3] dizisi (üç girişli bir ızgara için) - değil mi? O zaman n+1 okuma, n+1 çubukta aynı RSI'dır. Bu durumda, ızgarayı önceki davranışına dayalı olarak RSI'nin gelecekteki davranışını tahmin etmesi için eğitiyorum.

Eğer öyleyse, o zaman ağırlıklarla ilgili her şey açıktır, pürüzsüz olmayan FA fonksiyonunun türevini almanız gereken noktaya kadar (RSI(i))? Pekala, tamam, bu teknik bir konudur - çözülür.)

F. Wasserman'da çok iyi boyanmış Nörobilgisayar teknolojisi - Teori ve pratik

 
Vinin >> :

F. Wasserman'da çok iyi boyanmış Nörobilgisayar teknolojisi - Teori ve pratik

Evet, teşekkürler, bir tane buldum.

 
paralocus писал(а) >>

1. Anladığım kadarıyla, şebekenin iki çalışma modu olmalıdır: 1 - öğrenme, 2 - tanıma ve bu modlar uyumlu değil, yani. ızgara herhangi bir zamanda bunlardan birinde.

2. n uzunluğundaki giriş sinyallerinin bir vektörü, örneğin, n çubuklarda RSI değerlerinin V[n,3] dizisi (üç girişli bir ızgara için) - değil mi? O zaman n+1 okuma, n+1 çubukta aynı RSI'dır. Bu durumda, ızgarayı önceki davranışına dayalı olarak RSI'nin gelecekteki davranışını tahmin etmesi için eğitiyorum.

Eğer öyleyse, o zaman ağırlıklarla ilgili her şey açıktır, pürüzsüz olmayan FA fonksiyonunun türevini almanız gereken noktaya kadar (RSI(i))? Pekala, tamam, bu teknik bir konudur - çözülür.)

1. Yeni bir sayının gelmesiyle, ızgara yeni bir eğitim vektörü üzerinde eğitilir ve eğitimden hemen sonra 1 adım ileri için bir tahmin verir, vb. sonsuzluğa. Onlar. her adımda NN'nin ek eğitiminden bahsediyoruz.

2. Üç girişli bir ızgara, n + 1 + 3 uzunluğundaki bir vektörün son üç okumasını okur ve n kez sırayla bir adım kaydırılarak bunun üzerinde eğitilir.

Türev ile ilgili herhangi bir sorun yoktur. FA olarak hiperbolik tanjant FA=th(x) kullanılırsa, türevini bulmakta sorun yoktur dFA=1-th(x)^2 ve bu nöronun girişindeki ağırlık düzeltmesi şöyle olacaktır: dw=delta *(1-th(s )^2), burada delta, ızgara çıktısı ile gerçek örnek değeri arasındaki hatadır, s ise ızgara çıktısıdır.

 
Neutron >> :

1. Yeni bir sayının gelmesiyle, ızgara yeni bir eğitim vektörü üzerinde eğitilir ve eğitimden hemen sonra 1 adım ileri için bir tahmin verir, vb. sonsuzluğa. Onlar. her adımda NN'nin ek eğitiminden bahsediyoruz.

2. Üç girişli bir ızgara, n + 1 + 3 uzunluğundaki bir vektörün son üç okumasını okur ve n kez sırayla bir adım kaydırılarak bunun üzerinde eğitilir.

Türev ile ilgili herhangi bir sorun yoktur. FA olarak hiperbolik tanjant FA=th(x) kullanılırsa, türevini bulmakta sorun yoktur dFA=1-th(x)^2 ve bu nöronun girişindeki ağırlık düzeltmesi şöyle olacaktır: dw=delta *(1-th(s )^2), burada delta, ızgara çıktısı ile gerçek örnek değeri arasındaki hatadır, s ise ızgara çıktısıdır.

Bu kadar! Onlar. yeniden öğrenmenize gerek yok. Süper!

2. Üç girişli bir ızgara, n + 1 + 3 uzunluğundaki bir vektörün son üç okumasını okur ve n kez sırayla bir adım kaydırılarak bunun üzerinde eğitilir.


Burada muhtemelen kendimi iyi ifade edemedim. Üç girişli bir ızgara değil, her biri bir giriş sinyali alan üç sinapslı bir nöron:

1 sinaps - th(RSI(i))

2sinaps - th(RSI(i+dt))

3synapse - th(RSI(i+td*2))

1. Sinapsların ağırlıklarını rastgele değişkenlerle (-/+1) başlatıyoruz, neyse ki sadece üç tane var.

2. Ardından, giriş sinyalinin n örneği her girişe uygulanmalıdır, yani. n önceki çubukta giriş sinyalleri dizisi.

3. Daha sonra n'inci çubuktaki nöronun çıkışını alın ve giriş sinyalinin n+1 değeri ile karşılaştırın, nöronun çıkışı FA'siz ise her bir ağırlığa işareti ile farkı (hata) ekleyin. .

Çıkış FA ile ise, o zaman FA'nın türevi ile çarpılan hatayı ağırlıklara ekleriz (n'inci çubukta)

4. Bir çubuk ileri gidin (n+1, n olur) ve 2'den 4'e kadar olan adımları tekrarlayın.


Sorular:

1. n = k*w*w/d?

2. Hata değerini hesaplamak için test numunesi her zaman çıkış ızgara değerinden çıkarılıyor mu?

 

Evet!

Sonra öğrenme dönemlerine geçiyoruz. Hedeflere ve araçlara bağlı olarak 10 ila 1000 arasında olacak ve daha ayrıntılı olarak, ağırlık düzeltme vektörü olan bir uzunluk n -sayımı örneğini oluşturma konusuna değineceğiz (aslında bir çağda kümülatiftir) ) ve sinaps sayısına eşit bir uzunluğa sahiptir w .

Kısacası, henüz yüklemeyin.

 
Neutron >> :

Evet!

Sonra öğrenme dönemlerine geçiyoruz. Hedeflere ve araçlara bağlı olarak 10 ila 1000 arasında olacaktır ve daha ayrıntılı olarak, n-sayım uzunluğunda bir örnek üzerinde bir ağırlık düzeltme vektörünün oluşumuna değineceğiz (aslında bir çağda kümülatiftir) ve sinaps sayısına eşit bir uzunluk w.

Kısacası, henüz yüklemeyin.

Neutron, kısa bir mola vereceğim. Her şeyi yeniden düşünmek ve en az bir nöron için kodlara çevirmek gerekiyor. Genel olarak, başka bir gün ve sonra devam edeceğiz.

Size gerçekten minnettarım!

Neden: