Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 30

 
FION >> :

Kodunuzda - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), karşılaştırma çalışmıyor. Yinelenenlerin karşılaştırmasını zaten tartıştık.

Teşekkürler, ancak kodumda da "sıfıra bölme" hatası yok.

 
Neutron >> :

Merhaba Seryoga!

Ancak Grasn, 14. versiyonun kotsana olduğunu ve motorun orada öldüğünü ve hatalı difours saydığını söyledi. Genel olarak, paralocus , tüm artıları ve eksileri tartın, öğrenmek için İnternet'e tırmanın. Tezgahlarda Matkada'nın dağıtımı 100 rubleye mal oluyor.

Tam olarak "kaygan" değil. grasn tamamen farklı bir şey söyledi, 14 motor daha ucuz ve hepsi eski tartışmaya bağlı, hangi motor en iyi Waterloo ? Maple vs SciFace Yazılım. Ama aslında, bir şey daha iyi, bir şey daha kötü - neye ihtiyacınız olduğuna bakmanız gerekiyor. İşte bir örnek, 3 gezegenin hareketiyle ilgili böyle klasik bir problem var. Belirli başlangıç koşulları altında, bir gezegen diğerinin yörüngesini yakalar.


İşte matkad 13'teki çözüm (yakalama)


İşte 14 matkad'daki çözüm (nah gönderir)



Ve pek çok artı ve 14. versiyon, çok. Muhtemelen ona gitmem gerekecek, çünkü Vista 13'te sadece düşüyor. Ve 13'te birçok aksaklık var ve eski sürümler hakkında ne söyleyebiliriz.

 

Merhaba Seryoga!

Harika bulmacalar getirdin. Güzel. Belki sayısal yöntemin doğruluğu budur? Doğruluğu Daha Yüksek Ayarlayın ve Çözümler Birleşiyor...

 
Neutron , bu ayarlama faktörünü (1 - J/N) girersem, tüm ağırlıklar için mi kullanmalıyım yoksa örneğin gizli katmanın ağırlıkları için kullanıp, ağırlıklar için kullanmamalı mıyım? çıkış nöronu? Şimdi sadece gizli katmanın ağırlıkları için kullanıyorum. Ağırlıklar aşağı yukarı stabilize +/-50. N için dönem sayısını kullanıyorum.
 
Neutron писал(а) >>

Merhaba Seryoga!

Harika bulmacalar getirdin. Güzel. Belki sayısal yöntemin doğruluğu budur? Doğruluğu Daha Yüksek Ayarlayın ve Çözümler Birleşiyor...

hayır, doğrulukla ilgili değil.

 
paralocus писал(а) >>
Neutron , bu ayarlama faktörünü (1 - J/N) girersem, tüm ağırlıklar için mi kullanmalıyım yoksa örneğin gizli katmanın ağırlıkları için kullanıp, ağırlıklar için kullanmamalı mıyım? çıkış nöronu? Şimdi sadece gizli katmanın ağırlıkları için kullanıyorum. Ağırlıklar az çok sabitlendi +/-50. N için dönem sayısını kullanıyorum.

Bunu ve bunu deneyin. İstisnasız tüm ölçeklere uyguluyorum. Ama bu benim her şeyde sadeleşme sevgimden, aynılık arzusundan kaynaklanıyor. Belki senin için bir şeyler yanar. N , dönem sayısıdır.

 

Bir şey kafamı karıştırıyor:

Bu sistemde düzeltme, gerekli olup olmadığına bakılmaksızın sürekli gerçekleşir. Bu özellikle ikili girişli bir ızgara için geçerlidir.

Onlar. işaret doğru tahmin edilirse, ancak ızgara çıkışındaki genlik ile test sinyali arasında bir fark varsa, düzeltme yine de gerçekleşir. Ama ona ihtiyaç var mı?

Sonuçta, bu durumda ızgara yanılmadı ...

 
Neutron >> :

... Ama bu benim her şeyde sadeleşme sevgimden, aynılık arzusundan...

Şube değil, ana sınıf! Birçok yararlı bilgi için teşekkür ederiz! ORO yapmıyorum, ancak eğitim önerileri PNN'de de harika çalışıyor. Bir kez daha: Neutron'a teşekkürler!

 

Güzel sözlerin için teşekkür ederim rsi . Bilgiyi paylaşmaktan her zaman mutluluk duyarız!

paralocus писал(а) >>

Bir şey kafamı karıştırıyor:

Bu sistemde düzeltme, gerekli olup olmadığına bakılmaksızın sürekli gerçekleşir. Bu özellikle ikili girişli bir ızgara için geçerlidir.

Onlar. işaret doğru tahmin edilirse, ancak ızgara çıkışındaki genlik ile test sinyali arasında bir fark varsa, düzeltme yine de gerçekleşir. Ama ona ihtiyaç var mı?

Sonuçta, bu durumda ızgara yanılmadı ...

Ben de aynı şekilde davranıyorum.

Bu doğru, çünkü ızgara, yalnızca işaretin kendisini değil, sürekli olarak tahminin doğruluğunu bileyor...

 

Hey Neuton ! Genel olarak, iki katmanlı olarak henüz çalışmıyor.

ORO ile tek katmanlı bir algılayıcı yazdı ve dün bütün gün sürdü. Garip davranıyor. Ya öğrenir ya da öğrenmez ve feci şekilde dönemlerin sayısına bağlıdır.

Onlar. benim sonuçlarım: 8 çağ - ağ öğrenmiyor, 12 çağ - ağ öğreniyor, 13 çağ - ağ öğrenmiyor.

Kısacası, henüz sonuçlar hakkında övünemem.

Her ihtimale karşı, uyguladığım algoritmayı yazacağım. Bir şey kaçırdım mı bakın.


1. Perceptron D' de, biri sabit +1 olan ikili girişler.

2. Kullanılan VR - Open serisi boyunca teklifin art arda artışları.

3. Çalışmaya başlamadan önce, tüm ağırlıklar +/-1 aralığından küçük rastgele değerlerle başlatılır.

4. Eğitim vektörünün uzunluğu P = 4 * D * D / D = 4 * D olarak hesaplanır.

5. Eğitim vektörü, şebekenin girişine beslenir ve ağ hatası, Qs = Test - OUT olarak hesaplanır; burada Test, n + 1'deki TS değeridir, yani. sonraki, geri sayım, ÇIKIŞ - n'inci geri sayımda ızgara çıktısı.

6. Q girişlerindeki hata değerini elde etmek için, Qs ızgara hatası, daralma fonksiyonunun türevi ile çarpılır (1 - OUT+OUT) : Q = Qs *(1 - OUT*OUT) .

7. Düzeltme vektörü, nörona dahil edilen her ağırlık için dönem boyunca hesaplanır ve toplanır COR[i] += Q*D[i]

8. Dönem boyunca ayrı olarak hesaplanır ve toplanır, nöron SQR[i] += COR[i]*COR[i]' ye dahil edilen her ağırlık için düzeltme vektörünün karesidir.

9. Dönemin sonunda, her ağırlık için kişisel bir düzeltme hesaplanır ve bu ağırlığa W[i] += COR[i]/SQR[i] eklenir


Katsayıyı (1 - j/N) kullanmaya ve mutlak değerleri 20'nin üzerinde büyüyen ağırlıkları rastgele seçmeye çalıştım. Randomizasyon daha iyi yardımcı olur.

PS, metindeki hatayı düzeltti

Neden: