Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 26

 

biraz ara vereceğim :)

Kütüphaneye gitmeliyim...

 
registred писал(а) >>

“Her adımda yeniden eğitim”in ne anlama geldiğini tam olarak anlamadım?

NN'yi kullanarak yalnızca bir sayım önde bir tahmin oluşturuyorum. Ayrıca, tahminin doğruluğunu kaybetmemek için yeni girdi verileri vb. kullanarak ağı yeniden eğitiyorum. Bu durumda, ızgarayı "sıfırdan" yeniden eğitemezsiniz, ancak yeni numunedeki ağırlıkların eski değerlerini başlangıç değerleri olarak kaydedebilirsiniz.

Demek istediğim tam olarak buydu.

 

Neutron , genlik tahmininden işaret tahminine geçtiğimde, grid çıktısındaki hatanın işaretteki hata olduğu ortaya çıkıyor. Onlar. hata +1 veya -1 değerini alır.

Bu noktayı doğru anlıyor muyum? Değilse, nasıl?

 
Neutron >> :

NN'yi kullanarak yalnızca bir sayım önde bir tahmin oluşturuyorum. Ayrıca, tahminin doğruluğunu kaybetmemek için yeni girdi verileri vb. kullanarak ağı yeniden eğitiyorum. Bu durumda, ızgarayı "sıfırdan" yeniden eğitemezsiniz, ancak yeni numunedeki ağırlıkların eski değerlerini başlangıç değerleri olarak kaydedebilirsiniz.

Demek istediğim tam olarak buydu.

Ağın düz olması durumunda tahmine bakışını değiştirip değiştirmediğini merak ediyorum.

 
Jingo писал(а) >>

Ağın düz olması durumunda tahmine bakışını değiştirip değiştirmediğini merak ediyorum.

Eh, doğal olarak! Aynı zamanda doğada uyarlanabilir.

Ve sonra, düz, aslında, aynı eğilim, sadece küçük... Yani, sorunuz, Ulusal Meclis'i yeni/değişen ticaret ufkuna uyarlama meselesine bağlı. Bu onun doğrudan sorumluluğudur. Zaten “yeni” olan pazardaki ağırlıkların “eski” değerlerini ek eğitimler sırasında kullanmam, tam tersine sürecin kendisini bozmaz. Gerçek şu ki, trendin değişim süreci (tam olarak değişim) yarı durağandır ve bu nedenle seçilen taktikler kendini haklı çıkarır.

paralocus yazdı >>

Neutron , genlik tahmininden işaret tahminine geçtiğimde, grid çıktısındaki hatanın işaretteki hata olduğu ortaya çıkıyor. Onlar. hata +1 veya -1 değerini alır.

Bu noktayı doğru anlıyor muyum? Değilse, nasıl?

Hayır, doğru değil.

Ağ eğitim süreci klasik versiyondan farklı değildir, fark, gizli nöron katmanının girişine ikili bir sinyal göndermeniz ve çıkışta [-1 aralığında tanımlanan gerçek bir değer elde etmenizdir. ,1] (çıkış nöronunun th( ) aktivasyonu durumunda) ve olayın meydana gelme orantısal olasılığı (beklenen artışın işaretine Ağın güveni). Olasılıkla ilgilenmiyorsanız, ancak yalnızca beklenen tırnak hareketinin işareti önemliyse, yalnızca tahminin işaretini yorumlayın, ancak ızgarayı gerçek sayılar üzerinde eğitin (yani, ODP yöntemindeki hatanın bir gerçek Numara). Bu yöntemle öğrenme oranının genel duruma göre artması bir paradoks değildir. Gerçek şu ki, girişe bir ikili sinyal uygulayarak, NN'nin eğitilmesi gereken giriş özellik uzayının boyutunu önemli ölçüde azaltırız. Karşılaştırın: +/-1 veya -1'den. 1'e kadar, 0.001'lik bir adımla ve her değer, daha önce aynı NN kullanılarak oluşturulmuş (bunu eğitim sürecinde yapar), d boyutunda (giriş sayısı) bir hiper yüzeye yerleştirilmelidir.

 
Neutron >> :

... nöronların gizli katmanının girişine ikili bir sinyal uygularsınız ve çıkışta [-1,1] segmentinde tanımlanan gerçek bir değer elde edersiniz.

Bu kadar! Aklımın ucundan bile geçmez! Şimdi deneyeceğim - :)

 

... Karşılaştır: +/-1 veya -1'den. 1'e kadar, 0.001'lik bir adımla ve her değer, daha önce aynı NN kullanılarak oluşturulmuş (bunu eğitim sürecinde yapar), d boyutunda (giriş sayısı) bir hiper yüzeye yerleştirilmelidir.


Ve eğer giriş bir ikili sinyal ise, onu 0/1 yapmak daha iyi değil mi?

 

Tabii ki değil!

Böyle bir "girdinin" ağırlık merkeziniz 0,5 (MO'su) ile kaydırılır ve tüm başlatmaların MO = 0'ı vardır. Bu nedenle, kaynakların bir kısmı, bariz bir şey için bir nöronun tek bir girdisinin boş olarak yukarı çekilmesi (ağırlık ayarı) için harcanmalıdır. Genel olarak, yapay zekanın katılımı olmadan bağımsız olarak yapılabilecek her şey yapılmalıdır. Bu, NN'yi eğitmek için önemli ölçüde zaman kazandırır. Bu amaçla girişler normalleştirilir, ortalanır ve beyazlatılır. Bütün bunlar, AI'nın dikkatini banalliğe dağıtmak için değil, en önemli ve zor - doğrusal olmayan çok boyutlu korelasyonlar ve otokorelasyonlara konsantre olmak için.

 

Evet, zaten anladım.

Şimdi aklıma iki katmanlı kendi kendine öğrenme algısını getiriyorum. Umarım bugün çalışır.

 
paralocus писал(а) >>

Umarım bugün çalışır.

Hiç umut yok:-)

Tecrübelerime göre, aynı şeyi gerçekten işe yaramadan önce 20-25 kez daha söylemeye hazır olacaksınız.

Neden: