Nöro ağlar - sayfa 2

 
xweblanser >> :

Çok teşekkür ederim, yorum eksikliği için üzgünüm, ama anlamaya çalışacağım ....

burada www.nnea.net/downloads finansal tahmin üzerine araştırma içeren iyi bir pdf seçkisi var. NS yardımıyla piyasalar. kayıt gereklidir. ayrıca araştırma bölümüne bakın.

 
marketeer >> :

Bir tüccarın Ulusal Meclisin iç yapısını gerçekten anlaması gerekmez. Onun için girdileri ve çıktıları olan bir kara kutu görevi görür. Bu site de dahil olmak üzere, kamuya açık alanda zaten birçok hazır ağ var - arama kutusuna "sinir ağları" yazmanız yeterlidir. En son yayınlardan biri, örneğin - Kendi kendine öğrenen bir sinir ağına dayalı Predictor . NN kullanımındaki temel sorun, hangi verilerin girileceği ve neyin eğitileceği, bu verilerin nasıl hazırlanacağı, ağın yapısı ve boyutu vb. Örneğin, daha önce bahsedilen ağı alıyoruz, onu Yezhov ve Shumsky'nin yaptığı gibi eğitmeye çalışıyoruz (bkz. Nedeni deniz olabilir. Bu, tüccarın çalışmasının, o zamandan beri nelerin değişebileceğini (veya yazarların söylemediklerini ;-) ) ve ayarlarda ve girdi verilerinde nelerin değiştirileceğini sezmeye başladığı yerdir.

Şey, ben bir tür tüccarım, ama çoğunlukla programcıyım... ve kendim için bir sinir ağı yazmak ve aynı zamanda kendime yapabileceğimi kanıtlamak istedim...

 
njel >> :

burada www.nnea.net/downloads finansal tahmin üzerine araştırma içeren iyi bir pdf seçkisi var. NS yardımıyla piyasalar. kayıt gereklidir. ayrıca araştırma bölümüne bakın.

Oh teşekkürler, malzeme asla gereksiz değildir ..

 
xweblanser >> :

1. Anladığım kadarıyla ağın her nöronu aynı fonksiyon.. Ama aynı fonksiyon, aynı veri geldiğinde nasıl farklı değerler üretebiliyor anlamıyorum...

Bu girdiler farklı ağırlıklarla çarpılacaktır. Bu nedenle, fonksiyonların değerleri farklı olacaktır. Sinir ağları ve gradyan inişinden genetiğe kadar farklı öğrenme algoritmalarının kullanımıyla ilgili kapsamlı bir çalışmadan sonra, sinir ağlarının matematiksel düzeneğinin ideal olmadığı sonucuna vardım. Sinir ağı, doğrusal olmayan bir fonksiyona yaklaşmak için tasarlanmıştır. Kolmogorov'un teoremine göre, ağ herhangi bir sürekli işlevi uygulayabilir. Pratikte, ağın paralelliği, birçok yerel minimuma ve modellenen fonksiyonun uygulamalarına yol açar. Örnek olarak aşağıda gösterilen ağı alın. Ağın bir girişi, bir çıkışı ve iki nöron içeren bir gizli katmanı vardır. Her gizli nöron, x girişini ağırlığıyla (w1 veya w2) çarpar, sonucu aktivasyon fonksiyonundan geçirir (tanh diyelim), elde edilen değerler ağın çıkışında toplanır. Basitlik için, ofset girişlerinin sıfır olduğunu varsayalım. Çıkış nöronunun ağırlıkları aynıdır ve 1'e eşittir.


Şimdi bir fonksiyon yaklaşımı problemi oluşturalım. Diyelim ki fonksiyonumuz t = cos(x) (t hedef demektir). Ağ, değerini formülü kullanarak hesaplayacaktır.

y = tanh(w1*x) + tanh(w2*x)

Ağın eğitimi (veya eğitimi), ağ çıktısının t fonksiyonumuzun değerine en yakın olduğu w1 ve w2 ağırlıklarının bulunmasından oluşur. Bu, hatanın karelerinin toplamını en aza indirerek elde edilir.

E(w1,w2) = toplam((t[k]-y[k])^2,k=0..p-1)

toplamanın farklı eğitim verileri üzerinden gerçekleştirildiği yer: x[k],t[k]. t[k] = cos(x[k]) ölçümlerinde gürültü yokken minimize edilmiş amaç fonksiyonumuz E(w1,w2)'nin yüzeyinin nasıl göründüğünü görelim:


Bu grafik, amaç fonksiyonumuz E'yi en aza indiren sonsuz sayıda çözüm (w1,w2) olduğunu göstermektedir (düz vadilere dikkat edin). Bunu anlamak zor değil: ağ w1 ve w2'ye göre simetriktir. Ağ eğitiminin sonuçları, w1 ve w2 başlangıç değerlerinin farklı seçimleri için farklı olacaktır. Bu ilk değerler her zaman rastgele seçildiğinden, aynı eğitim verisi x[k],t[k] üzerinde ardışık ağ eğitimi, optimize edilmiş w1 ve w2 ağırlıklarının farklı değerlerine yol açacaktır. Burada esasen küresel bir minimum yoktur. Veya başka bir deyişle, sonsuz sayıdaki yerel minimumlar aynı zamanda küresel minimumlardır.

Şimdi serimize gürültü ekleyerek işimizi karmaşıklaştıralım: t[k] = cos(x[k]) + rnd. Bu gürültülü seri, istatistiksel özelliklerinde fiyat serisine ideal kosinüsten daha yakındır:


Şimdi küçültülmüş E(w1,w2) fonksiyonumuzun yüzeyi şöyle görünür:


Hem zirvelerde hem de vadilerde birçok zirveye dikkat edin. Vadilerden birine yaklaşalım:


Burada birçok yerel minimumu daha net görebilirsiniz. Şimdi gradyan iniş ile E(w1,w2) optimizasyonunu hayal edin. w1 ve w2'nin başlangıç değerlerine bağlı olarak bu iniş farklı bir minimuma yol açacaktır. Üstelik bu yerel minimum hem tepede hem de vadide olabilir. Buradaki genetik optimizasyon, yalnızca tepeden vadilerden birine düşmenize ve ardından yerel minimumlardan birine takılmanıza yardımcı olacaktır. w1 ve w2'ye ek olarak, önceki değerlendirmede bire eşit olan çıkış nöronunun ağırlıklarını da optimize edersek, durum çok daha karmaşık hale gelir. Bu durumda, koordinatları (w1,w2,w3,w4) olan çok sayıda yerel minimuma sahip 4 boyutlu bir uzayımız var.

Bir sinir ağının davranışının tüm bu basitleştirilmiş tanımıyla, ağın paralelliğinin (veya aynı katmandaki nöronların ağırlıklarına göre çıktısının simetrisinin) eğitiminin zorluklarına yol açtığını kanıtlamak istedim ( Bu ağırlıkların optimizasyonu), özellikle kaotik fiyat serisi tipi seriler için sonsuz sayıda yerel minimumun varlığından kaynaklanmaktadır.

Yukarıdaki hesaplamaların yapıldığı MathCAD dosyasını ekliyorum.

Dosyalar:
nnrsimplea2.zip  699 kb
 
gpwr писал(а) >> Bir sinir ağının davranışının tüm bu basitleştirilmiş tanımıyla, ağın paralelliğinin (veya aynı katmandaki nöronların ağırlıklarına göre çıktısının simetrisinin) zorluklara yol açtığını kanıtlamak istedim. Özellikle bir dizi fiyat gibi kaotik seriler için sonsuz sayıda yerel minimumun varlığı nedeniyle eğitimi (bu ağırlıkların optimizasyonu).

Tek bir soru var - bu karı nasıl etkiler?

 
LeoV >> :

Tek bir soru var - bu kârı nasıl etkiler?

İstikrarlı bir kâr getiren bir ağınız var mı?

 
LeoV >> :

Tek bir soru var - bu kârı nasıl etkiler?

Kesinlikle karı etkiler. Bir sinir ağına dayalı TS'nin karlılığını gerçekleştirmek için yeterli olacak gerekli, yeterince derin yerel minimumu bulmanın garantisi yoktur.

 
gpwr >> :

Hangi MatCad'i kullanıyorsunuz Mathcad 13'te bile hesaplarınız açılmıyor.

 

E(w1,w2) amaç fonksiyonunun minimizasyonu/maksimizasyonunun anlamı, global bir ekstremum arayışıdır. Ve eğer bu küresel uç noktalar birden fazlaysa, o zaman NN'nin hangisinin içine düştüğü bizim için ne fark eder?!

Daha da kötüsü, yerel minimum/maksimumlardan birinde takılırsa. Ama bu artık NN'nin sorunu değil. Bu bir optimizasyon algoritması problemidir.


LeoV >> :

Tek bir soru var - bu kârı nasıl etkiler?

Açıklanan gpwr - hiçbir şekilde.

 
Urain >> :

Hangi MatCad'i kullanıyorsunuz Mathcad 13'te bile hesaplarınız açılmıyor.

Mathcad 14. Ekli, sürüm 11'deki aynı dosyadır

Dosyalar:
nnosimplem2.zip  14 kb
Neden: