MTS'de yapay zeka kullanımı - sayfa 21

 
Mak :
IMHO, ağlarla banyo yapmamalısın :)

NN eğitimi aslında çok sayıda (yüzlerce ve binlerce) parametreye sahip bir fonksiyonun optimizasyonudur.
Bu durumda yeniden eğitim olmaması için ne yapılması gerektiğini bilmiyorum,
1-100 milyon örnekten oluşan bir eğitim örneği almadığınız sürece.
Garantisi yok...
Yani "aşırı antrenman"ı "yetersiz antrenman" olarak mı anlıyorsunuz? Sanırım bunlar zıt anlamlılar =) plz'yi açıkla.
 
Ağları sınıflandırmak, enterpolasyon yapanlardan daha iyidir.
Bunu okumadım, lütfen aralarındaki farkın ne olduğunu açıklayın, yapabilirseniz her birinin nasıl çalıştığına bir örnek çizin, ortak terimleri kullanabilirsiniz =)
 
Mak :
Alexey24 :

Matematikçiler için soru:

Optimize edilecek parametrelerin çok değişkenli normal dağılımını uygulama fikri , sinir ağları ilkesine eşdeğer midir?

Lütfen anlaşılır bir şekilde açıklayın.

Garip bir şey sordun.
Soruyu açıklayın.


AÇIKLARIM:

Şimdi, belirli ayarlanmış parametrelerle değil, sistemdeki her parametrenin aralığıyla işlem yapmanın gerekli olduğunu düşünüyorum.
En kolay yol, birkaç özdeş Uzman Danışmanı yerleştirmektir, ancak farklı parametrelerle - parametre spektrumunun farklı aralıklarında.
Bu EA'ların her birinin mevduatın belirli bir yüzdesini tahsis etmesi gerekir, ancak birlikte, yalnızca bir EA ile (bir spektrum olmadan) ticaret yaparken mevduatın yüzdesinin değerine eşit olmalıdırlar.
Daha sonra, örneğin, hareketli ortalamalarda, üç uzman, hareketin başlangıcında ortada ve sonunda sırasıyla üç pozisyon açarsa.

Ancak bu fikri test için bir Uzman Danışmana nasıl aktaracağımı çözemedim.

Posh'a bu sorunu sordu, ancak hala cevap yok.

Çok değişkenli normal dağılım (Gaussian) ve aX+bY+...=Z gibi sinir ağlarının görevi aynı şeydir (ticaret için) yoksa her şeyi karıştırdım ve kafamda bir karışıklık mı var?
 
Aleksey24 :
Mak :
Alexey24 :

Matematikçiler için soru:

Optimize edilecek parametrelerin çok değişkenli normal dağılımını uygulama fikri, sinir ağları ilkesine eşdeğer midir?

Lütfen anlaşılır bir şekilde açıklayın.

Garip bir şey sordun.
Soruyu açıklayın.


AÇIKLARIM:

Şimdi, belirli ayarlanmış parametrelerle değil, sistemdeki her parametrenin aralığıyla işlem yapmanın gerekli olduğunu düşünüyorum.
En kolay yol, birkaç özdeş Uzman Danışmanı yerleştirmektir, ancak farklı parametrelerle - parametre spektrumunun farklı aralıklarında.
Bu EA'ların her birinin mevduatın belirli bir yüzdesini tahsis etmesi gerekir, ancak birlikte, yalnızca bir EA ile (bir spektrum olmadan) ticaret yaparken mevduatın yüzdesinin değerine eşit olmalıdırlar.
Daha sonra, örneğin, hareketli ortalamalarda, üç uzman, hareketin başlangıcında ortada ve sonunda sırasıyla üç pozisyon açarsa.

Ancak bu fikri test için bir Uzman Danışmana nasıl aktaracağımı çözemedim.

Posh'a bu sorunu sordu ama hala cevap yok.

Çok değişkenli normal dağılım (Gaussian) ve aX+bY+...=Z gibi sinir ağlarının görevi aynı şeydir (ticaret için) yoksa her şeyi karıştırdım ve kafamda bir karışıklık mı var?
Spektrum ile karmaşık bir şey söylüyorsunuz! Çalışmak için kullandığım ANN ile ilgili kaynaklar:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1 %81%D0%B5%D1%82%D0%B8 - burada Wiki'de her şey genel anlamda
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - bu YSA ile ilgili bir tür çalışma, işin ortasına kadar nerede olduğu ve ne yendiği bir hikaye var diyagramlar ve formüller ile
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - bu "Yapay sinir ağlarının temelleri"ne bir bağlantı, iyi bir site, konuyla ilgili bütün bir "ağaç" var ANN - sadece yazdıklarımı değil.
 
Linkler için teşekkürler, inceleyeceğim.
Ama "spektrum" hakkında - boşuna.
Tabii ki profesyonel değilim - ama orada mantıklı bir tahıl var.
 
İnsanlar, yani kimse bana cevap vermedi, unutma algoritması üzerinde düşünmek gerekli mi, yoksa yine de YSA'nın doğal bir özelliği mi?
 
lucifuge :
İnsanlar, yani kimse bana cevap vermedi, unutma algoritması üzerinde düşünmek zorunda mıydılar, yoksa yine de bu, YSA'nın doğal bir özelliği mi?

Eğitim sırasında sınırlı sayıda çubukla sınırlıysak (veya çubuk değil, o zaman ne kullanılır), o zaman unutmak doğal bir süreç olacaktır. Pazar değişiyor ve beş yıl önce işe yarayan şey şimdi çalışmayabilir. Ancak yeni koşullar zaten ortaya çıktı ve öğretmezseniz, geçer.
Herkes kendisi için karar verir.
 
Mathemat :
Mak , bir şeyi açıkça abartıyorsun. YSA teorisine göre sizin dediğiniz gibi yüzlerce hatta binlerce kez aşmak yerine 10 oldukça yeterli ve overfitting (fitting) için kriterler biliniyor: bu test alanındaki global minimum hata.

Başka bir şey ağın mimarisidir. Ağları sınıflandırmak, enterpolasyon yapanlardan daha iyidir.
Belki - Ulusal Meclis hakkında şüpheciyim.
Evet, istatistiklerde, örnek sayısının bilinmeyen parametre sayısından 10 kat daha fazla olması durumunda bazı sonuçlar çıkarmanın mümkün olduğuna inanılıyor. Ancak aynı zamanda hatalar makullüğün eşiğinde elde edilir.

Ancak kabul etmelisiniz ki, NN esasen sadece bir tür girdi vektörünün ve bir dizi ağırlık katsayısının bir fonksiyonudur.
Bu ağırlık katsayıları seti, yüzlerce (en basit durumlarda) ile onlarca ve yüz binlerce parametreyi (ağırlık) içerir.
NN'yi öğrenmek, bu işlevi bu yüzlerce - yüz binlerce parametre için optimize etmekten başka bir şey değildir.
Bu gibi durumlarda ne olduğunu herkes biliyor.
Bu yüzden şüpheciyim...
 
lucifuge :
Mak :
IMHO, ağlarla banyo yapmamalısın :)

NN eğitimi aslında çok sayıda (yüzlerce ve binlerce) parametreye sahip bir fonksiyonun optimizasyonudur.
Bu durumda yeniden eğitim olmaması için ne yapılması gerektiğini bilmiyorum,
1-100 milyon örnekten oluşan bir eğitim örneği almadığınız sürece.
Garantisi yok...
Yani "aşırı antrenman"ı "yetersiz antrenman" olarak mı anlıyorsunuz? Sanırım bunlar zıt anlamlılar =) plz'yi açıkla.
Fazla takma ile CurveFitting denilen şeyi kastediyorum.
Çok sayıda optimizasyon parametresi ve az veri olduğunda ortaya çıkar.
 
Mak :
lusifüj :
Mak :
IMHO, ağlarla banyo yapmamalısın :)

NN eğitimi aslında çok sayıda (yüzlerce ve binlerce) parametreye sahip bir fonksiyonun optimizasyonudur.
Bu durumda yeniden eğitim olmaması için ne yapılması gerektiğini bilmiyorum,
1-100 milyon örnekten oluşan bir eğitim örneği almadığınız sürece.
Garantisi yok...
Yani "aşırı antrenman"ı "yetersiz antrenman" olarak mı anlıyorsunuz? Sanırım bunlar zıt anlamlılar =) plz'yi açıkla.
Fazla takma ile CurveFitting denilen şeyi kastediyorum.
Çok sayıda optimizasyon parametresi ve az veri olduğunda ortaya çıkar.

Ancak soru, ağın boyutu hakkında ortaya çıkıyor. Bir ağın hatırlayacağı şey, boyutuna ve mimarisine bağlıdır. Formül vermeyeceğim. Ağın hatırlayamayacağı kadar çok eğitim örneği ayarlarsanız, aşırı uyum etkisi ortaya çıkacaktır. Yani ağ artık bildiğini tanımayacaktır.
Neden: