Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 607

 
Sihirbaz_ :

DAO'nun bilgisi hakkında konuşalım, ugh, TAU)))


hayır, hayır... sadece DAO var...

 
Sihirbaz_ :

Paket öğrenmeEğrisi, R, Öğrenme Eğrisi.

Nöron sayısını hesaplamaya nasıl yardımcı olacaklar?
 
elibrarius :
Nöron sayısını hesaplamaya nasıl yardımcı olacaklar?

hata keskin bir şekilde düşmeyi bırakırsa, eğitimi durdurun :)

 
Maksim Dmitrievski :

hata keskin bir şekilde düşmeyi bıraktıysa, eğitimi durdurun :)

Sadece önceden tanımlanmış bir yapıya sahip bir ağı eğitebilir ve hatalara bakabiliriz. Ve önce yapıyı tanımlamanız gerekir, yani. daha sonra zaten hataları gözlemleyebileceğiniz nöronların sayısı.

Onlar. soru, eğitimden önce öğrenme Eğrisinin optimal nöron sayısını belirlemeye nasıl yardımcı olacağıdır.

Peki ya da başka bir yöntem.

 
elibrarius :

Sadece önceden tanımlanmış bir yapıya sahip bir ağı eğitebilir ve hatalara bakabiliriz. Ve önce yapıyı tanımlamanız gerekir, yani. daha sonra zaten hataları gözlemleyebileceğiniz nöronların sayısı.

Onlar. soru, eğitimden önce öğrenme Eğrisinin optimal nöron sayısını belirlemeye nasıl yardımcı olacağıdır.

Peki ya da başka bir yöntem.


orada sayının artık önemli olmadığı ortaya çıkıyor .. eğitim sadece hata düşmeyi bıraktığında durur ve yeniden eğitim gerçekleşmez. Onlar. nöronlar açıkça çok sayıda olabilir

eğer doğru anladıysam.

 
Sihirbaz_ :

DAO'nun bilgisi hakkında konuşalım, ugh, TAU)))


Bilişin göreliliği, her şeyden önce, aynı fenomenin algılanması ve anlaşılması için bilincin farklı hazırlıklarından bahsetmemiz gereken birçok neden ile ilişkilidir ve bu da bilişin tutarsız sonuçlarına yol açar (tepkiler, karar verme, eylemler vb.).

 
Maksim Dmitrievski :

orada sayının artık önemli olmadığı ortaya çıkıyor .. eğitim sadece hata düşmeyi bıraktığında durur ve yeniden eğitim gerçekleşmez. Onlar. nöronlar açıkça çok sayıda olabilir

eğer doğru anladıysam.

Bu erken bir durak. LearningCurve paketiyle herhangi bir bağlantı göremiyorum.

Erken durdurma yönteminde eğitim, ağın karmaşıklığının optimal değere ulaştığı anda durur. Bu an, doğrulama hatasının zaman davranışı ile tahmin edilir. ...

Fakat aynı zamanda zayıf yönleri de vardır: çok büyük bir ağ, doğrusal olmayanlar henüz tam olarak kendilerini göstermediğinde, erken bir aşamada eğitimini durduracaktır. Onlar. bu teknik, zayıf doğrusal olmayan çözümler bulmakla doludur.

Sihirbaz_ :

Hatalar (2 adet).

Daha detaylı yazın lütfen. LearningCurve, ağ için nöron sayısını belirlemeye nasıl yardımcı olabilir?

 

Düzenleme hakkında hiçbir şey söyleyemem, denemedim.

Ancak erken bir duruş, fazla giyilmesine yol açar. Görüntü tanıma konusunda, test ve eğitim verilerinin büyük benzerliği nedeniyle bir şekilde hala yuvarlanıyor, bu nedenle kitaplarda ve makalelerde sıklıkla tavsiye ediliyor. Ama bu Forex için uygun değil.


K-kat çapraz doğrulamayı öğrenmenizi tavsiye ederim. Birkaç farklı yol gördüm, bu iyi çalışıyor -

Beş kat kullanacağız. Diyelim ki eğitim tablosunda 1000 satır var.

1) Modeli 201-1000 hatlarında eğitiyoruz. Eğer bu bir nöronsa, erken durmayın, sadece nörona yüksek doğruluk elde etmek için yeterli sayıda çağ öğretin. 1-200 sıralarını tahmin ediyoruz.
2) Modeli tekrar eğitiyoruz, şimdi 1-200 satırlarında 401-1000 ile birlikte aynı model parametrelerini ve genel olarak tüm aynı ayarları kullanıyoruz. 201-400 arasındaki çizgileri tahmin ediyoruz.
3) Modeli tekrar eğitiyoruz, şimdi 1-400 satırlarında 601-1000 ile birlikte aynı model parametrelerini ve genel olarak tüm aynı ayarları kullanıyoruz. 401-600 satırlarını tahmin ediyoruz.
4) Modeli yeniden eğitiyoruz, şimdi 1-600 satırlarında 801-1000 ile birlikte aynı model parametrelerini ve genel olarak tüm aynı ayarları kullanıyoruz. 601-800 satırlarını tahmin ediyoruz.
5) Modeli yeniden eğitiyoruz, şimdi 1-800 satırlarında aynı model parametrelerini ve genel olarak tüm aynı ayarları kullanıyoruz. 801-1000 satırlarını tahmin ediyoruz.

Sonuç olarak, özdeş parametreler için özdeş bir öğrenme algoritması tarafından oluşturulan beş modelimiz var. Ve her biri model için bilinmeyen veriler üzerinde yapılan beş tahmin.
1000 uzunluğunda bir uzun dizi elde etmek ve bunu gerçek verilerle, örneğin R2 işleviyle karşılaştırmalı olarak değerlendirmek için tahminleri olan beş dizi birbirinin sonuna eklenir. Bu, modelimizin, öğrenme şeklimizin ve tüm bunların bir değerlendirmesi olacaktır.
Ardından, tüm bu adımları (5 model eğitin, her model için benzersiz 5 parça tahmin edin, bunları birleştirin, R2) her yaptığımızda model parametrelerini (aktivasyon işlevi, katman sayısı ve boyutları vb.) seçiyoruz ve her zamankinden daha iyi bir sonuç elde ediyoruz. tahmin etmek.

Gerçek ticarette yeni verileri tahmin etmek için - beş modelin her birini tahmin ediyoruz ve beş sonuç için ortalamayı buluyoruz, bu yeni verilerdeki son tahmin olacak.

ps kat sayısı birkaç düzine almak daha iyidir, bu örnekte açıklama kolaylığı için bunlardan sadece beş tanesi vardır.

 

Kategorileri elde etmenin, keşfetmenin özel bir türü, şu türden bir benzetme işlemidir: neden + koşullar → etki, burada etki yalnızca neden ve koşullar birleştirildiğinde ortaya çıkar. Bu işlemi parça ve bütün kategorilerine uygulayarak, gerekli koşulların rolünü oynayan yapı kategorisi bulunabilir: parçalar + yapı → bütün, yani bütün, karşılık gelen yapısal koşul olmadan elde edilemez, dağ olacaktır. sadece düzlemde yattıkları sürece yeterli sayıda kum tanesinden elde edilemez. Bir elemanlar sistemi elde etmek için gerekli bir koşul, elemanlar arasındaki ilişkiler ve bağlantılardır: elemanlar + bağlantılar → sistem. Formun önemi, basit bir dikiş iğnesinden, gözün iğnenin ucuna kaydırıldığı bir dikiş makinesi iğnesine geçtiklerinde önemli ölçüde ortaya çıktı. İğnenin yeni bir kalitesinin ortaya çıkması için konfigürasyonun değiştirilmesi gerekiyordu: şekil + konfigürasyon → kalite. Bu örnek, aynı zamanda, sistemin karşıtlarının gelişimine ilişkin yasanın işleyişini gösterir - nitelikteki bir değişiklik, nicelikte bir değişiklik gerektirmez.

 

Optimum gizli eleman sayısı, ampirik olarak çözülmesi gereken belirli bir problemdir. Ancak genel kural şudur: ne kadar gizli nöron olursa, aşırı uyum riski de o kadar yüksek olur. Bu durumda, sistem verilerin olanaklarını incelemez, ancak olduğu gibi, kalıpların kendilerini ve bunların içerdiği herhangi bir gürültüyü hatırlar. Böyle bir ağ, numune üzerinde iyi performans gösterir ve numunenin dışında zayıftır. Aşırı takmaktan nasıl kaçınabilirsiniz? İki popüler yöntem vardır: erken durdurma ve düzenleme. Yazar, küresel arama ile ilgili olarak kendi tercihini tercih eder.

Hikayenin bu kısmını özetleyelim. Bir ağı boyutlandırmak için en iyi yaklaşım, Occam'ın ilkesini izlemektir. Yani aynı performansa sahip iki model için daha az parametreli model daha başarılı genelleme yapacaktır. Bu, performansı artırmak için basit bir model seçmenin gerekli olduğu anlamına gelmez. Bunun tersi doğrudur: birçok gizli nörona ve katmana sahip olmak üstünlüğü garanti etmez. Bugün büyük ağlara çok fazla, gelişimlerinin ilkelerine çok az dikkat ediliyor. Fazlası her zaman için iyi değildir.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...
Neden: