Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3

 

Aynı girdileri atma yoluna gidebilirsiniz. Birbiriyle her sütun için ortalama sapmayı hesaplayın. Böylece en benzer iki sütunu bulabilir, birini atabilirsiniz. İkisinden hangisi tüm sütunlar için ortalama sapmadan hesaplanabilir, vb.

 
Dr.Tüccar :

Görsel olarak, tüm ağırlıklar iki gruba ayrılır. Bunları anlamlı/önemsiz ilkesine göre bölmek gerekirse, o zaman 5,11,7,1,3,9 açıkça ayırt edilir, bu kümenin yeterli olduğunu düşünüyorum.

Bu doğru karar!

NS'nin bunu yapabileceğini bilmiyordum. Benim için bu bir keşif.

Sinir ağlarının etkileşimleri modelleyebileceği ortaya çıktı.

Sana bir ödülüm var. Teşekkür ederim!

 

Doğru, NN'ler düzenlilik türü hakkında bir fikir vermez. Yani modelin yorumu tartışmalıdır.

Daha sonra bir veri seti oluşturma mantığını ortaya koyacağım ve bağımlılık türü hakkında konuşacağım.

 
Dr.Tüccar :

Görsel olarak, tüm ağırlıklar iki gruba ayrılır. Bunları anlamlı/önemsiz ilkesine göre bölmek gerekirse, o zaman 5,11,7,1,3,9 açıkça ayırt edilir, bu kümenin yeterli olduğunu düşünüyorum.

İlgileniyorsanız, veri kümesinden herhangi bir önemli tahmin ediciyi kaldırmayı deneyin ve NN'yi tekrar eğitin ve ağırlıkları olan bir resim görüntüleyin. Bir sürpriz olacağını düşünüyorum.

Artık sıra dışı. Konunun büyümesi için.

 
Alexey Burnakov :

İlgileniyorsanız, veri kümesinden herhangi bir önemli tahmin ediciyi kaldırmayı deneyin ve NN'yi tekrar eğitin ve ağırlıkları olan bir resim görüntüleyin. Bir sürpriz olacağını düşünüyorum.

Artık sıra dışı. Konunun büyümesi için.

Soba, her zaman ondan dans etmeniz gerektiği anlamında çok önemli bir iç detaydır.

Dr.Tüccar

NN ile ilgili örneğiniz yalnızca, NN'nin belirttiğiniz tahmin edicileri daha çok beğendiğini ve diğerlerinden hoşlanmadığını söylüyor. Böyle şeyler yapan algoritmalar bir düzine kuruştur.

Tüm bunlar, hedef değişken için ilgili, tahmin gücü, tahmin gücü olan tahminciler arasından böyle bir seçim yapılırsa iyi olur.

Uygulamama göre, her zaman keyfi bir dizi tahmin edici arasında, hedef değişkenle ilgili olmayan (veya çok zayıf bir şekilde) tahmin ediciler vardır. Bu nedenle, bu tür gürültü tahmin edicilerinin belirli bir sayıda veya bunların rastgele seçilmiş değerlerinin varlığında, NN de dahil olmak üzere çoğu algoritmanın bilgi tahmin edicilerini gürültü olanlardan ayırt edememesi gerçeğinde yatar.

Bu nedenle, "soba", ilk öngörücü kümesini umutsuz, gürültülü öngörücülerden önceden temizlemenize izin veren bir eylem olarak tanımlanır ve ancak o zaman ...

not.

NN ile çalışmadım, ancak belirli sayıda gürültü öngörücüsü olan rastgele ormanlar , yerleşik algoritmalarına göre bilgi öngörücülerini atmaya çalışıyor. Sonuç olarak, gürültü %5'ten daha az bir hatayla olağanüstü performans verir!

PSPS

Gürültü tahmincilerinin hatasız mevcudiyeti, gerçek yaşam için tüm sonuçları ile modelin yeniden eğitilmesine yol açar.

 
San Sanych Fomenko :

Soba, her zaman ondan dans etmeniz gerektiği anlamında çok önemli bir iç detaydır.

Dr.Tüccar

NN ile ilgili örneğiniz yalnızca, NN'nin belirttiğiniz tahmin edicileri daha çok beğendiğini ve diğerlerinden hoşlanmadığını söylüyor. Böyle şeyler yapan algoritmalar bir düzine kuruştur.

Tüm bunlar, hedef değişken için ilgili, tahmin gücü, tahmin gücü olan tahminciler arasından böyle bir seçim yapılırsa iyi olur.

Uygulamama göre, her zaman keyfi bir dizi tahmin edici arasında, hedef değişkenle ilgili olmayan (veya çok zayıf bir şekilde) tahmin ediciler vardır. Bu nedenle, bu tür gürültü tahmin edicilerinin belirli bir sayıda veya bunların rastgele seçilmiş değerlerinin varlığında, NN de dahil olmak üzere çoğu algoritmanın bilgi tahmin edicilerini gürültü olanlardan ayırt edememesi gerçeğinde yatar.

Bu nedenle, "soba", ilk öngörücü kümesini umutsuz, gürültülü öngörücülerden önceden temizlemenize izin veren bir eylem olarak tanımlanır ve ancak o zaman ...

not.

NN ile çalışmadım, ancak belirli sayıda gürültü öngörücüsü olan rastgele ormanlar, yerleşik algoritmalarına göre bilgi öngörücülerini atmaya çalışıyor. Sonuç olarak, gürültü %5'ten daha az bir hatayla olağanüstü performans verir!

PSPS

Gürültü tahmincilerinin hatasız mevcudiyeti, gerçek yaşam için tüm sonuçları ile modelin yeniden eğitilmesine yol açar.

NS çok iyi bir iş çıkardı.

Rastgele orman, bir dizi değişkenin etkileşiminin olduğu böyle bir görevde ustalaşamadı. Ve her tahmin edicinin bireysel önemi kasıtlı olarak sıfırdı.

 

İşe yaramasına sevindim :), ödül için teşekkürler.

Bir girişi kaldırmaya çalıştım (4 durum) - input_5 veya input_9'u kaldırırsanız, başka hiçbir şey çalışmaz, aynı konfigürasyona sahip bir nöron bir hata %50'den az olana kadar eğitim bile vermez, sadece 0 veya çıktı vermeye başlar 1. büyük durumda.

input_20'yi kaldırırsanız, her şey yolundadır, sonuç doğrudur. Ama input_15 ile garip çıktı, eğer kaldırırsanız, nöron gerçekten öğrenmedi bile, problemler input_5 veya input_9'u kaldırırsanız aynıdır. Daha fazla kontrol etmedim.

İlgileniyorsanız, bir nöronu eğitmek için R kodlu bir dosya ekledim. Aslında, Rattle günlüğünden sadece biraz değiştirilmiş bir kod var.

Dosyalar:
r_nnet.zip  3 kb
 
Dr.Tüccar :

İşe yaramasına sevindim :), ödül için teşekkürler.

Bir girişi kaldırmaya çalıştım (4 durum) - input_5 veya input_9'u kaldırırsanız, başka hiçbir şey çalışmaz, aynı konfigürasyona sahip bir nöron bir hata %50'den az olana kadar eğitim bile vermez, sadece 0 veya çıktı vermeye başlar 1. büyük durumda.

input_20'yi kaldırırsanız, her şey yolundadır, sonuç doğrudur. Ama input_15 ile garip çıktı, eğer onu kaldırırsanız, o zaman nöron gerçekten öğrenmedi bile, problemler input_5 veya input_9'u kaldırırsanız aynıdır. Daha fazla kontrol etmedim.

İlgileniyorsanız, bir nöronu eğitmek için R kodlu bir dosya ekledim. Aslında, Rattle günlüğünden biraz değiştirilmiş bir kod var.

Bana kart veya E-cüzdan numarasını içeren bir mesaj gönder
 

Genel olarak, süreç anlaşılabilir, nöron sadece mevcut verileri bir tür mantığa sığdırmaya çalışır ve eğer girdilerin bazıları yeni bilgi taşımıyorsa, zarar vermemek için etkilerini en aza indirir. Girdilerin karmaşık ara bağlantılarını bulması pek olası değil, katılıyorum.

Ayrıca, R'deki nnet paketi oldukça sıradan bir nöron değildir. Açıklamadan, ikinci dereceden öğrenmeyi kullanmalıdır. Genellikle, nöronlarda ağırlıklar türevlere göre değişir, ancak burada - türevlerden türevlere göre. Ve eğitim sırasında, tüm eğitim örnekleri için aynı anda tüm ağırlıklar hakkında önemli verileri depolayan belirli bir "kendir" matrisi oluşturulur. Çok havalı diyorlar, bu paket sağlam olmalı. https://ru.wikipedia.org/wiki/Broyden's_Algorithm_—_Fletcher_—_Goldfarb_—_Shanno - Bunu anlamadım, ama biri matematikçiyse, o anlayacaktır.

Алгоритм Бройдена — Флетчера — Гольдфарба — Шанно — Википедия
  • ru.wikipedia.org
Алгоритм Бройдена — Флетчера — Гольдфарба — Шанно (BFGS) (англ. Broyden — Fletcher — Goldfarb — Shanno algorithm) — итерационный метод численной оптимизации, предназначенный для нахождения локального максимума/минимума нелинейного функционала без ограничений. BFGS — один из наиболее широко применяемых квазиньютоновских методов. В...
 
Garip sonuçlar hakkında:
Herhangi bir önemli tahmin ediciyi kaldırırsanız, hiçbir şey işe yaramaz. Bu etkileşimdir.

Tahmin edicilerin her biri çıktı durumu hakkında hiçbir şey söylemez. Bu nedenle, bireysel önemi dikkate alan algoritmalar çalışmayacaktır. Ayrıca, karar ağaçları ve rastgele ormanlar, tahmin edicileri ayrı ayrı dikkate aldıkları için neredeyse kesinlikle çalışmayacaktır. Ancak on binlerce ağaçtan oluşan devasa bir orman, yanlışlıkla önemli tahmincileri tek bir dalda birleştirebilir ve o zaman her şey yoluna girer. Ama pek.

Niye ya?

Etkileşim, bir araya getirilen bir dizi tahmin ediciden bir çıktıya akan bilgidir. Bağımlılık algoritması, anlamlı tahmin edicilerin toplamı 50/50 çift veya tek olabilecek şekildedir. Çift ise, çıktı 1'dir. Aksi takdirde 0 olur. Bu nedenle, önemli tahmin edicilerden en az birinin kaldırılması bağımlılığı kırar. Ve ekstra tahmin edicilerin eklenmesi onu gürültülü hale getirebilir, böylece stat.test anlamlılık göstermez.

Normal bir NN'nin böyle bir bağlantı kurabilmesine gerçekten şaşırdım. Şimdi MLP'nin anlamlı girdileri belirleme yeteneğine inanmaya başlıyorum. Yaşasın.

Sonuçta, kafasına çiviyi vurdun. Rastgele orman yetiştirmeye çalışırsanız, neredeyse kesinlikle başarısız olursunuz.

Ayrıca lojistik regresyonun işe yaramayacağından oldukça eminim.

Tek kelimeyle, bu görev, uygun şekilde seçilmiş bir uygunluk fonksiyonuna sahip farklı tahmin edici alt kümelerinin stokastik bir sayımını gerektirir. Peki veya NS)))

Yöntemimi daha sonra yazacağım.

Belki başka biri tahmin edicileri farklı bir şekilde seçmeye çalışır ve sonra sonuçları karşılaştırabiliriz.

Neden: