Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 637

 
Alexander_K2 :

:)))) Bu durumda Büyücü yardıma çağrılmalıdır :)))).

Sadece bir şey söyleyebilirim - trend / düz durumdan sorumlu olan negentropidir. Eğilim, sürecin "hafızası", dağılımın "kuyruğu" ve negentropi çok büyük ve düzlükte neredeyse 0. Bununla sadece kendim ilgileniyorum, ama bu küçük şeyin önemini anlıyorum- çalışılan parametre.

Hiçbir şey ona yardım etmeyecek. Yemek kaşığı gibi bir trend/düz değiştirici zamanında iyi olmalıdır.

Kırmızı çizgi - gerçek. Syn.-modeli. Bu örnekte, çok geç. Alttaki resim, model gecikmiş...


 
Michael Marchukajtes :
Kardeşler bizim için küçük bir adım atmaya devam ediyor ama tüm insanlık için büyük bir adım olacak.....

Mişa, inandım! Biliyordum! Yakışıklı! Sen en iyisin!)))

 
Sihirbaz_ :

Mişa, inandım! Biliyordum! Yakışıklı! Sen en iyisin!)))

Desteğin için teşekkürler dostum!!!!! Ona gerçekten ihtiyacım var. Sadece bir dahaki sefere bana hitap ederken doğru yaz. güzelYYY!!!! Kulağa çok daha iyi geliyor...

 

Devam edelim...

Değerleri olan iki sütun var, A sütununda bir olayın olasılığını ve B sütununda başka bir olayın olasılığını hesapladım. Durum çok basit > 0. A sütununda sıfırdan büyük olayların sayısı sayılır ve toplam satır sayısına bölünür, B sütununda aynı sayıda değer sayılır ve toplam gözlem sayısına bölünür.

Değerlerimle daha fazla çalışma, koşullu olasılığı nasıl hesaplayabilirim???? İki sütunum olduğunu ve her ikisinin de 40 satırı olduğunu düşünürsek ????

 
Michael Marchukajtes :

Tamam, diğer tarafa gideceğim. Diyelim ki 100 girişlik bir giriş setim var. Her girdi için entropiyi hesapladım ve -10 ile 10 arasında sonuçlar aldım. Soru: Hangi girdilerin alınması tercih edilir????

Diyelim ki sıfırın altında 10 girişim var, diğerleri yukarıda, AMA tüm değerler -10 ile 10 arasında.....

Michael Marchukajtes :

Ve bir şey daha... Karşılıklı bilgiyi hesaplayamıyorum.... Daha doğrusu, daha sonraki entropi ve VI hesaplaması için koşullu olasılığı.

Parmaklarda ktonit açıklayabilir veya daha iyi bir örnek.

ilk sütun 40 satır giriş değişkeni

ikinci sütun 40 satır kapalı ....

Geceleri, hipotezi belirlemek için harika bir iş çıkardı. Burada bu şeylerin içinde dinlendim ve hiçbir şey. Lütfen yardım edin ve hipotezim hakkındaki düşüncelerimi ifade edeceğim ...


Bilgi teorisi okumadım, ancak R'de entropi konusunda biraz deneyimim var.

Aslında, daha fazla entropi, verilerde daha fazla kaos. Yüksek entropiye sahip bir tahmin edici, hedefle oldukça zayıf bir şekilde ilişkilidir. Ve tam tersi - düşük entropi, hedefin tahmin ediciden kolayca belirlendiğini gösterir.

Negentropi, entropinin tersidir, enropi ile karşılaştırıldığında yeni bir bilgi getirmez, sadece kolaylık sağlamak için tanıtıldı. Öngörücünün büyük bir entropisi varsa, o zaman negentropi küçüktür. Entropi küçükse, negentropi büyüktür. Sıcak ve soğuk, aydınlık ve karanlık vb. gibi, biri diğerine yumuşak bir şekilde geçer.

Ama hepsi bu kadar değil, bir de çapraz entropi var. Bu, her iki öngörücünün birlikte hedefle ilişkisidir, yüksek çapraz entropi kötü, düşük çapraz entropi iyidir. Makine öğreniminde, genellikle birlikte kullanıldığında yüksek entropili iki öngörücünün düşük çapraz entropi verdiği görülür, hepimizin ihtiyacı olan budur. Tahmin edicilerin her biri kendi başına hedefle kötü bir şekilde ilişkili olsa da (her ikisi için de yüksek entropi), ancak ikisi birlikte tam isabet sağlayabilirler (düşük çapraz entropi). Bu nedenle, her bir tahmincinin entropisini ayrı ayrı ölçemez ve tahmine göre bir küme seçemezsiniz. Düşük çapraz entropili tüm öngörücü setini seçmek gerekiyor, örneğin entropilerine ayrı ayrı bakmıyorum bile.

İşte örnekler -

1) Yüksek entropi tahmincisi. Hedef sınıfı ondan tahmin etmek genellikle imkansızdır.

2) Düşük entropi tahmincisi. Yakından bakarsanız, tahmin değeri 0 ile 0,25 arasında veya 0,4'ten küçükse, sınıf değeri = 1. Aksi takdirde, sınıf = 2. Bu, ML'de kullanmak için çok uygun bir tahmin edicidir.

3) her biri yüksek bir entropiye sahip iki öngörücü ve model, yalnızca birinci veya yalnızca ikinci öngörücüyü kullanarak hedefi asla tahmin edemez. Ancak onları bir araya getirdiğimizde (X ekseni birincinin değeridir ve Y ikincinin değeridir), birlikte hedef sınıf hakkında çok iyi bilgi verdikleri hemen açıktır (her iki tahmin için de aynı işaret = sınıf1, farklı işaret = sınıf2). Bu, düşük çapraz entropiye bir örnektir.


 
Michael Marchukajtes :

Desteğin için teşekkürler dostum!!!!! Ona gerçekten ihtiyacım var. Sadece bir dahaki sefere bana hitap ederken doğru yaz. güzelYYY!!!! Kulağa çok daha iyi geliyor...

Bu yüzden seni seviyoruz Usta! Her zaman hızlı, her zaman doğru! sen bizim canımızsın!!!)))

"Mishanina'nın Tanıkları". Şubat 2018


 
Kınamalara aldırmadan devam edeceğim. Koşullu olasılık benim tarafımdan aşağıdaki gibi hesaplanır. İlk sütundaki koşulu sağlayan veri sayısı 19, ikinci sütundaki 20'dir. Koşullu olasılığı bulmak için. 19+20 ekleyip toplam 80 olan kayıt sayısına bölüyorum (ilk sütunda 40, ikinci sütunda 40). Ve olasılığa bölmeniz gerekir .... Eğer A-giriş sütunum ve B-çıktı sütunum varsa, o zaman girişin koşullu olasılığını bulmak için, toplam olasılığı girişin olasılığına bölmeniz gerekir. kolon. Doğru şekilde???
 
Michael Marchukajtes :

Yine bir soru. NS'nin 8 modeli vardır. Akım sinyalinde, NS çıkışlarının entropileri aşağıdaki gibidir.

5.875787568 - 5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925

Hangisini seçmeli? Kırmızı? negatif entropisi veya mavisi olduğu için mi? sıfıra yakındır. Bu iki modelin farklı yönlere baktığını söyleyeceğim ama biliyoruz ki kimin haklı olduğunu zaman gösterecek.... Sonunda biri kazanacak. Bunu kim düşünüyor???

Yukarıda yazdıklarımı özetlersek, önce öngörücü kombinasyonlarının çapraz entropisini belirlemelisiniz ve çapraz entropinin daha düşük olduğu bu öngörücü kombinasyonunu almalısınız. Negatif almanız garip, benim durumumda sadece sonsuzdan sıfıra, ama önemli değil, o zaman en olumsuz olanı alın.

NS'nin çıktı entropisi, bence, nöronun kendisinin bir değerlendirmesi kadar kötü. Sonuçta, ağın çıkışlarını, vakaların %100'ünde doğru cevabı verecek şekilde ayarlayabilirsiniz ve düşük entropi elde edersiniz, ancak aynı zamanda büyük bir fazla takma mümkündür. Fazlalık kötü.

 

Gerçek şu ki, Excel için entropiyi hesaplayan bir eklenti buldum. Hesaplamanın mantığını değiştirmeden ihtiyacım olan formda bitirdim ve buna göre böyle bir sorum var. Bu sikloaların hesaplanmasında burada ne olduğunu açıklayın. Tam olarak ne yaptıklarını anladım, ama işte bunu farklı bir şekilde nasıl göreceğimiz .... Hmm ....

ActiveSheet.Range(Data1) İçindeki Her Değer İçin

X(I) = Değer

Nn = Nn + Değer

ben = ben + 1

Sonraki Değer

Bu döngüde X dizisi yazılır ve kümülatif miktar da soru yokmuş gibi gider ama sonra ....

I = 1'den N'ye

X(I) = X(I) / Nn

sonraki ben

Dizinin her bir elemanını toplam değer miktarına bölüyoruz, bu yüzden bunun sadece aynı frekans araması olduğundan şüpheleniyorum. Doğru şekilde????

Pekala, işte bu... bir nevi anlaşıldı, olasılığı bulmak için tüm frekansları toplamamız gerekiyor. Çok doğru?

 
Dr. tüccar :

Yukarıda yazdıklarımı özetlersek, önce öngörücü kombinasyonlarının çapraz entropisini belirlemelisiniz ve çapraz entropinin daha düşük olduğu bu öngörücü kombinasyonunu almalısınız. Negatif almanız garip, benim durumumda sadece sonsuzdan sıfıra, ama önemli değil, o zaman en olumsuz olanı alın.

NS'nin çıktı entropisi, bence, nöronun kendisinin bir değerlendirmesi kadar kötü. Sonuçta, ağın çıkışlarını, vakaların %100'ünde doğru cevabı verecek şekilde ayarlayabilirsiniz ve düşük entropi elde edersiniz, ancak aynı zamanda büyük bir fazla takma mümkündür. Fazlalık kötü.

Çapraz entropiyi bulmak için önce iki olayın koşullu entropisini bulmanız gerekir, şu anda tam olarak bunu yapıyorum ....

Ve modelin entropisinin tahmini, modelin FOS üzerinde çalışması sırasında gereklidir. Bir sinyal vererek, bu sinyalin entropisini hesaplayabilir ve bundan sonuçlar çıkarabiliriz. Sinyalin entropisi arttı. Lanet olsun, düştü, bu bizim buharlı lokomotifimiz ....

Neden: