Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2253

 
Vladimir Perervenko :

Diyelim ki (Python kodunda her şey benim için net değil). Ve bu BAE'nin eğitimi nerede?

pyTorch'ta mı?

her şey kenarda

kodlayıcı çalışıyor, sadece sonuçlar onunla daha kötü

Kısacası Kullback-Leibner mesafe modellerini öğrenmek çok zordur, bu varyasyonel kodlayıcıların açıklanan problemidir.

aslında, algoritma 2-3 çağdan sonra "birleşir" ve sonra hiçbir şey olmaz

Varyasyonlu otomatik kodlayıcıların ana dezavantajlarından biri, KL diverjans teriminin integralinin bir avuç dağılım dışında kapalı bir analitik çözüme sahip olmamasıdır. Ayrıca, gizli kod için ayrık dağılımlar kullanmak kolay değildir.   z z . Bunun nedeni, ayrık değişkenler aracılığıyla geri yayılımın genellikle mümkün olmaması ve modelin verimli bir şekilde eğitilmesini zorlaştırmasıdır. VAE ayarında bunu yapmak için bir yaklaşım tanıtıldı   burada
Discrete Variational Autoencoders
  • arxiv.org
Download PDF Probabilistic models with discrete latent variables naturally capture datasets composed of discrete classes. However, they are difficult to train efficiently, since backpropagation through discrete variables is generally not possible. We present a novel method to train a class of probabilistic models with discrete latent variables...
 
mytarmailS :

Ağ ağırlıklarına erişiminiz ve bunları değiştirme olanağınız var mı?

tabiki ama ben neden

 
Maksim Dmitrievski :

her şey kenarda

kodlayıcı çalışıyor, sadece sonuçlar onunla daha kötü

Kısacası Kullback-Leibner mesafe modellerini öğrenmek çok zordur, bu varyasyonel kodlayıcıların açıklanan problemidir.

aslında, algoritma 2-3 çağdan sonra "birleşir" ve sonra hiçbir şey olmaz

Varyasyonlu otomatik kodlayıcıların ana dezavantajlarından biri, KL diverjans teriminin integralinin bir avuç dağılım dışında kapalı bir analitik çözüme sahip olmamasıdır. Ayrıca, gizli kod için ayrık dağıtımları kullanmak kolay değildir.   z z . Bunun nedeni, ayrık değişkenler aracılığıyla geri yayılımın genellikle mümkün olmaması ve modelin verimli bir şekilde eğitilmesini zorlaştırmasıdır. VAE ayarında bunu yapmak için bir yaklaşım tanıtıldı   burada

Makale başka bir şey hakkında. Orada, tüm tahmin edicilerin ayrık [0, 1] olduğu durumu ele alıyoruz. Sonra sorun. Sinir ağı, sıfır varyasyonlu tahmin edicileri anlamıyor.

Senin durumun biraz farklı, anlıyorum. Giriş tahmin edicilerini (sürekli) ve hedefi (ayrık matris ncol=3) birleştirdiniz. Pratik olarak eğitim olmadan, hedef dahil olmak üzere gelenleri oluşturduğunuz (geri yüklediğiniz) gizli olanların niteliksel bir dağılımını elde etmeye çalışıyorsunuz. Seni doğru anladım mı? İyi çalışmayacak. Makale çözümü gösterir. Ayrık hedefi RBM aracılığıyla sürekli bir hedefe çevirin, diğer tahmin edicilerle birleştirin ve ardından BAE'ye gidin (öğrenme!). Ve eğitimli BAE'den örnekler çıkarın ve hedefi RBM aracılığıyla tekrar geri yükleyin. Zor oluyor. Ama işe yarayabilir.

Her zamanki AE krankıyla deneyeceğim.

İyi şanlar

 
Vladimir Perervenko :

Makale başka bir şey hakkında. Orada, tüm tahmin edicilerin ayrık [0, 1] olduğu durumu ele alıyoruz. Sonra sorun. Sinir ağı, sıfır varyasyonlu tahmin edicileri anlamıyor.

Senin durumun biraz farklı, anlıyorum. Giriş tahmin edicilerini (sürekli) ve hedefi (ayrık matris ncol=3) birleştirdiniz. Pratik olarak eğitim olmadan, hedef dahil olmak üzere gelenleri oluşturduğunuz (geri yüklediğiniz) gizli olanların niteliksel bir dağılımını elde etmeye çalışıyorsunuz. Seni doğru anladım mı? İyi çalışmayacak. Makale çözümü gösterir. Ayrık hedefi RBM aracılığıyla sürekli bir hedefe çevirin, diğer tahmin edicilerle birleştirin ve ardından BAE'ye gidin (öğrenme!). Ve eğitimli BAE'den örnekler çıkarın ve hedefi RBM aracılığıyla tekrar geri yükleyin. Zor oluyor. Ama işe yarayabilir.

Her zamanki AE krankıyla deneyeceğim.

İyi şanlar

CVAE'm var. Diğer şeylerin yanı sıra kodlayıcı ve kod çözücü sınıfı etiketlerinde (1,0). Ancak VAE ve CVAE'yi karşılaştırdım, sonuçlar çok farklı değil (aynı vasat)

Hedefler geri yüklenmez, ancak özellikler oluşturulurken belirlenir. Onlar. hangi hedef için işaretler üretecek. Görüntülerin oluşturulduğu örneklerde, bu yapılır, sadece daha fazla hedef vardır, bu yüzden bir van-sıcak olur.

VAE ve GAN karşılaştırma tablolarına baktı. İkincisi çok daha iyi üretiyor, kodlayıcılara tükürmeyi düşünüyorum. Tekerleği yeniden icat etmek için çok fazla istek yok

Belki de sürekliye dönüştürmek mantıklıdır, evet .. ama bir gerçek değil.

küçük bir ihtimal yanlış bir şey yapıyorum .. ama ondan önce kediler üzerinde eğitim aldım)

ZY sayılarla örnekte bile sadece 10 dönem öğrenir ve ardından hata düşmeyi durdurur

 
İlgili Vektörler Yöntemini deneyen var mı?
 

Otomatik kodlayıcılar, verileri daha düşük boyutlara sıkıştırmak veya ondan anlamsal vektörler oluşturmak için daha uygundur. GAN'ların veri oluşturmak için daha uygun olduğu yerler

https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52

Bulanık sonuçların veri sıkıştırmasından kaynaklandığını düşünüyorum. Nöron sayısını artırsanız bile, başka bir dağıtıma geçiş yapan bir tür sıkıştırma hala vardır. Yeni veriler her zaman bulaşır, düzeltilir, vb. Daub'a ihtiyacım yok, inandırıcı örneklere ihtiyacım var.

Tam olarak aynı daub, PCA özellikleri sıkıştırılarak, ardından GMM'ye sürülerek ve ardından PCA'dan sıkıştırılarak elde edilebilir. Bunu yaptım, aynı zamanda bir daub olduğu ortaya çıktı.

Bir benzetme yaparsak, kodlayıcı bir şişede PCA + GMM'dir.

GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
  • Li Yin
  • medium.com
The difference between each other. The purpose of this article is to see the difference of concepts between GANs, conditional GANs, Autoencoder (AE), adversarial autoencoder (AAE), and conditional adversarial autoencoder (CAAE). Unconditional GAN The generator ( G ) and discriminator ( D ) are both feedforward neural networks which play a...
 
Alexey Vyazmikin :
İlgili Vektörler Yöntemini deneyen var mı?

birinci ol

Maksim Dmitrievski :

Tam olarak aynı daub, PCA özellikleri sıkıştırılarak, ardından GMM'ye sürülerek ve ardından PCA'dan sıkıştırılarak elde edilebilir. Bunu yaptım, aynı zamanda bir daub olduğu ortaya çıktı.

Bir benzetme yaparsak, kodlayıcı bir şişede PCA + GMM'dir.

peki, PCA'nın tüm bileşenlerini bırakın ve leke olmayacak, net bir resim olacak

 
mytarmailS :

birinci ol

peki, PCA'nın tüm bileşenlerini bırakın ve leke olmayacak, net bir resim olacak

olmayacak, üretilenin ters dönüşümü sırasında çok fazla gürültü eklenir.

belki değil..ama öyle görünüyor
 
Maksim Dmitrievski :

olmayacak, üretilenin ters dönüşümü sırasında çok fazla gürültü eklenir.

anlamadım, hmm zaten gürültü ekliyor mu? veya nasıl?

 
mytarmailS :

anlamadım, hmm zaten gürültü ekliyor mu? veya nasıl?

Çok düşünmedim, sadece seçime dayalı bir tahmin

hmm size köpeğin daha önce görmediği özellikleri verecektir. Ama gördüklerime benzer. Ters dönüşümle, bu muhtemelen bir şekilde etkileyebilir. Gürültü ekle.

Bu bir varsayımdır.
Neden: