Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1967

 
mytarmailS :

xs .. 4 kere okudum anlamadım, hoca vardır belki takviyeler?

+ katmanlardan hala bir oy var

Eh, evet, LQV'deki bellek, LQV nöronlarının son çıktıları şeklindedir, ancak bu şekilde anlıyorum, hafıza sadece bir adım geridir..

Peki ya bir çaydanlık ve kahve ile bu harika benzetme? Bütün huy bu..


Sana böyle mesaj atmadı mı?

Kahretsin, bunu öğrettikleri yerde ilginç, zaten yol boyunca sibernetik, robotik, AI ...

DataScientists bu Teknoloji Enstitüsünde sadece fiziksel öğretmenlerdir)))


================================================= ===========

ayrıca dinamik bir LVQ var - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detaylar

dlvq : DLVQ kullanmak için giriş normalleştirilmelidir.

DLVQ'da eğitim: Her sınıf için ortalama bir vektör (prototip) hesaplanır ve (yeni oluşturulan) bir gizli modülde saklanır. Ağ daha sonra en yakın prototipi kullanarak her bir modeli sınıflandırmak için kullanılır. Şablon yanlışlıkla x sınıfı yerine y sınıfı olarak sınıflandırılırsa, y sınıfının prototipi şablondan uzaklaştırılır ve x sınıfının prototipi şablona doğru hareket ettirilir. Bu prosedür, sınıflandırmada daha fazla değişiklik kalmayana kadar iteratif olarak tekrarlanır. Yeni prototipler daha sonra her sınıf için yeni gizli birimler olarak ağa dahil edilir ve o sınıftaki yanlış sınıflandırılmış şablonların ortalama vektörü ile başlatılır.

Ağ mimarisi: Ağ, her prototip için bir birim içeren yalnızca bir gizli katmana sahiptir. Prototipler/gizli bloklar aynı zamanda kod çizelgesi vektörleri olarak da adlandırılır. SNNS birimleri otomatik olarak oluşturduğundan ve önceden birim sayısını belirtmenizi gerektirmediğinden, SNNS'deki prosedüre dinamik LVQ adı verilir.

Varsayılan başlatma, öğrenme ve güncelleme işlevleri bu ağ türü için uygun olanlardır. Öğrenme fonksiyonunun üç parametresi, iki öğrenme oranını (doğru/yanlış sınıflandırılmış durumlar için) ve ortalama vektörleri hesaplamadan önce ağın eğittiği döngü sayısını belirler.

Bağlantılar

Kohonen, T. (1988), Self-organization and associative memory , Cilt.   8, Springer-Verlag.



================================================= ======


Kahretsin, bu LVQ hakkında okuyorum, sadece bir öğretmenle pratik olarak aynı Kohonen (SOM)

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,o%20instances%20should%20look%20like.

LVQ'su yok, ama VQ'su var

cevap vermiyor

Muhtemelen seyrek bağlantılar nedeniyle, bir şekilde tüm nöronlar her zaman aktif değildir, bu nedenle bellek daha uzun süre saklanabilir. Sözde kod kitabı.

Bunların hepsi yönetim teorisinden, muhtemelen üniversitelerde ders veriyorlar. Orijinal makale, bazı Çinlilerden 2015 yılına kadar uzanıyor. Buna erişimim yok. Büyük olasılıkla bu zaten bir yeniden yapım.

 
Maksim Dmitrievski :

LVQ'su yok, ama VQ'su var

cevap vermiyor

Muhtemelen seyrek bağlantılar nedeniyle, bir şekilde tüm nöronlar her zaman aktif değildir, bu nedenle bellek daha uzun süre saklanabilir. Sözde kod kitabı.

Bunların hepsi yönetim teorisinden, muhtemelen üniversitelerde ders veriyorlar. Orijinal makale, bazı Çinlilerden 2015 yılına kadar uzanıyor. Buna erişimim yok. Büyük olasılıkla bu zaten bir yeniden yapım.

Vektörlerin önce çıplak veriler üzerinde nicelleştirildiği ve ardından sonucun dikkate alındığı ve sonuç daha doğru olduğu ortaya çıktı. En azından negatif sonuç için bir filtre belirir. Farklı kümeler için özellik kümeleri, bir diziyi farklı kararlı alanlara bölmek gibidir.

 
Valeriy Yastremskiy :

Vektörlerin önce çıplak veriler üzerinde nicelleştirildiği ve ardından sonucun dikkate alındığı ve sonuç daha doğru olduğu ortaya çıktı. En azından negatif sonuç için bir filtre belirir. Farklı kümeler için özellik kümeleri, bir diziyi farklı kararlı alanlara bölmek gibidir.

Uzun hafızanın nereden geldiğini hayal etmek zor. Örneğin, önceki yinelemede son nöron sıfır verdi, iz üzerindeki ilk nöronun girdi vektörüne ekledik. yinelemeler. Bu + 1 boyuttur, yani. işaretleri yeni bir alana yerleştirdi, önceki eylemlere bağlı olarak daha karmaşık bir koşullu duruma geldi. İlk nöron çalıştı, birim vektörü sonuncuya geçirdi. Bu yine ilkine 0 veya 1 döndürdü. Diyelim ki sadece 2 küme var, hafıza 1 adımdan daha derinden nereden geliyor?

Diyelim ki başka bir +1 değeri alan 3. bir nöron var. Daha da karmaşık bir koşullu durum. Ve böylece, hafızayı artırarak saklanır ... hayal etmesi zor :)

 
Maksim Dmitrievski :

......... hangi hafızanın depolandığını ... hayal etmek zor :)

benim için daha da zor)

====


ilişkisel ağ

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Aynı kümelenme değil mi? ve ilişkisel görüntü kümenin prototipidir

 
mytarmailS :

benim için daha da zor)

İkinci katmanda, yinelenen bağlantılar şeklinde bellek de ekleyebilirsiniz, ancak onlarsız çalışır. 1'de aynı şekilde depolama anlamına gelir.

 
mytarmailS :

benim için daha da zor)

====


ilişkisel ağ

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Aynı kümelenme, değil mi? ve ilişkisel görüntü kümenin prototipidir

evet, ama ajanın önceki eylemlerinin bir anısı yok, bu farklı

Gidip ayak örtüsünü tekrar okuyacağım, sonra kodu seçeceğim

 
Maksim Dmitrievski :

evet, ama ajanın önceki eylemlerinin bir anısı yok, bu farklı

Gidip ayak örtüsünü tekrar okuyacağım, sonra kodu seçeceğim

bak düşünelim)

aracının eylemi bir görüntüdür, bir kalıptır (küme)

eylem dizisi (kümeler) bellektir


aracı eylemleri veya herhangi bir şey, bir küme dizisi olarak temsil edilebilir

ve burada "kahve dökün" gibi bir kalıp var, ama aynı zamanda "kahve zaten demlenmiş olmalı"


bir geçiş modeli olarak temsil edilebilir


 
mytarmailS :

iyi, bir düşünelim)

aracının eylemi bir görüntüdür, bir kalıptır (küme)

eylem dizisi (kümeler) bellektir

aracı eylemleri veya herhangi bir şey, bir küme dizisi olarak temsil edilebilir

Kesinlikle bu şekilde değil. Aracının önceki eylemi + ortam durumu (özellik seti) bir kalıptır (koşullu durum). Ve önceki eylem ve özellikler 1 vektöre itilir.

ancak nöronlarda, yalnızca çıkış sinyallerinin korunması yoluyla geçen kalıpların dizisi hakkında açık bir bilgi yok gibi görünüyor. Ve orada sadece 1 (mevcut) kalıp işlendi. Onlar. daha karmaşık koşullu durumlar bir şekilde bir grup nöron tarafından kodlanır.

 

Maksim Dmitrievski :

Ve önceki eylem ve özellikler 1 vektöre itilir.

ama nöronlarda dizi hakkında açık bir bilgi yok, öyle görünüyor ki, sadece çıkış sinyallerinin korunması yoluyla. Ve orada sadece 1 desen işlendi.

Bir vektöre, aynı umap'a indirgenebilir. 2k özelliği böyle sıkıştırdım)

 
mytarmailS :

Bir vektöre, aynı umap'a indirgenebilir. 2k özelliği böyle sıkıştırdım)

peki, bu katmanın böyle bir şey yaptığı anlamına gelir

Neden: