Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 428

 
Maksim Dmitrievski :

Açıkça görülüyor ki, pratikte burada kimsenin karşılaştırma yapmadığını düşünüyorum :) Sonunda diplerning'in ormanlara göre avantaj sağlamadığı ortaya çıkarsa boşuna uğraşmamak için bilgi arayacağım. Ve bileşen MLP olduğu için, vermeyebilir ..

Bu arada 2'den fazla katmanı olan her şeye diplerning, 2 gizli katmana sahip MLP'ye de diplerning denir. Vladimir'in yukarıdaki bağlantıdaki makalede anlattığı derin ağları kastettim.

KESİNLİKLE YANLIŞ. Bu bilgiyi nereden alıyorsun?

Tahmin edicilerin en önemli olduğunu yazmalarına rağmen, modeller yaklaşık olarak aynı çalıştığı için .. ancak bu bir teori, pratikte bir model seçiminin de çok önemli olduğu ortaya çıkıyor, örneğin hız ve arasında bir uzlaşma. kalite, çünkü NN genellikle uzundur . ..

DNN Çok hızlı, doğrulandı

Eh, liba aracılığıyla bir grup P - MT5, pratikte hız ve rahatlık açısından kusurlu , sol yazılım olmadan bir yerele veya MT5'ten P sunucusuna doğrudan bir bağlantıya ihtiyacınız var, ancak bir yerel daha iyidir. µl başına gerekli olan sinir ağını c ++ 'dan yeniden yazmak için 1 kez ve bu kadar.

Neyi kontrol ettiler? sineklerim var

Oh, IMHO'yu eklemeyi unuttum

Uygulamaya dayalı IMHO

İyi şanlar

 
Vladimir Perervenko :

Derin öğrenme (ayrıca derin yapılandırılmış öğrenme veya hiyerarşik öğrenme olarak da bilinir), birden fazla gizli katman içeren yapay sinir ağlarının (YSA) öğrenme görevlerine uygulanmasıdır. Derin öğrenme, göreve özel algoritmaların aksine, öğrenme veri temsillerine dayanan daha geniş bir makine öğrenimi yöntemleri ailesinin parçasıdır. Öğrenme denetimli , kısmen denetimli veya denetimsiz olabilir.


Otomatik kodlayıcılarla diplerning gelince, evet, hızlı, ancak henüz onlara ulaşmadım, bu yüzden mantıklı bir soru vardı - RF'ye göre herhangi bir avantajı var mı?

ps optimize edici de uçar mı? ya buluttaysa?

https://en.wikipedia.org/wiki/Deep_learning

 
Maksim Dmitrievski :

Derin öğrenme (ayrıca derin yapılandırılmış öğrenme veya hiyerarşik öğrenme olarak da bilinir), birden fazla gizli katman içeren yapay sinir ağlarının (YSA) öğrenme görevlerine uygulanmasıdır. Derin öğrenme, göreve özel algoritmaların aksine, öğrenme veri temsillerine dayanan daha geniş bir makine öğrenimi yöntemleri ailesinin parçasıdır. Öğrenme denetimli , kısmen denetimli veya denetimsiz olabilir.


Otomatik kodlayıcılarla diplerning gelince, evet, hızlı, ancak henüz onlara ulaşmadım, bu yüzden mantıklı bir soru vardı - RF'ye göre herhangi bir avantajı var mı?

ps optimize edici de uçar mı? ya buluttaysa?

https://en.wikipedia.org/wiki/Deep_learning

1. Bu tanımı nereden buldunuz? Ciddi misin? Zaman geçtikçe ciddi kaynaklara bağlantılar bulacağım.

2. DNN'nin ön eğitim ile ana avantajı transfer öğrenmesidir. Çok daha hızlı, daha doğru ve... Darch paketini kullanın

3. Herhangi bir optimizasyon R'de yapılmalıdır. Daha hızlı, daha şeffaf ve daha esnek.

İyi şanlar

 
Vladimir Perervenko :

1. Bu tanımı nereden buldunuz? Ciddi misin? Zaman geçtikçe ciddi kaynaklara bağlantılar bulacağım.

2. DNN'nin ön eğitim ile ana avantajı transfer öğrenmesidir. Çok daha hızlı, daha doğru ve... Darch paketini kullanın

3. Herhangi bir optimizasyon R'de yapılmalıdır. Daha hızlı, daha şeffaf ve daha esnek.

İyi şanlar

Bu öğreticinin sonunda, "çok katmanlı algılayıcı" (MLP) adı verilen basit bir derin öğrenme modelinin nasıl çalıştığını ve Keras'ta nasıl oluşturulacağını, MNIST'de iyi bir doğruluk derecesi elde edeceğini anlayacaksınız. Bir sonraki derste, daha karmaşık görüntü sınıflandırma problemlerini (CIFAR-10 gibi) çözme yöntemlerine bakacağız.
(Yapay) nöronlar

"Derin öğrenme" terimi daha geniş anlamda anlaşılabilmesine rağmen, çoğu durumda (yapay) sinir ağları alanında uygulanmaktadır.


https://habrahabr.ru/company/wunderfund/blog/314242/

ve bu yüzden


Belki de hepsi yalandır bilmiyorum)

tabii ki IMHO

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
Tahminciler ne cehennemde? Zaman serisi öngörücüdür͵ Sadece NN'nin biraz daha derine ihtiyacı var ͵
(cep telefonundan)
 
Yuri Asaulenko :
Tahminciler ne cehennemde? Zaman serisi tahmin edicidir͵
(cep telefonundan)

(c) koymayı unutmuşum :))
 
Maksim Dmitrievski :

(ler) koymayı unuttum :))
Ve kimden alıntı yaptın?
 
Yuri Asaulenko :
Ve kimden alıntı yaptın?
Peki, kendisi. telif hakkı türü)
 
Maksim Dmitrievski :
Bu öğreticinin sonunda, "çok katmanlı algılayıcı" (MLP) adı verilen basit bir derin öğrenme modelinin nasıl çalıştığını ve Keras'ta nasıl oluşturulacağını, MNIST'de iyi bir doğruluk derecesi elde edeceğini anlayacaksınız. Bir sonraki derste, daha karmaşık görüntü sınıflandırma problemlerini (CIFAR-10 gibi) çözme yöntemlerine bakacağız.
(Yapay) nöronlar

“Derin öğrenme” terimi daha geniş anlamda anlaşılabilmesine rağmen, çoğu durumda (yapay) sinir ağları alanında uygulanmaktadır.


https://habrahabr.ru/company/wunderfund/blog/314242/

ve bu yüzden


Belki de hepsi yalandır bilmiyorum)

tabii ki IMHO

Hayır, yalan söylemezler. Aşağıda bir açıklama var (hiçbir şekilde bitirmeyeceğim bir makaleden :(

Tanıtım

Araştırma ve uygulamanın ana yönleri

Şu anda, derin sinir ağlarının incelenmesi ve uygulanmasında (sadece çok katmanlı tam bağlantılı sinir ağlarından - MLP'den bahsediyoruz), gizli katmanlarda nöron ağırlıklarının ilk başlatılmasına yaklaşımda farklılık gösteren iki ana akış oluşmuştur.

Birincisi : Sinir ağlarının, özellikle gizli katmanların sayısı 3'ten fazla arttığında, nöronların gizli katmanlarda başlangıçta başlatılma şekline son derece duyarlı olduğu iyi bilinmektedir. Bu sorunu çözmek için ilk itici güç Profesör G. Hynton tarafından önerildi. Önerinin özü, sinir ağının gizli katmanlarındaki nöronların ağırlıklarını, RBM (sınırlı Boltzmann makinesi) veya AE'den (otomatik kodlayıcı) oluşan otomatik ilişkisel ağların denetimsiz öğrenmesi sırasında elde edilen ağırlıklarla başlatmaktı. Bu Yığılmış RBM (SRBM) ve Yığılmış AE (SAE), çok sayıda etiketlenmemiş veri üzerinde belirli bir şekilde eğitilir. Bu tür bir eğitimin amacı, verilerdeki gizli yapıları (temsiller, görüntüler) ve bağımlılıkları ortaya çıkarmaktır. MLP nöronlarının eğitim öncesi ağırlıklarla başlatılması, MLP'yi optimuma en yakın çözüm uzayına yerleştirir. Bu, MLP'nin sonraki ince ayarının (eğitiminin), daha az eğitim dönemiyle daha az miktarda etiketli veri kullanmasını mümkün kılar. Birçok uygulama için (özellikle "büyük veri"nin işlenmesinde) bunlar kritik avantajlardır.

İkincisi: Bir grup bilim insanı (Bengio ve diğerleri), gizli nöronların ilk başlatılması için özel yöntemlerin, özel aktivasyon fonksiyonlarının, stabilizasyon ve öğrenme yöntemlerinin geliştirilmesi ve araştırılmasına odaklandı. Bu yöndeki ilerlemeler, esas olarak, görüntü tanıma, metin analizi ve sınıflandırmada ve bir dilden diğerine canlı konuşma çevirisinde şaşırtıcı sonuçlar gösteren derin evrişimli ve tekrarlayan sinir ağlarının (DCNN, RNN) hızlı gelişimi ile ilişkilidir. Bu sinir ağları için geliştirilen fikirler ve yöntemler, daha az başarı ile MLP'ye uygulanmaya başlandı.

Günümüzde pratikte her iki yön de aktif olarak kullanılmaktadır. Bu iki yaklaşımın karşılaştırmalı deneyleri [ ], bir yaklaşımın diğerine göre önemli avantajlarını ortaya çıkarmadı, ancak yine de bir tane var. Önceden eğitilmiş sinir ağları, neredeyse eşit sonuçlara sahip eğitim ve hesaplama kaynakları için çok daha az örnek gerektirir. Bazı alanlar için bu çok önemli bir avantajdır.

İyi şanlar

 
Vladimir Perervenko :

Bugün, pratikte her iki yön de aktif olarak kullanılmaktadır. Bu iki yaklaşımın karşılaştırmalı deneyleri [ ], bir yaklaşımın diğerine göre önemli avantajlarını ortaya çıkarmadı, ancak yine de bir tane var. Önceden eğitilmiş sinir ağları, neredeyse eşit sonuçlarla eğitim ve hesaplama kaynakları için çok daha az örnek gerektirir. Bazı alanlar için bu çok önemli bir avantajdır.

İyi şanlar

Son zamanlarda, daha önce aşina olduğum GARCH'a geri döndüm. Yıllarca süren makine öğreniminden sonra beni en çok şaşırtan şey, GARCH'ı para birimleri de dahil olmak üzere finansal zaman serilerine uygulama konusunda çok sayıda yayın oldu.


Derin ağlar için benzer bir şey var mı?