Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 395

 
Dr. tüccar :


O zamanlar R'yi yeni öğrenmeye başlıyordum, komut dosyası neredeyse tamamen çıngırakta (R'de veri madenciliği için görsel bir ortam) oluşturuldu, bu yüzden bu kadar karmaşık ve her durum için ayarlanmış.


Bu

ile değiştirilmesi gerekiyor

Ve normal gibi olmalı.


Genel olarak kötü bir yaklaşım var, girdilerin önemini bu şekilde belirlemeye gerek yok. Nedense o zaman işe yaradı, ama bir daha bana hiç yardımcı olmadı.

Daha fazla denendi...

Gizli katmanda 1 - 2 nöron ayarlarsanız, önemli girdiler birkaç kez farklılık gösterir:

152,33 7,82 132,57 12,19 132,86 10,54 135,56 19,16 137,32 14,84 127,36 7,43 11,35 6,66 13,6 10,98 10,74 18,66

10'u ayarlarsanız (ikinci denemenizde olduğu gibi), ağırlıklar nöronlara yayılır ve önemli olanları gürültülü olanlardan ayırt edemezsiniz:

113963.27, 91026.57, 100833.22, 134980.44, 154190.05, 146455.03, 198703.01, 135775.2, 184353.78, 160766.79, 152433.73, 105753.11, 151673.83, 135421.64, 165343.94, 70277.93, 17502.56.87 nöronlar

Görünüşe göre bu mantıksal görev için 1 nöron en uygunudur.

 
Maksim Dmitrievski :


Alglib'deki karar ağaçlarını tekrar deneyin, daha hızlı kabul edilirler ve doğruluk MLP'den daha iyidir. Diplerning ayrıca daha hızlı hesaplar, ancak artık alglib'de değil

Önemli olan hız/kalite oranı, sayarken bir hafta hatta bir gün hatta bir saat beklemenin ne anlamı var ki..bu yüzden en uygun kombinasyonu asla bulamazsınız) Model birkaç saniye eğitilmelidir, o zaman parametreleri veya tahmin edicileri otomatik olarak seçmek için genetiği kullanabilirsiniz, o zaman bu gerçek AI, aksi halde çöp)

1. sütun kaldırıldığında artık %5 değil, çok daha kötü...

Forest, MLP ile aynı hatayı veriyor (ancak daha hızlı hesaplıyor)

Eğitimdeki ortalama hata (%60.0) =0.264 (%26.4) nTrees=100 codResp=1
Doğrulama alanında ortalama hata (%20.0) =0.828 (%82.8) nTrees=100 codResp=1
Testteki ortalama hata (%20.0) arsa =0.818 (%81.8) nTrees=100 codResp=1

 
elibrarius :

1. sütun kaldırıldığında artık %5 değil, çok daha kötü...

Forest, MLP ile aynı hatayı veriyor (ancak daha hızlı hesaplıyor)

Eğitimdeki ortalama hata (%60.0) =0.264 (%26.4) nTrees=100 codResp=1
Doğrulama alanında ortalama hata (%20.0) =0.828 (%82.8) nTrees=100 codResp=1
Testteki ortalama hata (%20.0) arsa =0.818 (%81.8) nTrees=100 codResp=1


evet, klasik MLP'nin ormana göre hiçbir avantajı yok, en azından benim için hız ve kalite açısından orman her zaman kazanıyor

bu arada diplerning de buna sahip olmayabilir .. stüdyoda sinir ağı bir tür diplerning analogu olduğundan - orada katmanlar bile yok, ancak birkaç evrişimsel ağ var .. her birini sırayla başlatan otomatik kodlayıcılar gibi diğer (en azından bu şekilde yazılmış), ancak sonuç yine de ormandan daha kötü

 
Michael Marchukajtes :


Ne cevap vereceğimi bile bilmiyorum. Rapordan bir örnek vermedikçe. Optimizasyon sonucu böyle bir şey ve burada nasıl yorumlanacağı herkes için çok fazla ama optimizasyon bittiğinde sonuç şöyle oluyor.

* Genelleme yeteneğinin duyarlılığı: 55.12820512820513%

* Genelleme yeteneğinin özgüllüğü: 55.5045871559633

* Genelleme yeteneği: 55.309734513274336

* TruePositives: 129

* YanlışPozitifler: 105

* TrueNegatives: 121

* YanlışNegatifler: 97

* İstatistikli örneklerdeki toplam kalıp sayısı: 452

Genelleme yeteneğinin genel sonucunu kırmızıyla vurguladım. Birincisi, tahmin edenlerin yüzdesi, ikincisi sıfır tahmin edenlerin yüzdesi, üçüncüsü toplamdır.



Reshetov sınıflandırıcı en azından MLP'den daha iyi sonuçlar veriyor ve tekrar eğitmiyor, bu artısı..ama setinizle ne kadar sürdüğünü sayıyor, dün 2 saat saydım ve bugün yine hibernasyondan sonra devam ettim.. bekliyorum hataları karşılaştırmak için sayması için :)

Yine de, daha verimli kullanım için onu mql5'te yeniden yazmak ve burada OpenCL'de yapmak istiyorum. Sonra bir Google bulutu kiralıyoruz ve bir Tesla'da dakikalar (saniyeler) içinde sinir ağını hesaplıyoruz veya 500 tyr'a Tesla alıyoruz :) 3000 cuda çekirdeğinden

 
Maksim Dmitrievski :


Reshetov sınıflandırıcı en azından MLP'den daha iyi sonuçlar veriyor ve tekrar eğitmiyor, bu artısı..ama setinizle ne kadar sürdüğünü sayıyor, dün 2 saat saydım ve bugün yine hibernasyondan sonra devam ettim.. Ben' hataları karşılaştırmak için saymasını bekliyorum :)

Yine de, daha verimli kullanım için onu mql5'te yeniden yazmak ve burada OpenCL'de yapmak istiyorum. Sonra bir Google bulutu kiralıyoruz ve bir Tesla üzerinde dakikalar (saniyeler) içinde sinir ağını hesaplıyoruz veya 500 sput için bir Tesla satın alıyoruz :) 3000 cuda çekirdeğinden


Eh, Duc, modelin her seferinde daha karmaşık hale gelmesine rağmen, yeniden eğitim almaması onun ve onun resepsiyonu. Yani, yeniden eğitilmemiş en karmaşık (büyük) modeli elde ederiz. Tobish modeli, spor ayakkabı chtoli gibi daha akıllı çıkıyor. Intel xeon matematik yardımcı işlemcisini zaten düşündüm, ancak 200k'lık bir enfeksiyona mal oluyor. 60 çekirdek 120 mantıksal vardır. Sadece 5 saniyede bir modeli nasıl oluşturabileceğinizi, dediğiniz gibi bunu bile büyük bir set değil nasıl işleyebileceğinizi ve bir döviz teklifi gibi en karmaşık durağan olmayan sürece uygun bir modeli nasıl elde edebileceğinizi düşünün???? Yeterli bir model elde etmek için yeterli bilgisayar zamanını harcamak gerekir. O zaman model yeterli olacak ve daha uzun çalışacak.

Yine de GPU'da çalıştırmak istiyorum. Verimlilikte en az 10 kat artış ve zaten iyi olurdu .... Belki de hepsi aynı olacak ???

 
Dr. tüccar :

Önem değerlendirmesinin sonuçları aşağıdaki gibidir. Tablodaki yordayıcı ne kadar yüksekse o kadar iyidir. Yalnızca VVolum6, VDel1, VVolum9, VQST10 testi geçti.

Çıngırakta, bu 4 öngörücü üzerinde aynı anda 6 model oluşturabilirsiniz ve SVM, doğrulama ve test verilerinde yaklaşık %55 doğruluk gösterir. Fena değil.


Harika, şimdi optimize edici sayıyor, ne zaman biteceğini bile biliyorum, ama kesinlikle bu girdileri ona göndereceğim ve ne vereceğini, bu modelin ne olacağını göreceğim ..... Teşekkürler!
 
Maksim Dmitrievski :


Reshetov sınıflandırıcı en azından MLP'den daha iyi sonuçlar veriyor ve tekrar eğitmiyor, bu artısı..ama setinizle ne kadar sürdüğünü sayıyor, dün 2 saat saydım ve bugün yine hibernasyondan sonra devam ettim.. Ben' hataları karşılaştırmak için saymasını bekliyorum :)

Yine de, daha verimli kullanım için onu mql5'te yeniden yazmak ve burada OpenCL'de yapmak istiyorum. Sonra bir Google bulutu kiralıyoruz ve bir Tesla üzerinde dakikalar (saniyeler) içinde sinir ağını hesaplıyoruz veya 500 sput için bir Tesla alıyoruz :) 3000 cuda çekirdeğinden


Yine hesaplamalarda kaç çekirdek kullanılıyor??? %100 yüklenmiş 4 çekirdeğim var ve sonra 452 satırlık tam bir set çalıştırmaya cesaret edemedim, çünkü bunun bir hafta için olduğunu hissediyorum, daha az değil .....
 
Michael Marchukajtes :

Yine hesaplamalarda kaç çekirdek kullanılıyor??? %100 yüklenmiş 4 çekirdeğim var ve sonra 452 satırlık tam bir set çalıştırmaya cesaret edemedim, çünkü bunun bir hafta için olduğunu hissediyorum, daha az değil .....


Kısacası, programın en son sürümünü, paralelleştirmenin olduğu yerde kazdım, henüz bulamadım, ancak son sürüm ilkler gibi çalışmıyor, komitede zaten 2 sinir ağı var, MLP ve yazarın ve daha sonra sonuç alırken etkileşime giriyorlar, yazara saygı duyan çok fazla kod var :) Bir yerde genellikle en son sürümün bir açıklaması, bir teori var mı?

Çok katı bir şey var, özellikle BU kullanılıyor. Kodu incelemek için çok zaman harcamanız gerekecek.

Yazarın kendisi ile iletişime geçmeye çalışın ve onu arayın, belki de kendisi paralel hale getirecektir. orada jest

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
Michael Marchukajtes :


Eh, Duc, modelin her seferinde daha karmaşık hale gelmesine rağmen, yeniden eğitim almaması onun ve onun resepsiyonu. Yani, yeniden eğitilmemiş en karmaşık (büyük) modeli elde ederiz. Tobish modeli, spor ayakkabı chtoli gibi daha akıllı çıkıyor. Intel xeon matematik yardımcı işlemcisini zaten düşündüm, ancak 200k'lık bir enfeksiyona mal oluyor. 60 çekirdek 120 mantıksal vardır. Sadece 5 saniyede bir modeli nasıl oluşturabileceğinizi düşünün, bunu bile, dediğiniz gibi, büyük bir set değil ve bir döviz teklifi gibi en karmaşık durağan olmayan sürece uygun bir model elde edebilirsiniz???? Yeterli bir model elde etmek için yeterli bilgisayar zamanını harcamak gerekir. O zaman model yeterli olacak ve daha uzun çalışacak.

Yine de GPU'da çalıştırmak istiyorum. Verimlilikte en az 10 kat artış ve zaten iyi olurdu .... Belki de hepsi aynı olacak ???

Ve Reshetov Sınıflandırıcısı ve bu programda hala bir ağ değil, bir nöron mu? Yoksa orada bir Reshetovskh nöronları ağında mı birleştiler?
 
Maksim Dmitrievski :


Kısacası, programın en son sürümünü, paralelleştirmenin olduğu yerde kazdım, henüz bulamadım, ancak son sürüm ilkler gibi çalışmıyor, komitede zaten 2 sinir ağı var, MLP ve yazarın ve daha sonra sonuç alırken etkileşime giriyorlar, yazara saygı duyan çok fazla kod var :) Bir yerde genellikle en son sürümün bir açıklaması, bir teori var mı?

Çok katı bir şey var, özellikle BU kullanılıyor. Kodu incelemek için çok zaman harcamanız gerekecek.

Yazarın kendisi ile iletişime geçmeye çalışın ve onu arayın, belki de kendisi paralel hale getirecektir. orada jest


Yazara ulaşmak mümkün olmayacak sanırım, ona şöyle böyle yazdım. Sessiz. Ama bildiğim kadarıyla, bir zamanlar içinde mümkün olan her şeye paralel olduğunu yazmıştı, bunlar tam olarak onun sözleri. Evet, gerçekten de komitede çalışan iki şebekenin eğitimi var. Bunu makalemde yazdım. Her ikisi de evet gösteriyorsa evet; hayırsa hayır; ikisi de tutarsız bir şekilde gösteriyorsa, o zaman "Bilmiyorum". En son sürüm hakkında bilgim yok, ancak açıklama, bana gönderdiğiniz bağlantı olan Google'a dayanmaktadır. vps sunucusunda sürüm 3'ü başlattığımda ve optimize edicinin yalnızca bir çekirdek yüklediğini hayal kırıklığına uğrattım, ancak en son sürümler tüm çekirdekleri eşit olarak yüklüyor, bu yüzden orada hala paralelleştirme olduğunu düşünüyorum. Küçükler için durum böyle olmaya devam ediyor. Çekirdek sayısını artırın :-)