"Sinir Ağları Ucuz ve Neşeli - NeuroPro'yu MetaTrader 5 ile Bağlayın" makalesi için tartışma - sayfa 3
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Makalenin kendisine gelince, genel olarak NS değil. Sorun nedir? Uydurulacak katsayıların sayısı geçmişin miktarı ile karşılaştırılabilir.
Katsayı sayısını geçmişin miktarına eşit alalım. Bence o zaman ayarlama mükemmel olacaktır. Kaybedilen tek bir işlem olmayacak ve tarihten mümkün olan maksimum faydayı sağlayacaktır.
NS yapısına vahşi sayıda katsayının seçimi olarak yaklaşırsak, böyle iyi bir şeye ihtiyacımız olmaz.
Burada başka bir yarar daha var - bilginin kayıpla sıkıştırılması. Çok fazla geçmiş vardı, geçmişi yaklaşık olarak tanımlayan daha az katsayı var. Öte yandan, kayıp olmadan bile çok daha iyi performansa sahip birçok sıkıştırma algoritması vardır.
Makalenin kendisine gelince, genel olarak NS değil. Sorun nedir? Uydurulacak katsayıların sayısı geçmişin miktarı ile karşılaştırılabilir.
Katsayı sayısını geçmişin miktarına eşit alalım. Bence o zaman ayarlama mükemmel olacaktır. Kaybedilen tek bir işlem bile olmayacak ve tarihten mümkün olan maksimum faydayı sağlayacaktır.
NS'nin inşasına vahşi sayıda katsayının seçimi olarak yaklaşırsanız, bu kadar iyi bir şeye ne gerek var?
Muhtemelen makaleyi (dikkatlice) okumamışsınız. Girdi sayısı 24 (saatlik zaman dilimi), bir katmandaki nöronlar - 20, katmanlar - 3.
Ve tarih örneği 5k çubuktur. 10k çubuk ayarlayın, katsayı sayısı aynı kalacaktır.
Ne hakkında konuştuğumuzu anlamıyorsanız, o zaman gerçekten ihtiyacınız yok.
Muhtemelen makaleyi (dikkatlice) okumadınız. Girdi sayısı 24 (saatlik zaman dilimi), bir katmandaki nöronlar - 20, katmanlar - 3'tür.
Ve tarih örneği 5k çubuktur. 10k çubuk ayarlayın, katsayı sayısı aynı kalacaktır.
Ne hakkında konuştuğumuzu anlamıyorsanız, gerçekten ihtiyacınız yok.
Kendinizi istediğiniz kadar kandırabilirsiniz!
Kaynak koda bakın ve düzeltilmiş katsayıların sayısını sayın. NS'nin açıklamasında falan filan, ama özü kaynak kodudur.
Tarih miktarını iki katına çıkarın ve oranların çöküşünü izleyin. Ve bu her artışta böyle devam eder.
Makaledeki orgazm simülasyonu gösterilen sonuçtur. Ve bunun korkunç bir şekilde elde edildiği gerçeği kimsenin söylediği şey değildir.
Basitleştirelim. Size binlerce katsayısı olan bir danışmanın kaynak kodunu vereceğim. Ben de size karşılaştırılabilir bir tarih parçası vereceğim. Bunun NS ya da başka bir şey olduğunu söylemeyeceğim. Sadece kaynak ve tarihin bir parçası.
NS ya da ileri bilimsel yöntem olduğunu söylediğimde bu cal hakkındaki fikrinizi de değiştirecek misiniz? En alt satıra bakın.
Unicum dimeon'u ele alalım. Uzman Danışmanı bir düzineden fazla ayarlanabilir katsayı içermez. Geçmiş miktarı, bu katsayıları ayarlamak için kullandığımızdan binlerce kat daha fazladır. Dolayısıyla dimeon'un kafasında yerleşik olan NS bazen harika sonuçlar üretebilir. Bu yüzden tüm NS'lere karşı öfkelenmiyorlar. Ancak makale okuyucuyu yanlış yönlendiriyor.
Öte yandan, havalı pipserimiz bir ticaret algoritması oluştururken nöral prensibi hiç kullanmaz. NS'de olduğu gibi en aptalca toplama ve çarpma prensibini kullanmaz. Belki de onun sonuçları ile NS formundaki klasikler arasındaki çarpıcı farkın nedeni budur.
Komik isim: ENCOG - makine öğrenimi... Çok sıcak.
Burada listelenen araçlar makine öğreniminin yalnızca bir parçasıdır.
Sebepsiz gülmek aptallığın işaretidir © Popüler söz
Makine öğrenimi konusunda özellikle yetenekli olanlar için:
Sebepsiz kahkaha aptallığın işaretidir © Halk deyişi
Özellikle yetenekli makine öğrenimi uzmanları için:
1. CRAN ile ilgili hiçbir sorun yok, yani hiç yok. Codobase'de iki yıldan fazla bir süredir.
2. Miktar, yaklaşımların çeşitliliği ve hızlı gelişim için konuşur. CRAN'daki paketlerin kalitesi mükemmel.
3. WEKA....'dan biridir Ticarette kullanılabilecek makine öğrenimi paketlerinin seçiminden bahsediyorsak, o zaman caret. Ve başlangıç için Rattle'ı alıyoruz. Sıfırdan başlarsanız, yaklaşık 15 dakika içinde kurup çalıştırabilirsiniz. NS ve rastgele ormanların karşılaştırılmasının sonuçlarını yukarıda yayınladım. NS mütevazı sonuçlardan daha fazlasını veriyor. Hatta bir makale bile yazdım. Rattle'ı deneyin. En fazla 2-3 paket alın ve mutlu olacaksınız. Ve NS'nizi sonsuza dek terk edin. Başlangıç için başka bir ek tavsiye edebilirim.
2. Miktar, yaklaşımların çeşitliliğini ve hızlı gelişimi göstermektedir. CRAN'daki paketlerin kalitesi mükemmeldir.
Tam tersine, bazı paketler diğer paketlerdeki yöntemleri kopyalamaktadır. Örneğin, tüm SVM'ler sadece aynı Tayvan libsvm kütüphanesinden alınan portlardır. Dolayısıyla SVM'nin Cran, Weka, Encog veya başka bir pakete gömülü olması kesinlikle fark etmez. Sonuçlar aynı ayarlarla aynı olacaktır.
Ticarette kullanılabilecek makine öğrenimi paketlerinin seçiminden bahsediyorsak, o zaman caret.
Bir kez daha, belirli görevler için belirli araçlar seçmelisiniz. Alım satım, birçok borsa stratejisi ve taktiğinin genelleştirilmiş bir adıdır. Bu nedenle her şeyi tek bir şemsiye altında toplamak mümkün değildir.
NS ve rastgele ormanların karşılaştırılmasının sonuçlarını yukarıda yayınladım.
Bunlar sonuç değil, eğitim örneğine göre ayarlanmış hastanenin ortalama sıcaklığı gibi bazı saçmalıklardır.
Sonuçlar, en azından örneklem eğitim ve test örneklemlerine bölündüğünde ve en fazla çapraz doğrulama uygulandığında elde edilir.
Sanırım NS'yi savunacağım. Rastgele ormanlar aniden moda oldu diye NS'nin daha kötü olduğu anlamına gelmez. Aynı yumurta, sadece profil olarak. Az çok yeterli bir karşılaştırma yapmak için, bir kafes komitesi alın, bousting'i açın ve aynı rastgele ormanı elde edersiniz. NS'ler neredeyse tüm diğer algoritmaları uygulamanıza izin vermeleriyle bilinir.
Her durumda, başarının %99'u araçta değil, verilerin seçimi ve hazırlanmasında yatmaktadır.
Sanırım NS'yi savunacağım. Rastgele ormanlar aniden moda oldu diye NS'nin daha kötü olduğu anlamına gelmez.
Rastgele Orman moda bir olgu değil, ilk denemede kabul edilebilir sonuçlar verebilen bir araçtır. Bu sınıflandırıcı hem yeni başlayanlar hem de deneyimli kullanıcılar tarafından kullanılır. Yeni başlayanlar bunu temel bir araç olarak kullanır, çünkü yöntem çok basittir. Ve daha deneyimli kullanıcılar, hangi yönde ilerleyeceklerini anlamak için RF ile ilgili sorunları çözmeye başlarlar.
Her durumda, başarının %99'u araçta değil, verilerin seçimi ve hazırlanmasındadır.
Büyük bir meseleyi büyük bir mesele haline getiremezsiniz © İnsanların söylediği
Bazı ikili sınıflandırıcılar kullanarak çoklu regresyon problemini nasıl çözeceğinizi görmek ilginç olurdu?
Bu sonuçlar değil, eğitim örneğine göre ayarlanmış hastanenin ortalama sıcaklığı gibi bazı saçmalıklardır.
Sonuçlar, en azından örneklemin eğitim ve test örneklemlerine bölündüğü ve en fazla çapraz doğrulama uygulandığı zaman elde edilir.
Ben saçmalık yapmam.
Kanıt.
Yayınlanan sonuçlar her zaman "örneklem dışı eğitim" verilerine atıfta bulunur. Bu, Rattle'da aşağıdaki şekilde yapılır:
1. Orijinal set üç parçaya bölünmüştür: 70-15-15%
2. Eğitim, eğitim olarak adlandırılan %70'lik kısım üzerinde gerçekleştirilir. Burada çok önemli bir nüans vardır. Bu %70'lik kısımdan eğitim verilerinin yaklaşık 2/3'ü rastgele seçilir, yani = %70 * 2/3. Eğitim bu veri üzerinde gerçekleştirilir. Model performans bilgisi, eğitim örnek verisinin geri kalan %70*1/3'ü üzerinde elde edilir ki bu da elbette rastgele bir satır kümesidir. Bu kısım OOB - out of bag olarak adlandırılır. Yani, resmi olarak eğitim ve değerlendirme için aynı veri seti kullanılmasına rağmen, eğitim ve değerlendirme için farklı satırlar alınmıştır.
Bundan sonra, eğitilen modeli kalan iki kez %15 üzerinde kullanabileceğiniz ve OOB ile karşılaştırabileceğiniz Değerlendir sekmesine gidebilirsiniz. Sonuçlar aynıysa umut var demektir. Rattle fikirleri test etmek için bir araç olmasına rağmen, bu testin kalitesi tartışılan makaleden çok daha yüksektir (yazarın özür dilemesine izin verin).
Ve şahsen tatlınız için: makalemde ve bu makalede elde edilen sonuca güvenilemez, çünkü modelin aşırı eğitimine (aşırı uyum) dair bir kanıt yoktur ve benim tarafımdan listelenen eğitim örneği dışındaki test için üç set böyle bir kanıt değildir. Yani, bu değişkenler kümesini kullanan modelin yukarıdaki şemaya göre test edilebilmesi ve bu testin sonuçlarına güvenilebilmesi anlamında başlangıç değişkenleri kümesi tarafından karşılanan kriterlere ihtiyacımız var.