Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 500

 
Maksim Dmitrievski :

Kusura bakmayın ama hiçbir sorumda değerini kanıtlamadınız en azından ben görmedim

ve bir kaptan üslubunda yazmak işe yaramaz ve yeniden biraz önemli görünmek için her şeyi alt üst eder.


Temel kavramlar konusunda kafanız karıştı. Öğren - kendi iyiliğin için buna ihtiyacın var. Şikayet etmek yerine öğrenin...


not

Ve sana hiçbir şey kanıtlamak zorunda değilim.

 
Oleg otomatı :

Temel kavramlar konusunda kafanız karıştı. Öğren - kendi iyiliğin için buna ihtiyacın var. Şikayet etmek yerine öğrenin...


not

Ve sana hiçbir şey kanıtlamak zorunda değilim.


başka bir yüksek .. basit bir soruyu cevaplamak yerine - ormanlar tahminde bulunabilir mi :D

Anlaşılır bir örnek verdim: hayır. Benimle tartışmaya başladılar ama kimse açıklayamadı ve şimdi anlaşılan benim gidip kitap okumam gerekiyor çünkü kimse bir bok bilmiyor :)

Kendim öğreniyor ve sonuçlar çıkarıyorum, artık buna ihtiyacım yok .. MO'da uğraşanlar için çok basit bir soruydu, ancak kimsenin bulamadığı ortaya çıktı.

Ve elbette herkes aptal, özellikle habré ve makale yazan herkes ve görünüşe göre Leo Breiman da aptal

 
Maksim Dmitrievski :

başka bir yüksek .. basit bir soruyu cevaplamak yerine - ormanlar tahminde bulunabilir mi :D

Anlaşılır bir örnek verdim: hayır. Benimle tartışmaya başladılar ama kimse açıklayamadı ve şimdi anlaşılan benim gidip kitap okumam gerekiyor çünkü kimse bir bok bilmiyor :)

Kendim öğreniyor ve sonuçlar çıkarıyorum, artık buna ihtiyacım yok .. MO'da uğraşanlar için çok basit bir soruydu, ancak kimsenin bulamadığı ortaya çıktı.


Soruyu bu şekilde sorarsanız, bunu yaparak zaten anlayışınızın ve farkındalığınızın seviyesini göstermiş olursunuz.

 
Oleg otomatı :

Soruyu bu şekilde sorarsanız, bunu yaparak zaten anlayışınızın ve farkındalığınızın seviyesini göstermiş olursunuz.


hepsi, hoşçakal)

 
Maksim Dmitrievski :

hepsi, hoşçakal)


Sağlıklı olmak. Öğrenmek.

 
Dr. tüccar :

Neredeyse doğru, sonuca ek olarak hala bir önyargı var

Büyük olasılıkla, nöronun iç katmanında y1, y2, y3 değerleri kullanılır ve bu değerlerin kendileri de bir sonraki katman için giriş değerleri olarak kullanılmalıdır.

Veya Y1,Y2,Y3 çıkış değerleri ise, o zaman sınıflandırmada birkaç çıkış nöronu kullanılır - örneğin, Y1,Y2,Y3 arasındaki en büyük değer Y1 ise sonuç "sınıf 1" olur, en büyük değer ise Y2 ise sonuç "sınıf 2", en büyük değer Y3 ise sonuç "sınıf 3" olur. Sınıflandırma yerine regresyon için bir nöron kullanılırsa, sadece bir çıktı nöron olacaktır. Eğer sadece iki sınıf varsa, o zaman bir çıkış nöronu ile idare edebilirsiniz (eğer sonuç <0.5 ise sınıf1, >=0.5 ise sınıf2 ise).

Bir nöronun aktivasyon fonksiyonu için bir sigmoid eklemek çok kolaydır, böyle bir fonksiyona ihtiyacınız var -

Ve bununla birlikte, zaten bir iç katmana (üç algılayıcıya sahip) ve bir çıktı algılayıcıya sahip tam teşekküllü bir nöron alacaksınız.

sonuç = perceptron4[0]


Cevap için teşekkürler! Benim için çok eğitici.

Shift (önyargı) anladığım kadarıyla bir önyargı nöronu mu? Açıklama, giriş sıfır olduğunda yardımcı olduğunu söylüyor. Sizce bias nöronu ne için kullanılıyor ve bunun için hangi ağırlıklar seçilmelidir? Temelde sadece ağırlık.

Sigmoid dönüşümünden sonra veya sonrasında eşiği kontrol etmenin en iyi yolu nedir?

 
Dr. tüccar :

Bir nörondaki ölçek sayısı on binlerce veya daha fazla olabilir. Mql ve R'de nöronlar oluşturmak ve eğitmek için özel kütüphaneler vardır, nöronunuzu sıfırdan programlamak yerine bunlar üzerinde çalışmak daha iyidir.


Örneğin, mql4'te aynı anda 15'e kadar parametreyi optimize etmenin mümkün olduğunu kastettim, mql5'te daha fazlası var.

Ve bir katmanın ayarlandığı, ardından ikincisinin optimize edilmiş birinci katmanla ayarlandığı ve bu şekilde devam ettiği ortaya çıktı. Ancak tüm katmanlara aynı anda sahip olmak güzel olurdu, ancak hesaplama gücü vermez.

Katmanlar birer birer optimize edildiğinde, bu durumda sistemin artık herhangi bir kalıp görmediğine dair bir varsayımım var.

Bir katman emprenye edilse bile, sonraki katmanlar ilk katmanın varsayımlarına dayanacaktır.

 
Maksim Dmitrievski :

başka bir yüksek .. basit bir soruyu cevaplamak yerine - ormanlar tahminde bulunabilir mi :D


başka bir yüksek .. basit bir soruyu cevaplamak yerine - ormanlar tahminde bulunabilir mi :D

Ayrıca bir soru da sorabilirsiniz: Rastgele ormanlar tatlı mı yoksa tuzlu mu? Genel olarak, bir sürü aptalca soru sorabilir ve hatta İnternet'ten bağlantılar alabilirsiniz.


Sistematik bir eğitim almış birkaç forum üyesi daha bu konuda yormasa cevap vermemek mümkün olabilir.


Rastgele ormanlar, EXTRAPOLATION kelimesi onlar için hiç geçerli olmadığı için tahmin YAPAMAZ. Rastgele ormanlar, diğer makine öğrenimi modelleri gibi, gelecekteki değerleri tahmin edebilir, ancak bu EXTRAPOLATION DEĞİLDİR, ayrıca, EXTRAPOLATION terimi istatistikte hiç geçerli değildir.


Ve bu yüzden.

Başlangıçta, EXTRAPOLATION terimi, bir formülü olan işlevlere, sıradan işlevlere atıfta bulunur.

Örneğin.

у = а+ bх

Bu formülü kullanarak, orijinal tanım alanı (enterpolasyon) ve dış - ekstrapolasyon içindeki işlevin değerlerini hesaplayabilirsiniz.


İstatistikte böyle bir formül yoktur. GENEL kelimesinden.

Ve "rastgele bir orman tahmin edebilir mi" ile ilgili tüm bu yaygara, tam olarak bununla bağlantılıdır, çünkü. istatistiklerde analog şöyle görünür:

у ~ а + bх

Doğrusal bir işlevi doğrusal bir regresyondan ayırt etmek için eşitlik yerine bir tilde kullanılır.

Bu fark, doğrusal bir denklemdeki "a"nın, tilde ile gösterildiği gibi, doğrusal regresyonda "a" olmadığı gerçeğini yakalar. Aynısı "b" için de geçerlidir.

İlk denklemde "a" bir sabit ise, o zaman ikinci denklemde "a", varyansın değeri ve "a" değerinin sıfır hipotezinin olasılığı ile bir tahminin eşlik ettiği matematiksel beklentidir. "Gördüğümüz yok. Bu DEĞİL varlığının olasılığı %10'dan fazlaysa, "a" değeri göz ardı edilebilir.


Ve şimdi sorunuza:

- Regresyon denkleminden ekstrapolasyon yapmak mümkün müdür?

- Numara. Ancak güven aralığı içinde değer alacak bir rastgele değişkenin gelecekteki değerini tahmin etmek mümkündür. Bu güven aralığı %95 ise (boş hipotez altındaki olasılık %5), bu güven aralığında "y" alırız. Ve eğer "a" için bu değerin katları olan bir varyansa sahip bir tahmininiz varsa, o zaman hiçbir şey tahmin edilemez.


Fonksiyonların varlığında bir anlam ifade eden sorunuzun istatistiklerde hiç bir anlam ifade etmediğini umarım detaylı bir şekilde anlatabilmişimdir.

 
San Sanych Fomenko :


Ve şimdi sorunuza:

- Regresyon denkleminden ekstrapolasyon yapmak mümkün müdür?

- Numara. Ancak güven aralığı içinde değer alacak bir rastgele değişkenin gelecekteki değerini tahmin etmek mümkündür. Bu güven aralığı %95 ise (boş hipotez altındaki olasılık %5), bu güven aralığında "y" alırız. Ve eğer "a" için bu değerin katları olan bir varyansa sahip bir tahmininiz varsa, o zaman hiçbir şey tahmin edilemez.


Ve şimdi dikkat, böyle bir soru yoktu ...)

Örneğin, fark edildiği gibi bir soru vardı

Dr. tüccar :

Ekstrapolasyon, eğitim sırasında bilinen tahmin edici değerlerin ötesinde yeni verilerin tahmin edilmesini içerir.

Tahmin ediciler değil, hedefler olduğunu ekleyeceğim, çünkü tahmin edicilerse, o zaman ekstrapolasyonla değil enterpolasyonla uğraşıyoruz.

Bu nedenle, rastgele bir orman enterpolasyon yapabilir (bunun için girdileri normalleştirmenize bile gerek yoktur), ancak ekstrapolasyon yapamaz.

İstatistikte , geçmişte kurulan eğilimlerin geleceğe uzatılması (zamana göre tahmin, popülasyonun ileriye dönük hesaplamaları için kullanılır); örnek verilerin popülasyonun gözleme tabi olmayan başka bir bölümüne dağılımı (uzayda ekstrapolasyon).

Bir regresyon ağacı alırsanız, sonuçları 1.4500'ün üzerindeki alıntılar gibi YENİ verilere genişletemez ve her zaman 1.4500'lük bir tahmin verir, ancak asla 1.3000'den fazla ve asla 1.3000'den az değildir, çünkü üzerinde eğitilmiştir. 1.3000-14500 örneğin (hedef olarak) ve bu karar ağaçları oluşturma ilkesinden gelir

Ağaçların aksine, lineer regresyon ve bir sinir ağı, farklı ilkelere göre inşa edildikleri için bununla kolayca başa çıkabilir.

Bir kez daha: eğitim aralığı dışındaki yeni veriler, yeni RF örneğindeki girişlere beslenebilir ve bunları mükemmel bir şekilde enterpolasyona tabi tutar. Ancak çıktıda, tahminde bulunmaz, yani. tahmin edilen değerler, üzerinde eğitildiği çıktı aralığının ötesine asla geçmeyecektir.

 
Maksim Dmitrievski :

Ve şimdi dikkat, böyle bir soru yoktu ...)

Örneğin, fark edildiği gibi bir soru vardı

Dr. tüccar :

Ekstrapolasyon, eğitim sırasında bilinen tahmin edici değerlerin ötesinde yeni verilerin tahmin edilmesini içerir.

Tahmin ediciler değil, hedefler olduğunu ekleyeceğim, çünkü tahmin edicilerse, o zaman ekstrapolasyonla değil enterpolasyonla uğraşıyoruz.

Bu nedenle, rastgele bir orman enterpolasyon yapabilir (bunun için girdileri normalleştirmenize bile gerek yoktur), ancak ekstrapolasyon yapamaz.

İstatistikte , geçmişte kurulan eğilimlerin geleceğe uzatılması (zamana göre tahmin, popülasyonun ileriye dönük hesaplamaları için kullanılır); örnek verilerin popülasyonun gözleme tabi olmayan başka bir bölümüne dağılımı (uzayda ekstrapolasyon).

Bir regresyon ağacı alırsanız, sonuçları 1.4500'ün üzerindeki alıntılar gibi YENİ verilere genişletemez ve her zaman 1.4500'lük bir tahmin verir, ancak asla 1.3000'den fazla ve asla 1.3000'den az değildir, çünkü üzerinde eğitilmiştir. 1.3000-14500 örneğin (hedef olarak) ve bu karar ağaçları oluşturma ilkesinden gelir

Ağaçların aksine, lineer regresyon ve bir sinir ağı, farklı ilkelere göre inşa edildikleri için bununla kolayca başa çıkabilir.

Bir kez daha: eğitim aralığı dışındaki yeni veriler, yeni RF örneğindeki girişlere beslenebilir ve bunları mükemmel bir şekilde enterpolasyona tabi tutar. Ancak çıktıda, tahminde bulunmaz, yani. tahmin edilen değerler, üzerinde eğitildiği çıktı aralığının ötesine asla geçmeyecektir.


Sen benim yazımdan hiçbir şey anlamadın. Hiçbir şey.


Varlığınızdan dolayı üzgün bir şube.

Neden: