Sultonov'un regresyon modeli (RMS) - pazarın matematiksel bir modeliymiş gibi davranmak. - sayfa 40

 
HideYourRichess :
Kutsal soru, bu gerileme ile ne kadar para kazanıldığıdır? Düşünmenin zamanı gelmedi mi?
İlk önce bir tür gerileme inancı geliştirmeniz gerekiyor ve sonra para kazanma aşaması gelecek.
 


Roma.:

Doğrusal regresyondan farkların neler olduğunu kısaca açıklarsınız ...

yosuf 12.07.2012 09:21
Doğrusal regresyon (LR), fiyatın zamana doğrusal bir bağımlılığının varlığını varsaydığınızda uygulanır; bu genel durumda açıkça gözlemlenmez, ancak doğrusal bir bağımlılık bazen sınırlı bir zaman aralığında ortaya çıkabilir, ancak, bu varsayımı uygulamak gelecekte önemli sapmalara yol açacaktır. Bu nedenle, RMS'yi içeren lineer olmayan regresyon uygulamak zorunda kalıyoruz ve daha önce gösterildiği gibi, lineer regresyon durumunu açık bir şekilde kapsıyor.

Söylenenlere ek olarak:

İşte yinelemeli algoritma https://forum.mql4.com/en/50108/page5 kullanılarak ayrık bir seri modelleme sonuçlarının LR ve RMS'sinin işlenmesine bir örnek:

 
yosuf :


Roma.:

Doğrusal regresyondan nasıl farklı olduğunu kısaca açıklayın...

yosuf 12.07.2012 09:21
Doğrusal regresyon (LR), fiyatın zamana doğrusal bir bağımlılığının varlığını varsaydığınızda uygulanır; bu genel durumda açıkça gözlemlenmez, ancak doğrusal bir bağımlılık bazen sınırlı bir zaman aralığında ortaya çıkabilir, ancak, bu varsayımı uygulamak gelecekte önemli sapmalara yol açacaktır. Bu nedenle, RMS'yi içeren lineer olmayan regresyon uygulamak zorunda kalıyoruz ve daha önce gösterildiği gibi, lineer regresyon durumunu açık bir şekilde kapsıyor.

Söylenenlere ek olarak:

İşte, https://forum.mql4.com/en/50108/page5 yinelemeli algoritmasını kullanarak ayrık bir seri modelleme sonuçlarının LR ve RMS'sinin işlenmesine bir örnek, burada LR'nin araştırmacıya öncülük ettiği görülebilir. sonuçların ortaya çıkmasının olası alanının sınırlarının ötesinde:


Teşekkürler Yusuf. Daha fazla ayrıntı için kaynakları okuyacağım.

 
avatara :

Sultonov modelinin avantajları, serbestlik derecesi sayısının geniş anlamıyla optimalliği içerebilir ve içermelidir. model parametrelerinin sayısı, doğruluk kaybı olmadan sabitlenir.

kim tartışıyor? polinomlar var mı?

;)

RMS'de (18) türetildiğinde, Gama dağılımının parametrelerinin belirlenmesi ile ilgili uygulamalı istatistik sorunlarından biri de ilişkiler şeklinde (12-14), yani: http://www. aup.ru/books/m163 /2_2_1.htm:

"Çoğu durumda analitik çözümler yoktur; MLE'yi bulmak için sayısal yöntemler uygulamak gerekir. Bu, örneğin gama dağılımından veya Weibull-Gnedenko dağılımından alınan örneklerde geçerlidir. Birçok çalışmada, maksimum olabilirlik denklemleri sistemi, bazı yinelemeli yöntemlerle ([ 8], vb.) veya tip (8) olabilirlik fonksiyonunu doğrudan maksimize ederek çözülür (bkz. [9], vb.).

Bununla birlikte, sayısal yöntemlerin kullanılması birçok soruna yol açmaktadır. Yinelemeli yöntemlerin yakınsaması gerekçelendirme gerektirir. Bir dizi örnekte, olabilirlik fonksiyonunun birçok yerel maksimumu vardır ve bu nedenle doğal yinelemeli prosedürler yakınsamaz [10]. Tüm Rusya Demiryolu Taşımacılığı Araştırma Enstitüsü'nden çeliğin yorulma testiyle ilgili veriler için, maksimum olabilirlik denkleminin 11 kökü vardır [11]. Onbirden hangisi parametre puanı olarak kullanılmalıdır?

Bu zorlukların farkına varılmasının bir sonucu olarak, belirli olasılık modelleri ve belirli algoritmalar için maksimum olabilirlik tahminlerini bulmak için algoritmaların yakınsaklığının kanıtı üzerine çalışmalar ortaya çıkmaya başladı. Bir örnek makale [12].

Bununla birlikte, yinelemeli algoritmanın yakınsamasının teorik kanıtı hepsi değildir. Soru, gerekli doğruluğun elde edilmesiyle bağlantılı olarak hesaplamaların sonlandırma anının makul seçimi hakkında ortaya çıkmaktadır. Çoğu durumda, çözülmedi.

Ama hepsi bu değil. Hesaplamaların doğruluğu örneklem büyüklüğü ile bağlantılı olmalıdır - ne kadar büyükse, parametre tahminlerini bulmak o kadar doğru olur, aksi takdirde tahmin yönteminin tutarlılığı hakkında konuşmak imkansızdır. Ayrıca, örneklem boyutundaki artışla birlikte, tahminlerin tutarlılığını sağlamak için bilgisayarda kullanılan basamak sayısını artırmak, tek duyarlıklı hesaplamalardan çift duyarlıklı hesaplamalara geçmek ve daha da ileri gitmek gerekir.

Bu nedenle, maksimum olabilirlik tahminleri için açık formüllerin yokluğunda, MLE'yi bulmak bir takım hesaplama problemleriyle karşılaşır. Matematiksel istatistikçiler , KİS hakkında teorik terimlerle konuşurken tüm bu sorunları görmezden gelmelerine izin veriyorlar. Ancak, uygulanan istatistikler onları görmezden gelemez. Belirtilen sorunlar, kitle imha silahlarının pratik kullanımının fizibilitesini sorgulamaktadır.

KİS'i mutlaklaştırmaya gerek yok. Bunlara ek olarak, iyi istatistiksel özelliklere sahip başka tahmin türleri de vardır. Bir örnek, tek adımlı tahmincilerdir (OS tahmin edicileri).

Uygulamalı istatistikte birçok tahmin türü geliştirilmiştir. Kuantil tahminlerden bahsedelim. Moment yöntemine benzer bir fikre dayanırlar, ancak örnek ve teorik momentler yerine örnek ve teorik nicelikler eşittir. Başka bir tahmin grubu, ampirik veriler ile parametrik bir ailenin bir öğesi arasındaki mesafeyi (fark indeksi) en aza indirme fikrine dayanmaktadır. En basit durumda, deneysel ve teorik histogramlar veya daha doğrusu histogram çubuklarının yüksekliklerinden oluşan vektörler arasındaki Öklid mesafesi en aza indirilir.

Şimdi Gama dağılımının parametreleri için bu problemler analitik olarak ilişkiler (12-14) https://www.mql5.com/ru/articles/250 şeklinde çözülür ve sayısal olarak yöntem aramaya gerek yoktur. değerlendirme. Binom dağılımında olduğu gibi (oradan) GOST'a dahil edilmelerini önermek gerekir: "Bu nedenle GOST 11.010-81'de negatif binom dağılımının parametrelerini tahmin etmek için tarafsız tahminler kullanılır ve GOST değil [7] Söylenenlerden, mümkünse, MLE'yi diğer tahmin edici türlerine tercih etmenin sadece tahmincilerin asimptotik davranışını inceleme aşamasında mümkün olduğu apriori olarak takip edilir.

 
yosuf :
Şimdi, 10.07'de tarafınızca yapılan ve sunulan olayların daha sonraki seyrine ilişkin tahminin tam olarak doğrulanıp doğrulanmadığını, elinizle kalbinizde söylüyorsunuz. 12. 19.14'te https://forum.mql4.com/ru/50108/page20 hiç belli olmayan bir durumda mı?

Bu noktada, tahminin bir kısmı doğrulandı (göstergenin anlamını doğru anladıysam). Ancak, bu sadece bir tahmindir ve bu herhangi bir sonuç çıkarmak için yeterli değildir.
Ayrıca SL ve TP'nin nasıl ayarlanacağı tam olarak belli değil ama bu son derece önemli.
 
yosuf :


....

İşte, https://forum.mql4.com/en/50108/page5 yinelemeli algoritmasını kullanarak ayrık bir seri modelleme sonuçlarının LR ve RMS'sinin işlenmesine bir örnek, burada LR'nin araştırmacıya öncülük ettiği görülebilir. sonuçların ortaya çıkmasının olası alanının sınırlarının ötesinde:

Bu ayrık dizi nerede? Sarı noktalar? Eğer sarı noktalar varsa, lineer regresyon nasıl bu kadar yana kaymayı başardı?
 
Integer :
Bu ayrık dizi nerede? Sarı noktalar? Eğer sarı noktalar varsa, lineer regresyon nasıl bu kadar yana kaymayı başardı?

İşte https://forum.mql4.com/ru/50108/page4 adresinden bu şekilde elde edilen veriler https://forum.mql4.com/ru/50108/page5, kendiniz hesaplayın ve emin olun:

anonim 10.07.2012 11:58


Yusuf, bir sonraki satıra en az on adım devam etmek için modelini kullanmayı dene:

101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100

ps Bu seri tesadüfi değildir. Sizden bir tahmin aldıktan sonra dizinin algoritmasını ve diğer değerlerini ortaya çıkaracağım.

xi Yi Yn L
0.00000001 1.0000 0.00000001 -0.411673682
1.00000001 0.0000 0.071581228 -0.392656547
2.00000001 1.0000 0.075244112 -0.373639413
3.00000001 1.0000 0.09192784 -0.354622278
4.00000001 0.0000 0.130452259 -0.335605143
5.00000001 1.0000 0.192774 -0.316588009
6.00000001 1.0000 0.273940135 -0.297570874
7.00000001 0.0000 0.365335416 -0.27855374
8.00000001 0.0000 0.458061228 -0.259536605
9.00000001 0.0000 0.545051494 -0.240519471
10.00000001 1.0000 0.621835168 -0.221502336
11.00000001 1.0000 0.68638294 -0.202485201
12.00000001 1.0000 0.738521184 -0.183468067
13.00000001 0.0000 0.77925761 -0.164450932
14.00000001 1.0000 0.810202137 -0.145433798
15.00000001 1.0000 0.833148102 -0.126416663
16.00000001 0.0000 0.849810912 -0.107399529
17.00000001 0.0000 0.861691707 -0.088382394
18.00000001 0.0000 0.870027242 -0.06936526
19.00000001 1.0000 0.875792141 -0.050348125
20.00000001 1.0000 0.879728335 -0.03133099
21.00000001 1.0000 0.882385057 -0.012313856
22.00000001 0.0000 0.884159565 0.006703279
23.00000001 1.0000 0.885333612 0.025720413
24.00000001 1.0000 0.886103678 0.044737548
25.00000001 0.0000 0.886604772 0.063754682
26.00000001 0.0000 0.886928466 0.082771817
27.00000001 0.0000 0.887136159 0.101788951
28.000001 1.0000 0.887268591 0.120806086
29.000001 0.0000 0.887352546 0.139823221
30.00000001 0.0000 0.887405482 0.158840355
31.00000001 1.0000 0.887438693 0.17785749
32.00000001 0.0000 0.88745943 0.196874624
33.00000001 0.0000 0.887472321 0.215891759
34.00000001 1.0000 0.887480302 0.234908893
35.00000001 1.0000 0.887485223 0.253926028
36.00000001 1.0000 0.887488247 0.272943162
37.00000001 0.0000 0.887490099 0.291960297
38.00000001 0.0000 0.887491228 0.310977432
39.00000001 0.0000 0.887491916 0.329994566
40.0000001 1.0000 0.887492333 0.349011701
41.00000001 0.0000 0.887492585 0.368028835
42.00000001 0.0000 0.887492737 0.38704597
43.00000001 1.0000 0.887492829 0.406063104
44.00000001 1.0000 0.887492884 0.425080239
45.00000001 1.0000 0.887492916 0.444097373
46.00000001 0.0000 0.887492936 0.463114508
47.00000001 0.0000 0.887492948 0.482131643
48.000001 0.0000 0.887492955 0.501148777
49.000001 1.0000 0.887492959 0.520165912
50.00000001 0.0000 0.887492961 0.539183046
51.00000001 0.0000 0.887492963 0.558200181
52.00000001 1.0000 0.887492964 0.577217315
53.00000001 1.0000 0.887492964 0.59623445
54.00000001 1.0000 0.887492965 0.615251585
55.00000001 0.0000 0.887492965 0.634268719
56.00000001 1.0000 0.887492965 0.653285854
57.00000001 1.0000 0.887492965 0.672302988
58.00000001 0.0000 0.887492965 0.691320123
59.000001 1.0000 0.887492965 0.710337257
60.0000001 1.0000 0.887492965 0.729354392
61.00000001 0.0000 0.887492965 0.748371526
62.00000001 0.0000 0.887492965 0.767388661
63.00000001 0.0000 0.887492965 0.786405796
64.00000001 1.0000 0.887492965 0.80542293
65.00000001 0.0000 0.887492965 0.824440065
66.00000001 0.0000 0.887492965 0.843457199
67.00000001 1.0000 0.887492965 0.862474334
68.000001 0.0000 0.887492965 0.881491468
69.000001 0.0000 0.887492965 0.900508603
70.00000001 1.0000 0.887492965 0.919525737
71.00000001 1.0000 0.887492965 0.938542872
72.00000001 1.0000 0.887492965 0.957560007
73.00000001 0.0000 0.887492965 0.976577141
74.00000001 0.0000 0.887492965 0.995594276
75.00000001 0.0000 0.887492965 1.01461141
76.00000001 1.0000 0.887492965 1.033628545
77.00000001 0.0000 0.887492965 1.052645679
78.00000001 0.0000 0.887492965 1.071662814
79.00000001 1.0000 0.887492965 1.090679948
80.0000001 1.0000 0.887492965 1.109697083
81.00000001 1.0000 0.887492965 1.128714218
82.00000001 0.0000 0.887492965 1.147731352
83.00000001 1.0000 0.887492965 1.166748487
84.00000001 1.0000 0.887492965 1.185765621
85.00000001 0.0000 0.887492965 1.204782756
86.00000001 1.0000 0.887492965 1.22379989
87.00000001 1.0000 0.887492965 1.242817025
88.00000001 0.0000 0.887492965 1.261834159
89.000001 0.0000 0.887492965 1.280851294

 
yosuf :

İşte https://forum.mql4.com/ru/50108/page4 adresinden bu şekilde elde edilen veriler https://forum.mql4.com/ru/50108/page5, kendiniz hesaplayın ve emin olun:

xi Yi Yn L
0.00000001 1.0000 0.00000001 -0.411673682
1.00000001 0.0000 0.071581228 -0.392656547
2.00000001 1.0000 0.075244112 -0.373639413
3.00000001 1.0000 0.09192784 -0.354622278
4.00000001 0.0000 0.130452259 -0.335605143
5.00000001 1.0000 0.192774 -0.316588009
6.00000001 1.0000 0.273940135 -0.297570874
7.00000001 0.0000 0.365335416 -0.27855374
8.00000001 0.0000 0.458061228 -0.259536605
9.00000001 0.0000 0.545051494 -0.240519471
10.00000001 1.0000 0.621835168 -0.221502336
11.00000001 1.0000 0.68638294 -0.202485201
12.00000001 1.0000 0.738521184 -0.183468067
13.00000001 0.0000 0.77925761 -0.164450932
14.00000001 1.0000 0.810202137 -0.145433798
15.00000001 1.0000 0.833148102 -0.126416663
16.00000001 0.0000 0.849810912 -0.107399529
17.00000001 0.0000 0.861691707 -0.088382394
18.00000001 0.0000 0.870027242 -0.06936526
19.00000001 1.0000 0.875792141 -0.050348125
20.00000001 1.0000 0.879728335 -0.03133099
21.00000001 1.0000 0.882385057 -0.012313856
22.00000001 0.0000 0.884159565 0.006703279
23.00000001 1.0000 0.885333612 0.025720413
24.00000001 1.0000 0.886103678 0.044737548
25.00000001 0.0000 0.886604772 0.063754682
26.00000001 0.0000 0.886928466 0.082771817
27.00000001 0.0000 0.887136159 0.101788951
28.000001 1.0000 0.887268591 0.120806086
29.000001 0.0000 0.887352546 0.139823221
30.00000001 0.0000 0.887405482 0.158840355
31.00000001 1.0000 0.887438693 0.17785749
32.00000001 0.0000 0.88745943 0.196874624
33.00000001 0.0000 0.887472321 0.215891759
34.00000001 1.0000 0.887480302 0.234908893
35.00000001 1.0000 0.887485223 0.253926028
36.00000001 1.0000 0.887488247 0.272943162
37.00000001 0.0000 0.887490099 0.291960297
38.00000001 0.0000 0.887491228 0.310977432
39.00000001 0.0000 0.887491916 0.329994566
40.0000001 1.0000 0.887492333 0.349011701
41.00000001 0.0000 0.887492585 0.368028835
42.00000001 0.0000 0.887492737 0.38704597
43.00000001 1.0000 0.887492829 0.406063104
44.00000001 1.0000 0.887492884 0.425080239
45.00000001 1.0000 0.887492916 0.444097373
46.00000001 0.0000 0.887492936 0.463114508
47.00000001 0.0000 0.887492948 0.482131643
48.000001 0.0000 0.887492955 0.501148777
49.000001 1.0000 0.887492959 0.520165912
50.00000001 0.0000 0.887492961 0.539183046
51.00000001 0.0000 0.887492963 0.558200181
52.00000001 1.0000 0.887492964 0.577217315
53.00000001 1.0000 0.887492964 0.59623445
54.00000001 1.0000 0.887492965 0.615251585
55.00000001 0.0000 0.887492965 0.634268719
56.00000001 1.0000 0.887492965 0.653285854
57.00000001 1.0000 0.887492965 0.672302988
58.00000001 0.0000 0.887492965 0.691320123
59.000001 1.0000 0.887492965 0.710337257
60.0000001 1.0000 0.887492965 0.729354392
61.00000001 0.0000 0.887492965 0.748371526
62.00000001 0.0000 0.887492965 0.767388661
63.00000001 0.0000 0.887492965 0.786405796
64.00000001 1.0000 0.887492965 0.80542293
65.00000001 0.0000 0.887492965 0.824440065
66.00000001 0.0000 0.887492965 0.843457199
67.00000001 1.0000 0.887492965 0.862474334
68.000001 0.0000 0.887492965 0.881491468
69.000001 0.0000 0.887492965 0.900508603
70.00000001 1.0000 0.887492965 0.919525737
71.00000001 1.0000 0.887492965 0.938542872
72.00000001 1.0000 0.887492965 0.957560007
73.00000001 0.0000 0.887492965 0.976577141
74.00000001 0.0000 0.887492965 0.995594276
75.00000001 0.0000 0.887492965 1.01461141
76.00000001 1.0000 0.887492965 1.033628545
77.00000001 0.0000 0.887492965 1.052645679
78.00000001 0.0000 0.887492965 1.071662814
79.00000001 1.0000 0.887492965 1.090679948
80.0000001 1.0000 0.887492965 1.109697083
81.00000001 1.0000 0.887492965 1.128714218
82.00000001 0.0000 0.887492965 1.147731352
83.00000001 1.0000 0.887492965 1.166748487
84.00000001 1.0000 0.887492965 1.185765621
85.00000001 0.0000 0.887492965 1.204782756
86.00000001 1.0000 0.887492965 1.22379989
87.00000001 1.0000 0.887492965 1.242817025
88.00000001 0.0000 0.887492965 1.261834159
89.000001 0.0000 0.887492965 1.280851294


Kusura bakmayın ama en temel soruyu cevaplayamıyor gibisiniz? Sorumu tekrar oku ve cevapla.
 
İkinci sütun Yi mi? O?
 
Integer :
Bu ayrık dizi nerede? Sarı noktalar? Eğer sarı noktalar varsa, lineer regresyon nasıl bu kadar yana kaymayı başardı?
Evet, sarı noktalar.
Neden: