Alıntılardaki bağımlılık istatistikleri (bilgi teorisi, korelasyon ve diğer özellik seçim yöntemleri) - sayfa 20
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Teşekkür ederim! İndirdim, baktım.
Böylece, nicelik bölme şemasına göre ayrıklaştıracağım, böylece olasılık yoğunluk fonksiyonu tek tip olacak. 500 gecikme için karşılıklı bilgileri ölçeceğim, bir grafik yayınlayacağım.
Ve yeni başlayanlar için:
Orijinal verileriniz için olasılık yoğunluk fonksiyonunun şekli:
Normal dağılıma karşılık gelir.
Ardından, değerlerinizin orijinal serisi üzerinde 50 gecikmeye kadar bir otokorelogram:
Bazı gecikmelerde bazı bağımlılıklar ortaya çıkmasa da, genel olarak korelasyonların anlamlı olmadığı görülebilir.
Ve son olarak, serinizin karelerini aldım ve yalnızca "volatilite" yoğunluğuna bakmak için bir otokorelogram oluşturdum:
Oynaklığın yakın geçmiş değerlerine bağlı olduğunu not ediyorum. Bütün bunlar hisse senedi endekslerinin günlük fiyatlarına ve biraz da günlük EURUSD fiyatlarına benziyor (hesaplamayı daha sonra paylaşacağım).
I (X, Y) hesaplamasının sonuçlarını bekliyoruz.
Harika, bekliyoruz Alexey .
I(X,Y) sonuçlarınızdan sonra verileri ki-kare betiğime aktarabilirim. Mantıklı bir şeyin çıkacağına inanamadığım bir şey (bu benim apriori varsayımım).
Gecikme için özür dilerim. İnternet gitti.
Metodolojik kısımla başlayacağım. Seriyi 5 değere (kantillere) ayırdım. Niye ya? Hedef ve bağımlı değişken için çapraz frekansları hesaplarken 25 seçenek elde edersiniz, 10.000'i 25'e bölerseniz 400 elde edersiniz. Bu istatistiksel olarak anlamlı bir örnektir. 3'ten 7'ye kadar yapılabilir; bence ortasını tuttum.
Ortalama alıcı bilgisi (hedef değişken) bu şekilde hesaplanır;
Herhangi bir gecikme için, ortalama bilginin hesaplanmasının benzer bir değer vereceğini not ediyorum (tabii ki, bağımsız değişkenleri farklı uzunluktaki bir alfabe içinde ayrıklaştırmaya başlamadıysak).
Bu, hedef ve bağımlı değişkenler üzerindeki çapraz entropinin hesaplanmasıdır:
Orijinal zaman serisi için karşılıklı bilgi değerlerinin histogramı:
Yalnızca genel resimden öne çıkan ilk gecikmeleri not edebilirim. Gerisi hakkında bir şey söylemek zor.
Ben de aşağıdakileri yaptım. Veriler normal olduğundan, aynı ortalama ve standart sapma ile Echel'de 10.000 rastgele sayı ürettim. 500 gecikmede karşılıklı bilgi sayıldı. İşte olanlar:
İlk gecikmelerin artık çok bilgilendirici olmadığı gözle görülebilir.
Karşılıklı bilgi değerlerinin elde edilen örneklerine dayanan kalan metrikler çıkarılmalı ve karşılaştırılmalıdır. Böyle:
Orijinal seri için 500 değişkene ilişkin karşılıklı bilgilerin toplamı: 0,62. Rastgele için: 0.62. Yani numuneler üzerindeki ortalama değerin eşit olacağı anlamına gelir. İlk işareti, orijinal serinin rastgele olandan çok az farklı olduğu varsayımına koyduk (volatiliteye olan bağımlılığı hesaba katarak bile).
İki deneysel örnek arasındaki farkların önemsiz olduğu hipotezini doğrulamak için parametrik olmayan testler yapacağız.
Kolmogorov-Smirnov testi (önceden bilinmeyen olasılık yoğunluk fonksiyonlarına sahip değişkenlerin sırasını dikkate almayan numuneler için): 0.05 anlamlılık düzeyinde p > 0.1. Örnekler arasındaki farkın önemi hakkındaki hipotezi reddediyoruz. İkinci bir onay işareti koyduk.
Sonuç olarak, elimizde: orijinal seri, karşılıklı bilgi istatistikleri kullanılarak gösterilen rastgele seriden biraz farklıdır.
Aynı zamanda, oynaklığın bağımlılığı histogramın görünümü üzerinde güçlü bir etkiye sahip değildi. Ancak, DJI için farklı şekilde örneklediğimi hatırlamanız gerekir.
Harika, bekliyoruz Alexey .
I(X,Y) sonuçlarınızdan sonra verileri ki-kare betiğime aktarabilirim. Mantıklı bir şeyin çıkacağına inanamadığım bir şey (bu benim apriori varsayımım).
Ayrıca Bayes'in akla yatkınlığını a priori bastırıyorum ...
res görüyoruz.
:)
gürültü - en başından görüldüğü gibi.
Ve Alexei araştırmanız daha akıllıca.
Ama Poisson benim arkadaşım.
teşekkürler Doujische!
Haklısın!
Tanıştığımıza memnun oldum.
Arkadaşlar şimdi de aynı şekilde günlük EURUSD analizi yapacağım. Göreceğiz!
Daha iyi saatler deneyin. Günlüklerde çok az karşılıklı bilgi var.
PS Ön özet: GARCH(1,1), uh... değişen varyansa benzer bir miktar uh... volatilite kümelenmesi gösterdi, ancak beklendiği gibi, herhangi bir bilgi taşımıyor. Belki de siparişleri artırmamız gerekiyor, yani. model argümanlar?
A-ri sunucusundan veriler, EURUSD D1. Seri artışlarını komşu Kapanış fiyatlarında aldım. 5 kuantile ayrılmıştır.
Bakalım karşılıklı bilgi hesaplaması ne vermiş:
Sonraki 100-200 gecikmenin diğerlerinden daha fazla bilgi taşıdığı görülebilir.
Şimdi artışları rastgele karıştıralım - rastgele bir dizi elde ederiz. VI'yı hesaplayalım:
Vay. Artık sonraki gecikmelerdeki bilgileri göremezsiniz.
Sonuçları görsel olarak karşılaştıralım:
Yakın kütüklerde, orijinal (mavi) sıraya yönelik üstünlük açıkça görülebilir.
Orijinal ve rastgele seriler için I değerleri üzerinden 22 (ay) pencereli hareketli bir ortalama aldım:
Orijinal serinin (mavi) gerçekten de yaklaşık 200 örneğe kadar yakın gecikmelerde rastgele olmayan bir bilgi belleğine sahip olduğu açıktır (bu bilginin doğası hakkındaki tartışmayı tatlı için bırakalım).
Parametrik olmayan testler ne diyor?
Kolmogorov-Smirnov testi:
p<0,001
Mann-Whitney testi:
p = 0.0000.
Örnekler arasında önemsiz farklılıklar olduğu hipotezini reddediyoruz. Veya EURUSD D1 getiri serisi, ortalama ve dağılım açısından benzer özelliklere sahip rastgele verilerden çok farklıdır.
Vay canına. Sigara içeceğim.