Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3157

 
Maxim Dmitrievsky #:
Hayır

Paketler iyidir, ancak önce prensipte ne yapmanız gerektiğini anlamanız gerekir.


kozuli yöntemleri hakkında sohbet yanıtı


Nedensel çıkarım için kullanılan çeşitli yöntemler vardır. En yaygın yöntemlerden bazıları şunlardır:

  1. Rastgele kontrollü deneyler: Bu, karmaşık ortamlarda nedensel ilişkileri tanımlamak için kullanılan bir yöntemdir. Atama mekanizması üzerinde tam kontrol içerir ve atamarastgeledir1.
  2. Gözlemsel veri: Bu yöntem, deneylerin mümkün veya pratik olmadığı durumlarda kullanılır. Anketler veya idarikayıtlar gibi doğal kaynaklardan toplanan verilerin analizini içerir1.
  3. Araç değişkenler: Bu yöntem, endojenlik veyaverieksikliği ile ilgili sorunlar olduğunda nedensel ilişkileri belirlemek için kullanılır1.
  4. Eğilim eşleştirme: Bu yöntem,karıştırıcıetkiyi ortadan kaldırmak amacıyla benzer özelliklere sahip grupları karşılaştırmak için kullanılır1.
  5. Fark içinde fark tahmincisi: Bu yöntem, zamaniçinde vegruplararasındaki değişiklikleri analiz etmek için kullanılır1.

Bunlar nedensel çıkarım için kullanılan birçok yöntemden sadece birkaçıdır. Her yöntemin kendine özgü avantajları ve dezavantajları vardır ve yöntemin seçimi özel duruma ve eldeki verilere bağlıdır.


Bize 1. noktayı anlatın

Rastgele kontrollü deneyler (RCT' ler) olarak da bilinen rastgele kontrollü deneyler, nedensel ilişkileri keşfetmek için güçlü bir yöntemdir. Bir RCT'de katılımcılar rastgele iki veya daha fazla gruba ayrılır. Bir grup bir müdahale (ilaç gibi) alırken diğer grup plasebo veya standart tedavi alır. Araştırmacılar daha sonra sonuçlarda bir fark olup olmadığını belirlemek için gruplar arasındaki sonuçları karşılaştırır.

RCT'nin temel avantajı, katılımcıların gruplara rastgele atanmasının önyargı ve karışıklığı ortadan kaldırmaya yardımcı olmasıdır. Bu, gruplar arasındaki sonuç farklılıklarının diğer faktörlerden ziyade maruziyete atfedilebileceği anlamına gelir.

Ancak RKÇ'ler her zaman mümkün veya pratik değildir. Örneğin, pahalı olabilirler, büyük miktarda zaman ve kaynak gerektirebilirler veya etik açıdan kabul edilemez olabilirler. Bu durumlarda, araştırmacılar diğer nedensel çıkarım yöntemlerini kullanabilirler.


======================================

Bunu sen mi yapıyorsun? Görünüşe göre bu bir phyche selecta boruta .


 
Maxim Dmitrievsky #:

Kendiniz kontrol edebilirsiniz, sıkılmamanız için biraz kozul bir tema geliştirdim.

Açıkçası, yeniden yorumlanmış ve aşırı yüklenmiş (programlama anlamında) bir tritment kavramına sahipsiniz . Aslında bu çok daha basit ve açık bir şeydir. Bu kadar genişletilmiş bir kavram aşırı öğrenmeye yol açamaz mı? Daha fazla esnekliğin her zaman buna yol açabileceği anlamında.

 
Aleksey Nikolayev #:

Açıkçası, yeniden yorumlanmış ve aşırı yüklenmiş (programlama anlamında) bir tritment kavramına sahipsiniz . Başlangıçta, bu çok daha basit ve açık bir şeydir. Bu kadar genişletilmiş bir kavram aşırı öğrenmeye yol açamaz mı? Daha fazla esnekliğin her zaman buna yol açabileceği anlamında.

Bilmiyorum, ben McDonald's yiyorum :) Muhtemelen. Ben sadece sunulan materyali tüm açılardan gözden geçiriyordum.
 
mytarmailS #:

paketler iyidir, ancak önce ne yaptığınızı bilmeniz gerekir.


kozuli yöntemleri hakkında sohbet yanıtı


Nedensel çıkarım için kullanılan çeşitli yöntemler vardır. En yaygın yöntemlerden bazıları şunlardır:

  1. Rastgele kontrollü deneyler: Bu, karmaşık ortamlarda nedensel ilişkileri tanımlamak için kullanılan bir yöntemdir. Atama mekanizması üzerinde tam kontrol içerir ve atamarastgeledir1.
  2. Gözlemsel veri: Bu yöntem, deneylerin mümkün veya pratik olmadığı durumlarda kullanılır. Anketler veya idarikayıtlar gibi doğal kaynaklardan toplanan verilerin analizini içerir1.
  3. Araç değişkenler: Bu yöntem, endojenlik veyaverieksikliği ile ilgili sorunlar olduğunda nedensel ilişkileri belirlemek için kullanılır1.
  4. Eğilim eşleştirme: Bu yöntem,karıştırıcıetkiyi ortadan kaldırmak amacıyla benzer özelliklere sahip grupları karşılaştırmak için kullanılır1.
  5. Fark içinde fark tahmincisi: Bu yöntem, zamaniçinde vegruplararasındaki değişiklikleri analiz etmek için kullanılır1.

Bunlar nedensel çıkarım için kullanılan birçok yöntemden sadece birkaçıdır. Her yöntemin kendine özgü avantajları ve dezavantajları vardır ve yöntem seçimi özel duruma ve eldeki verilere bağlıdır.


bana 1. maddeden bahsedin

Rastgele kontrollü deneyler (RCT' ler) olarak da bilinen rastgele kontrollü deneyler, neden-sonuç ilişkilerini belirlemek için güçlü bir yöntemdir. Bir RCT'de katılımcılar rastgele iki veya daha fazla gruba ayrılır. Bir grup bir müdahale (ilaç gibi) alırken diğer grup plasebo veya standart tedavi alır. Araştırmacılar daha sonra sonuçlarda bir fark olup olmadığını belirlemek için gruplar arasındaki sonuçları karşılaştırır.

RCT'nin temel avantajı, katılımcıların gruplara rastgele atanmasının önyargı ve karışıklığı ortadan kaldırmaya yardımcı olmasıdır. Bu, gruplar arasındaki sonuç farklılıklarının diğer faktörlerden ziyade maruziyete atfedilebileceği anlamına gelir.

Ancak RKÇ'ler her zaman mümkün veya pratik değildir. Örneğin, pahalı olabilirler, büyük miktarda zaman ve kaynak gerektirebilirler veya etik açıdan kabul edilemez olabilirler. Bu durumlarda, araştırmacılar diğer nedensel çıkarım yöntemlerini kullanabilirler.


======================================

Bunu sen mi yapıyorsun? Görünüşe göre bu bir phyche selecta boruta .


Meta öğrenenlerin sorusu ve ortogonal öğrenme hakkında, hepsi kitapta var. Ve çapraz uyum.
 
Maxim Dmitrievsky #:
Meta öğrenenler hakkında, ortogonal öğrenme hakkında soru sorun, sonuçta kitapta var

Meta-öğrenme, algoritmaların önceki deneyimlere dayanarak yeni görevlere hızla adapte olmasını sağlayan bir makine öğrenimi yaklaşımıdır.Nedensel çıkarım bağlamında,meta-öğrenme nedensel çıkarım için tahmin modellerini yeniden kullanmak içinkullanılabilir1.

Doğrusal regresyon, güçlendirilmiş karar ağaçları, sinir ağları veya Gauss süreçleri gibi tüm tahmin modelleri, bu bölümde açıklanan yaklaşımlar kullanılarak nedensel çıkarım için uyarlanabilir. Bu nedenle ,meta öğrenmenin başarısı, kullanılan tahmin modellerinin kalitesine ve nedensel çıkar ım görevine nekadar iyi uyarlandıklarına bağlıdır1.

Bu oldukça yeni ve aktif olarak gelişen bir araştırma alanıdır ve nedensel çıkarım bağlamında meta öğrenmeye yönelik birçok farklı yaklaşım bulunmaktadır.

========================

Ortogonal öğrenme, nedensel çıkarımı iyileştirmek için kullanılan bir makine öğrenimi yaklaşımıdır. Ortogonal öğrenmenin bir örneği Chernozhukov ve arkadaşları tarafından önerilen Çift Makine Öğrenimidir. 1. Bu yöntem,Lasso2 gibi sofistike makine öğrenimi algoritmalarını kullanarak yüksek boyutlu karıştırıcı faktörlerin etkisini ortogonalleştiren iki aşamalı bir tahminci kullanır.

Ortogonal öğrenme, Ortogonal RastgeleOrman1gibi diğer nedensel çıkarım yöntemlerinde de kullanılmaktadır. Bu algoritma, rastgele ormanlar kullanarak koşullu moment modellerini istatistiksel olarak tahmin etmek için ikili makine öğrenimini genelleştirilmiş rastgele ormanlarla birleştirir.

Genel olarak, ortogonal öğrenme, karıştırıcı faktörlerin etkisini ortadan kaldırarak ve parametre tahminindeki hatalara karşı hassasiyeti azaltarak nedensel çıkarımın doğruluğunu ve sağlamlığını artırır.

 
Aleksey Nikolayev #:

Açıkçası, yeniden yorumlanmış ve aşırı yüklenmiş (programlama anlamında) bir tritment kavramına sahipsiniz . Başlangıçta, bu çok daha basit ve açık bir şeydir. Bu kadar genişletilmiş bir kavram aşırı öğrenmeye yol açamaz mı? Daha fazla esnekliğin her zaman buna yol açabileceği anlamında.

Maxim yukarıda yazdı - modelin aşırı eğitiminin önemli bir işareti olan OOS üzerinde çalışmaz.

Anladığım kadarıyla, hatayı azaltmak için sonuçları rafine edilmeye çalışılan bir model alınıyor.

Ancak OOS'deki hatanın kaynağı, aynı tahmin edici değerlerin farklı durumlarda farklı sınıfları tahmin et tiğinde verinin kendisidir. Tahmin edicilerdeki bu kusur herhangi bir matematiksel alıştırma ile düzeltilemez, çöpü düzeltemezsiniz, ancak çöp üzerinde çok küçük bir eğitim hatası elde edebilirsiniz çünkü algoritma "uygun" verileri bulacak ve iyi bir sonuç gösterecektir. Ancak yeni veriler üzerinde sonuç içler acısıdır, çünkü kendi çöpleri vardır.

Aynı zamanda cajual kullanma problemi şu şekilde görülmektedir.

Elimizde tahmin ediciler olduğunu varsayalım, bu değerlerin %50'si sınıflardan birini tahmin ediyor ve diğer %50'si rastgele herhangi bir sınıfı tahmin ediyor.

Modeli kurduk ve sınıflandırma hatasını elde ettik.

Şimdi soru şu: bu sınıflandırma hatası tahminci değerlerinin bölümlendirilmesiyle tutarlı mı değil mi? Eğer iyileştirilebilirse, o zaman uygundur ve eğer iyileştirilemezse, o zaman hiçbir şekilde uygun DEĞİLDİR, çünkü modelin aşırı uydurulmasını elde ederiz.

 
Maxim Dmitrievsky #:
Evet. Tritment değişkenini listeden çıkarabilir ve onsuz bir geliştirici yapabilirsiniz. Onunla yapamam. Ve tarafsız bir tahmin elde etmek için çapraz uydurma yaparsınız.
.

Ben de bu tanımlarda aynı şekildeydim, bu yüzden endişelenmeyin :)

Bu bir terminoloji meselesi değil, ne olduğu ve nasıl uygulanacağı meselesi...

Çift Makine Öğrenimi, verilerdeki nedensel ilişkileri değerlendirmek için kullanılan bir tekniktir

1) Neyi tahmin etmeliyim?

2) Peki, tahmin ettim ve sonra ne olacak?

 
mytarmailS #:

Bu bir terminoloji meselesi değil, ne olduğu ve nasıl uygulandığı meselesidir.

Çift Makine Öğrenimi, verilerdeki neden-sonuç ilişkilerini değerlendirmek için kullanılan bir tekniktir

1) Neyi değerlendirmek?

2) Peki, bunu tahmin ettiniz ve sonra ne olacak?

Sonra, hedefleri dönüştürebilir ve daha önce yazdığım ağırlıkları elde edebilirsiniz. Yansız olacaklar. Kozuli'nin çoğu yansız tahminler hakkında.


 
Fil ve bilge adamlar hakkındaki hikayeye benziyor. Kitapta her şey var, onun bir fil olduğunu anlamak için forumda yeniden anlatmak için parmaklarına ihtiyaçları var.
 
Aleksey Nikolayev #:

Makalenin 10. sayfasında, sözde kod şeklinde bir uygulama bulunmaktadır. Sondan bir önceki sayfada, ekte, R'deki uygulamaya ve makalede kullanılan verilere referanslar bulunmaktadır.

Sözde kod formülleri ifade eder :)

R koduna gelince - teşekkürler - gözden kaçırmışım. Anladığım kadarıyla orada fonksiyon kodu var, ancak bir dosyadan okuma gibi kodun kendisi yorumlanmış mı?

# --- Read in data --- 

# > arson = read.csv("arson.csv")
# > i = with(arson, day <= 731)
# > arson1 = arson[i,]
# > arson2 = arson[!i,]
# > arson2[,"day"] = arson2[,"day"] - 731

Henüz nasıl çalıştıracağımı bulamadım. Çalıştırabildiniz mi?

Aleksey Nikolayev #:

Genel anlamda, mql5'te karar ağaçlarını nasıl uyguluyorsunuz? Diziler veya şablonlar aracılığıyla mı?

Daha önce MQL5'te ağaç oluşturmayı uygulamadım - Forester burada daha fazla deneyime sahip.

Bununla birlikte, dizilere ek olarak vektörler ve matrisler kullanacağımı düşünüyorum - kod onlarla daha hızlı. Ayrıca, anladığım kadarıyla, tam bir numaralandırma gerektirdiğinden, OpenCL kullanmak mümkün olacak.

Ancak bu bağlamda "şablonların" ne olduğunu bilmiyorum :(

R'de kod olduğu için, her şeyin mantıklı olup olmadığını başlangıçta anlamak mantıklıdır.

Makaledeki örnek az sayıda tahmin edici kullanıyor, bende çok daha fazlası var ve elbette bireysel olarak daha az bilgilendirici.

Genel olarak, bunu sadece iki örneği karşılaştırmak için değil, verilerdeki anormalliği tespit etmek için kullanmakla ilgileniyorum - bence gidilecek yol bu.

Fikir şu ki, benzer olsalar bile yaprak gruplarımız var ve bir tahmincinin anormal davranışını görürsek, gruptaki yapraklarla korelasyonu kontrol ederken onu kullanan tüm yaprakları devre dışı bırakıyoruz. İdeal olarak, zamanında tespit edilirse, bu, modelin daha az güvenle de olsa çalışmaya devam etmesine izin verecektir.

Neden: