Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2367

 
mytarmailS :

Uzun nefes .. unuttum, yoruldum)

384 GB RAM??

Çok fazla ihtiyacım yok - 64 maliyet.

 
Alexey Vyazmikin :

Çok fazla ihtiyacım yok - 64 maliyet.

Tamam, bakalım, hala kodu kendim çözüyorum, en iyi nasıl yapılır, nereler optimize edilebilir, sanırım, seçenekleri sıralıyorum, sizi önemsiz şeylere çekmek istemiyorum ya aklımda olsun..

 
Alexey Nikolaev :

Gerçekten sevdiğiniz bazı şeyler daha sonra ilk başta iğrenç görünüyor - kahve, havyar, wasabi, rock müzik vb.)

orası kesin ilk başta r-ke de bazı yapıları anlamadım ben de ne saçmalık diye düşündüm

örneğin, her şeyi bir döngü üzerinden yazdım ve "uygula" ailesini anlamadım ve sonra okunabilirlik, hız ve 6 satır kodla kazanabileceğiniz ortaya çıktı.

 
mytarmailS :

orası kesin ilk başta r-ke de bazı yapıları anlamadım ben de ne saçmalık diye düşündüm

örneğin, her şeyi bir döngü üzerinden yazdım ve "uygula" ailesini anlamadım ve sonra okunabilirlik, hız ve 6 satır kodla kazanabileceğiniz ortaya çıktı.

Sadece başvurmak değil. Foreach'ı daha sık kullanıyorum, kodu tekrarlamadan paralel hale getirebilirsiniz... Bazen bir yineleyici yararlıdır, deneyin

 library (coro)
abc <- generate_abc()
loop( for (x in abc) print(x))

İyi şanlar

 
Vladimir Perervenko :

Sadece başvurmak değil. Foreach'ı daha sık kullanıyorum, kodu tekrarlamadan paralel hale getirebilirsiniz... Bazen bir yineleyici yararlıdır, deneyin

İyi şanlar

Teşekkür ederim!

 
mytarmailS :

Teşekkür ederim!

Nedir   üret_abc ? Örnek hata verdiği için hala anlamadım

 library (coro)
> abc <- generate_abc()
Error in generate_abc() : could not find function "generate_abc"
 

Tüm bu işlemler python'da

print([x for x in range( 50 )])
 
Her şey lisp'te başladı ve özellikle öğeleri hem R'de hem de python'da bulunan işlevsel programlamada geliştirildi.
 
Yanlışlıkla benim için şaşırtıcı bir ifadeye sahip bir makale okudum. Tahminler, yanıtlar ve artıklar: Normal olarak dağıtılması gereken gerçekten ne var?

Birkaç alıntı:

"Birçok bilim insanı, istatistiksel analizdeki değişkenlerin normalliği veya anormalliği konusunda endişe duymaktadır. Aşağıdaki ve benzeri görüşler sıklıkla ifade edilmekte, yayınlanmakta veya öğretilmektedir:

  • "   İstatistikleri tutmak istiyorsanız, her şey normal olarak dağıtılmalıdır.   ".
  • "   Verilerimizi normallik varsayımına uyacak şekilde normalleştirdik.   ".
  • "   Verilerimizi çok çarpık olduğu için günlüğe dönüştürdük.   ".
  • "   Modeli yerleştirdikten sonra artıkların homoskedastisitesini test ettik.   ".
  • "   Verilerimiz normallik varsayımına uymadığı için parametrik olmayan bir test kullandık.   ".

Vb.   Daha karmaşık olduğunu biliyorum, ancak yine de insanların her yerde görmek istedikleri normal dağılım gibi görünüyor ve şeylerin normal dağılımı, temiz ve zorlayıcı istatistikler ve güçlü sonuçlar için kapı açıyor.   Tanıdığım birçok kişi, analizden önce verilerinin normal dağılıp dağılmadığını düzenli olarak kontrol eder ve daha sonra, örneğin logaritmik bir dönüşüm kullanarak "normalleştirmeye" çalışırlar veya verilerinin frekans dağılımına göre istatistiksel yöntemi buna göre ayarlarlar.   Burada bunu daha yakından inceliyorum ve normallik hakkında sanıldığından daha az varsayım olabileceğini gösteriyorum."

Düşünce ve sonucun daha fazla gerekçesi:

İnsanlar neden hala verileri normalleştiriyor?

Bir başka kafa karıştırıcı konu da, insanların modele uymadan önce neden değişkenlerini (hem öngörücüler hem de tepkiler) "normalleştirme" eğiliminde olmalarıdır.   Herhangi bir spekülasyon olmamasına rağmen bu uygulama neden ortaya çıktı ve yaygınlaştı?   Bununla ilgili birkaç teorim var: cehalet, istatistiksel yemek kitaplarını takip etme eğilimi, hata yayılımı vb.
İki açıklama daha makul görünüyor: Birincisi, insanlar ilişkiyi doğrusallaştırmak için verileri normalleştirir.   Örneğin, logaritmik tahmin dönüşümünü kullanarak, olağan en küçük kareler mekanizmasını kullanarak üstel bir fonksiyon sığdırabilirsiniz.   Bu normal görünebilir, ancak neden doğrudan modelde doğrusal olmayan bir ilişki belirtmiyorsunuz (örneğin, uygun bağlantı işlevini kullanarak)?   Ek olarak, yanıtın log dönüşümü uygulaması, örneğin sıfır sayım sayımı verisi durumunda ciddi yapaylıklara yol açabilir (O'Hara & Kotze 2010).
Uygulamanın "normalleştirilmesi" için ikinci bir makul sebep, meslektaşım Katherine Mertes-Schwartz tarafından önerildi: Belki de bunun nedeni, araştırmacıların sorunu çözmeye çalışması ve verilerinin çok düzensiz ve düzensiz bir şekilde toplanmasıdır.   Başka bir deyişle, çoğu zaman degradenin belirli bir bölümünde toplanan çok sayıda gözleme sahip verilerle çalışılırken, degradenin diğer kısmı nispeten yetersiz temsil edilir.   Bu, çarpık dağılımlara yol açar.   Bu tür dağılımları dönüştürmek, eğim boyunca gözlemlerin görünüşte düzenli bir dağılımı ve aykırı değerlerin ortadan kaldırılması ile sonuçlanır.   Aslında bu iyi niyetle yapılabilir.   Ancak bu aynı zamanda temelde yanlıştır.

Benim için bu ifade (şok edici?), Doğru kelimeyi bulamıyorum. Ama aklımda tutacağım

Predictors, responses and residuals: What really needs to be normally distributed?
Predictors, responses and residuals: What really needs to be normally distributed?
  • www.r-bloggers.com
[This article was first published on Are you cereal? » R , and kindly contributed to R-bloggers]. (You can report issue about the content on this page here)
 
Maksim Dmitrievski :

Tüm bu işlemler python'da

Print ile ilgili değil, jeneratörler ve yineleyicilerle ilgili.

Neden: