트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2367

 
mytarmailS :

긴 숨..잊어 지쳤어)

384GB 램 ??

나는 그렇게 많이 필요하지 않습니다 - 64 비용.

 
알렉세이 비아즈미킨 :

나는 그렇게 많이 필요하지 않습니다 - 64 비용.

자, 어디 보자. 나는 여전히 코드를 스스로 알아내고 있다. 최선의 방법은 무엇인지, 어디에서 무엇을 최적화할 수 있는지, 내 생각에는 옵션을 분류하는 중이고 사소한 일에 대해 당신을 끌어들이고 싶지 않다. 그나저나 참고하겠습니다..

 
알렉세이 니콜라예프 :

커피, 캐비어, 와사비, 록 음악 등 나중에 정말 좋아하는 것들이 처음에는 역겹게 느껴집니다.)

물론 처음에는 r-ke의 일부 구조도 이해하지 못했습니다. 무슨 말도 안되는 소리인가 싶었습니다.

예를 들어, 나는 루프를 통해 모든 것을 작성하고 "적용"패밀리를 이해하지 못했는데 가독성, 속도에서 이기고 6 줄의 코드로 하나를 만들 수 있음이 밝혀졌습니다.

 
mytarmailS :

물론 처음에는 r-ke의 일부 구조도 이해하지 못했습니다. 무슨 말도 안되는 소리인가 싶었습니다.

예를 들어, 나는 루프를 통해 모든 것을 작성하고 "적용"패밀리를 이해하지 못했는데 가독성, 속도에서 이기고 6 줄의 코드로 하나를 만들 수 있음이 밝혀졌습니다.

신청 뿐만이 아닙니다. 나는 foreach를 더 자주 사용합니다. 코드를 다시 실행하지 않고도 병렬화할 수 있습니다... 때때로 iterator가 유용합니다.

 library (coro)
abc <- generate_abc()
loop( for (x in abc) print(x))

행운을 빕니다

 
블라디미르 페레르벤코 :

신청 뿐만이 아닙니다. 나는 foreach를 더 자주 사용합니다. 코드를 다시 실행하지 않고도 병렬화할 수 있습니다... 때때로 iterator가 유용합니다.

행운을 빕니다

고맙습니다!

 
mytarmailS :

고맙습니다!

뭐가   생성_abc ? 예제가 오류를 제공하기 때문에 나는 여전히 이해하지 못합니다.

 library (coro)
> abc <- generate_abc()
Error in generate_abc() : could not find function "generate_abc"
 

이 모든 작업은 파이썬에 있습니다

print([x for x in range( 50 )])
 
이 모든 것은 lisp에서 시작되었으며 특히 함수형 프로그래밍에서 개발되었으며, 그 요소는 R과 Python 모두에서 찾을 수 있습니다.
 
나는 우연히 나를 위해 놀라운 진술을 하는 기사를 읽었다. 예측 변수, 반응 및 잔차: 정규 분포에 실제로 필요한 것은 무엇입니까?

몇 가지 인용문:

"많은 과학자들이 통계 분석에서 변수의 정상 또는 비정상성에 대해 우려하고 있습니다. 다음과 유사한 의견이 종종 표현, 출판 또는 가르쳐집니다.

  • "   통계를 유지하려면 모든 것이 정규 분포를 따라야 합니다.   ".
  • "   정규성 가정에 맞게 데이터를 정규화했습니다.   ".
  • "   데이터가 심하게 치우쳤기 때문에 데이터를 로그로 변환했습니다.   ".
  • "   모델을 피팅한 후 잔차의 등분산성을 테스트했습니다.   ".
  • "   데이터가 정규성 가정에 맞지 않기 때문에 비모수 테스트를 사용했습니다.   ".

등.   더 복잡하다는 것을 알고 있지만 여전히 정규 분포는 사람들이 어디에서나 보고 싶어하는 것이며 사물의 정규 분포는 깨끗하고 설득력 있는 통계와 강력한 결과의 문을 열어줍니다.   내가 아는 많은 사람들은 분석 전에 데이터가 정규 분포를 따르는지 정기적으로 확인한 다음, 예를 들어 대수 변환을 사용하여 데이터를 "정규화"하거나 데이터의 빈도 분포에 따라 통계 방법을 조정합니다.   여기에서 나는 이것을 더 자세히 조사하고 정상성에 대한 가정이 생각하는 것보다 적을 수 있음을 보여줍니다."

생각과 결론의 추가 정당화:

사람들이 여전히 데이터를 정규화하는 이유는 무엇입니까?

또 다른 당혹스러운 문제는 사람들이 모델을 맞추기 전에 변수(예측자와 반응 모두)를 여전히 "정규화"하는 경향이 있다는 것입니다.   원인이 될 수 있다는 추측이 전혀 없는데도 왜 이런 관행이 생겨났고 널리 퍼졌습니까?   나는 이것에 대한 몇 가지 이론을 가지고 있습니다: 무지, 통계적 요리책을 따르는 경향, 오류 전파 등.
두 가지 설명이 더 그럴듯해 보입니다. 첫째, 사람들은 관계를 선형화하기 위해 데이터를 정규화합니다.   예를 들어, 대수 예측 변수 변환을 사용하여 일반적인 최소 제곱 메커니즘을 사용하여 지수 함수를 맞출 수 있습니다.   이것은 정상적인 것처럼 보일 수 있지만 모델에서 직접 비선형 관계를 지정하지 않는 이유는 무엇입니까(예: 적절한 연결 기능 사용)?   또한 응답의 로그 변환 실행은 예를 들어 0 카운트 카운트 데이터의 경우와 같이 심각한 아티팩트를 유발할 수 있습니다(O'Hara & Kotze 2010).
실습의 "정규화"에 대한 두 번째 그럴듯한 이유는 내 동료인 Katherine Mertes-Schwartz가 제안했습니다. 아마도 연구원들이 문제를 해결하려고 노력하고 있고 그들의 데이터가 매우 고르지 않은 방식으로 수집되었기 때문일 것입니다.   다시 말해, 하나는 그라디언트의 특정 부분에서 집계된 많은 수의 관찰이 있는 데이터로 작업하는 반면, 그라디언트의 다른 부분은 상대적으로 적게 표현되는 경우가 많습니다.   이는 편향된 분포로 이어집니다.   이러한 분포를 변환하면 기울기를 따라 관측값이 규칙적으로 분포하고 이상값이 제거됩니다.   사실 이것은 좋은 의도로 할 수 있습니다.   그러나 이것도 근본적으로 잘못된 것입니다.

나에게 이 말은(충격?), 적절한 단어를 찾을 수 없다. 하지만 명심하겠습니다

Predictors, responses and residuals: What really needs to be normally distributed?
Predictors, responses and residuals: What really needs to be normally distributed?
  • www.r-bloggers.com
[This article was first published on Are you cereal? » R , and kindly contributed to R-bloggers]. (You can report issue about the content on this page here)
 
막심 드미트리예프스키 :

이 모든 작업은 파이썬에 있습니다

그것은 인쇄 에 관한 것이 아니라 제너레이터와 반복자에 관한 것입니다.

사유: