트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3341

 
Maxim Dmitrievsky #:

AB로 인해 실제로 C가 표시되나요, 아니면 다른 문자 집합이표시되나요?

그게 바로 그 질문입니다...
그것이 단지 연관성인지 또는 AB가 실제로 C를 유발하는지 이해하는 방법

 
Maxim Dmitrievsky #:

통계적 추론이 인과적 추론과 어떻게 다른지 읽어보셨죠?

막심 드미트리예프스키 #:
본론으로 들어가서 연관 추론과 인과 추론의 차이점은 무엇일까요?

저자는 선형 회귀의 적용 가능성의 한계를 설명하는 데 신경을 썼습니다. 마이너스 포인트.

메타 학생은 모델의 앙상블이 아니며, 마이너스 포인트입니다.

이 책의 다른 부분에서 동의하지 않거나 오히려 책에서 이해하지 못한 부분은 무엇입니까?

물론 당신은 최고의 전문가이고 사람들에게 점수를 줄 여유가 있지만, 당신이 구체적으로 응답 할 것이라는 기대에 다시 한 번 구체적으로 글을 쓸 수는 없습니다.


이 책에서 동의하지 않는 부분이나 책에서 이해하지 못한 부분은 무엇인가요?

저는 동의하지 않는 부분은 어디에도 쓴 적이 없습니다.

저는 잘 알려진 개념에 새로운 라벨을 붙이는 것에 반대합니다.

이미 다 알려져있고 알려진 것에 안개를 씌우는 것은 매우 도움이되지 않습니다.

저자는 선형 회귀의 적용 가능성의 한계를 언급하는 데 신경을 썼습니다. 마이너스 1점.

본문에서 보지 못했습니다:

1. 선형 회귀는 고정 된 무작위 프로세스에 적용 가능합니다.

2. 선형 회귀를 맞춘 잔차는 정규 분포여야 합니다.

그의 예에서 이것이 사실이 아니고 그 반대가 언급되지 않았다면 그의 모든 추론의 일부입니다.

원인과 결과에 대한 이 책의 모든 추론은 일반적인 "잘못된 상관관계" 추론입니다.


메타 학습자는점수를 뺀 모델의 앙상블이 아닙니다.

책의 본문에 따르면,'메타 학습자'는 기존 모델을 끼워 맞추거나 예측한 결과/결과물입니다. 저자가 가장 평범한 개념에 다시 한 번 새로운 라벨을 붙이지 않았다면 제 생각을 더 정확하게 표현할 수 있는 기회가 있었을 것입니다.

그래서 명확히 하겠습니다.

모델 앙상블은 오래되고 잘 확립 된 아이디어입니다. 입력은 하위 레벨 모델의 출력이고 출력은 신호입니다. 하위 수준 모델의 결과를 결합하는 방법에는 "메타 학습자"를 결합하는 여러 가지 방법이 있습니다. 저자는 피팅 결과를 결합하는 세 가지 변형을 고려하고, 두 번째 및 세 번째 변형은 그라디언트 부스팅 모델의 결과를 결합합니다. 세 번째 변형에서는 첫 번째 레벨의 출력이 다음과 같이 결합됩니다.

이 이해할 수 없는 텍스트의 의미, 이 모든 것의 참신함이 여기에 있습니다:

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))
 
mytarmailS #:

그게 바로 문제입니다...
그것이 단지 연관성인지 아니면 실제로 C를 유발하는 AB인지 어떻게 알 수 있습니까?

이 줄이 즉시 알 수 있는지 아니면 한 번에 한 글자씩 나타나는지 명확하지 않습니다. 이러한 글자가 나타나는 원인 패턴의 시퀀스일 뿐이라면 작업이 매우 형식화되지 않은 것처럼 보입니다. 문자열 길이가 선택된 이유 등. 데이터가 전혀 올바른 형태로 표현되지 않았을 수도 있습니다.

책을 읽어보면 답을 찾을 수 있을 것입니다.

 

산치, 코줄은 복잡한 주제이며 모든 사람이 한 눈에 이해할 수있을뿐만 아니라 복잡한 주제입니다. 무언가를 이해하지 못한다고해서 거기에 잘못 쓰여진 것이 있다는 의미는 아닙니다.

원하지 않는다면 고통받지 마십시오. 그렇지 않으면 구슬에 대한 비유에서와 같이 밝혀졌습니다.

 
Maxim Dmitrievsky #:

산치, 코줄은 복잡한 주제이며 모든 사람이 한 눈에 이해할 수 있는 것은 아닙니다. 이해하지 못한다고 해서 뭔가 잘못 쓰여진 것은 아닙니다.

원하지 않는다고 고통받지 마세요.

코줄 -이것은 광고의 움직임이며 책 전체는 수학 통계의 가장 일반적인 조항의 참신함의 특이한 참신함에 대한 광고에 지나지 않습니다. 그러나 수학 통계는 정말 어려운 주제입니다.

다음은 수백 페이지의 텍스트의 결과입니다:

To the code at last! First, we have the first stage, which is exactly the same as the T-Learner.

from sklearn.linear_model import LogisticRegression

np.random.seed(123)

# first stage models
m0 = LGBMRegressor(max_depth=2, min_child_samples=30)
m1 = LGBMRegressor(max_depth=2, min_child_samples=30)

# propensity score model
g = LogisticRegression(solver="lbfgs", penalty='none') 

m0.fit(train.query(f"{T}==0")[X], train.query(f"{T}==0")[y])
m1.fit(train.query(f"{T}==1")[X], train.query(f"{T}==1")[y])
                       
g.fit(train[X], train[T]);
Now, we impute the treatment effect and fit the second stage models on them.

d_train = np.where(train[T]==0,
                   m1.predict(train[X]) - train[y],
                   train[y] - m0.predict(train[X]))

# second stage
mx0 = LGBMRegressor(max_depth=2, min_child_samples=30)
mx1 = LGBMRegressor(max_depth=2, min_child_samples=30)

mx0.fit(train.query(f"{T}==0")[X], d_train[train[T]==0])
mx1.fit(train.query(f"{T}==1")[X], d_train[train[T]==1]);
Finally, we make corrected predictions using the propensity score model.

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))

제가 프로그래밍을 이해하는 한, 주어진 코드는 어디에서 왔는지 알 수없는 함수, 결과가 아무 것도 할당되지 않고 함수 인수가 처음부터 시작되는 등 작동하는 코드가 아닙니다.

 
"...그들이 발로 짓밟고 돌아서서 당신을 무너 뜨릴까 봐"
 

맥심은 실질적인 토론을 할 수 있는 능력이 절망적으로 부족합니다.

포럼에 제가 제공 한 책의 코드 사본을 이해하는 사람이 있습니까?

나 자신은 여러 모델의 결과를 결합하는 데 다른 접근 방식을 적용하고 알고 있지만 더 이상 적용하지는 않지만 코드의 이해하기 어렵 기 때문에 비슷한 것을 보지 못했습니다.

 
😀😀😀

서프라이즈 이후 단계인 거부 단계는 아직 끝나지 않았나요? 시간이 오래 걸리고 있습니다. 수락 단계는 언제 시작되나요?
 

이 모든 카후 엘라의 완전히 쓸모없는 것에 대해 말하는 책의 부록에있는 놀라운 섹션입니다:

"

예측 메트릭이 인과 모델에 위험한 이유".

그리고 섹션의 결론입니다:

, 무작위 데이터 세트에 대한 예측 성능은 인과 관계 추론에 대한 모델이 얼마나 좋은지에 대한 선호도를 해석하지 않습니다 .


Yandex 번역

예측 성능이 인과 관계 모델에 위험한 이유

, 무작위 데이터 세트에 대한 예측 성능 은 인과 관계 추론에 대한 모델이 얼마나 좋은지에 대한 선호도를 해석 하지 않습니다.


즉, 저자에게 가장 중요한 것은 인과 관계 추론 자체이며이를 사용하려고하면 전체 구성의 아름다움이 손상됩니다.

치트!

 
즉, 교란 요인이 많은 과도하게 훈련된 모델을 통해 인과 관계를 추론하는 것은 복잡하다는 것입니다. 저는 이에 대해 여러 번 글을 썼습니다. 그리고 이는 지극히 자연스러운 일입니다. 심지어 최적화 전문가들조차도 이런 간단한 일에 대해 논쟁을 벌입니다. 글쎄요, 문맥에서 벗어나지 않고 읽는다면 그렇겠죠.

하지만 침을 튀기는 사람들과 토론하는 것은 전혀 코믹하지 않습니다. 너무 편협하시네요. 선생님이 누군지도 모르고 앙상블과 스테이킹을 혼동하는군요.

당신은 매트스탯과 코줄을 구별하지도 않으니 (무지로 인해) 모든 것이 똑같습니다.

일반적으로 MO에 관심을 가지신 지 얼마나 되셨나요? 순전히 유휴 관심에서 비롯된 것입니다. 분류자를 직접 작성하거나 Pytorch와 같은 생성자로부터 임의의 아키텍처의 NS를 구축 할 수 있습니까? 아니면 적어도 자체 테스터가 있을까요? 어둠으로 뒤덮인 미스터리입니다.

즉, 책의 저자에 대해 무엇을 반대 할 수 있습니까? 예를 들어, 왜 그가 아닌 당신의 말을 들어야 하는가)?
사유: