트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2255

 
도서관 :
시험에서 드물게 활성화된다는 것은 시장이 바뀌었고 기차에서 자주 발생했던 일이 더 이상 일어나지 않는다는 것을 의미합니다. 그리고 기차에서 리프 활성화가 거의 없을 필요는 없습니다.

예, 시장 변화 효과도 있다는 데 동의합니다.

기차를 봅시다.

상황은 약간 나아졌지만 활성화 횟수가 드문 잎도 있습니다.

훈련이 어떻게 진행되는지에주의하십시오-큰 가중치가있는 나무가 만들어집니다-조건부로 성공하고 작은 가중치가있는 세트, 그런 다음 다시 큰 파이와 같은 파이 및 작은 가중치로 줄무늬를 제거하면 그런 다음 확률 이동을 얻습니다.

 
알렉세이 비아즈미킨 :

예, 시장 변화 효과도 있다는 데 동의합니다.

기차를 봅시다.

상황은 약간 나아졌지만 활성화 횟수가 드문 잎도 있습니다.

훈련이 어떻게 진행되는지에주의하십시오-큰 가중치가있는 나무가 만들어집니다-조건부로 성공하고 작은 가중치가있는 세트, 그런 다음 다시 큰 파이와 같은 파이 및 작은 가중치로 줄무늬를 제거하면 그런 다음 확률 이동을 얻습니다.

이 다이어그램에서 새 모델을 훈련하면 어떻게 될지 궁금합니다.

일반적으로 아이디어 자체는 첫 번째 모델의 "내부"에서 두 번째 모델을 훈련시키는 것입니다.

 
막심 드미트리예프스키 :

왜 이 기화기를 선택합니까? 잘 작동합니다. 이것으로 아무것도 개선할 수 없습니다.

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

막심 드미트리예프스키 :

잎이 없는 간단한 신경망을 사용합니다. 부스팅만큼 새로운 데이터에 대해서도 제대로 작동하지 않습니다. 그것은 무엇을 말하는가?

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

막심 드미트리예프스키 :

기능을 선택하고 해석하기 위한 훌륭한 SHAP 도구가 있지만 파이썬에 있습니다. 당신을 위해 모든 것이 이미 완료되었습니다)

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다. 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

 
mytarmailS :

이 다이어그램에서 새 모델을 훈련하면 어떻게 될지 궁금합니다.

일반적으로 아이디어 자체는 첫 번째 모델의 "내부"에서 두 번째 모델을 훈련시키는 것입니다.

이 모델은 고대 퇴적물의 한 예입니다. 이제 제 모델에는 60,000개의 잎이 있습니다. 물론 이는 샘플링에 많은 양입니다. 나무의 수를 크게 줄이는 것이 가능합니다. 그러나 나는 CatBoost 의 잎을 평가했으며 유전자 트리의 잎에 비해 개별적으로 특성이 매우 약하다는 점에 주목합니다.

내가 훈련한 유전자 트리의 나뭇잎(수천 개의 나뭇잎)에서 측정항목을 개선할 수 있습니다.

[삭제]  
알렉세이 비아즈미킨 :

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다. 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

특정 모델의 동작에 대한 기능의 영향을 평가합니다.

 
알렉세이 비아즈미킨 :

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다 . 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

1을 더하는 것(또는 1을 빼는 것)이 최선이라는 결론에 이르렀습니다. 여기 내 연구입니다. 아마 이미 보셨을 겁니다.

Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
 
막심 드미트리예프스키 :

특정 모델의 동작에 대한 기능의 영향을 평가합니다.

나는 이것에 대해 이야기하고 평가가 결과 모델을 통해 진행된다고 말합니다.

 
도서관 :

1을 더하는 것(또는 1을 빼는 것)이 최선이라는 결론에 이르렀습니다. 여기 내 연구입니다. 아마 이미 보셨을 겁니다.

나는 그것을 전에 본 적이 없다 - 나는 보았다 - 일반적으로 나는 제거를 통해 실제 효과를 얻을 수 있다는 데 동의합니다. CatBoost에는 예측 변수를 제거하고 예측 변수가 없는 모델에 가중치를 다시 부여하는 것과 같은 방법이 있지만 아직 알아내지 못했습니다. 지금까지는 예측 변수를 추가하고 제외하는 것으로 제한했지만 하나가 아니라 그룹을 지정했습니다.

[삭제]  
알렉세이 비아즈미킨 :

나는 이것에 대해 이야기하고 평가가 결과 모델을 통해 진행된다고 말합니다.

그리고 이것은 좋다

새로운 데이터에서 어떤 징후가 손상되었는지 확인할 수 있습니다.

 

xs ... 아마도 경험 때문일 수도 있고, 아마도 내가 쿵쾅 거리기 때문일 수도 있습니다 ...)

그러나 그것은 당신이 .. 고통받는 것 같습니다 ..)