트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2255

 
도서관 :
시험에서 드물게 활성화된다는 것은 시장이 바뀌었고 기차에서 자주 발생했던 일이 더 이상 일어나지 않는다는 것을 의미합니다. 그리고 기차에서 리프 활성화가 거의 없을 필요는 없습니다.

예, 시장 변화 효과도 있다는 데 동의합니다.

기차를 봅시다.

상황은 약간 나아졌지만 활성화 횟수가 드문 잎도 있습니다.

훈련이 어떻게 진행되는지에주의하십시오-큰 가중치가있는 나무가 만들어집니다-조건부로 성공하고 작은 가중치가있는 세트, 그런 다음 다시 큰 파이와 같은 파이 및 작은 가중치로 줄무늬를 제거하면 그런 다음 확률 이동을 얻습니다.

 
알렉세이 비아즈미킨 :

예, 시장 변화 효과도 있다는 데 동의합니다.

기차를 봅시다.

상황은 약간 나아졌지만 활성화 횟수가 드문 잎도 있습니다.

훈련이 어떻게 진행되는지에주의하십시오-큰 가중치가있는 나무가 만들어집니다-조건부로 성공하고 작은 가중치가있는 세트, 그런 다음 다시 큰 파이와 같은 파이 및 작은 가중치로 줄무늬를 제거하면 그런 다음 확률 이동을 얻습니다.

이 다이어그램에서 새 모델을 훈련하면 어떻게 될지 궁금합니다.

일반적으로 아이디어 자체는 첫 번째 모델의 "내부"에서 두 번째 모델을 훈련시키는 것입니다.

 
막심 드미트리예프스키 :

왜 이 기화기를 선택합니까? 잘 작동합니다. 이것으로 아무것도 개선할 수 없습니다.

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

막심 드미트리예프스키 :

잎이 없는 간단한 신경망을 사용합니다. 부스팅만큼 새로운 데이터에 대해서도 제대로 작동하지 않습니다. 그것은 무엇을 말하는가?

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

막심 드미트리예프스키 :

기능을 선택하고 해석하기 위한 훌륭한 SHAP 도구가 있지만 파이썬에 있습니다. 당신을 위해 모든 것이 이미 완료되었습니다)

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다. 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

 
mytarmailS :

이 다이어그램에서 새 모델을 훈련하면 어떻게 될지 궁금합니다.

일반적으로 아이디어 자체는 첫 번째 모델의 "내부"에서 두 번째 모델을 훈련시키는 것입니다.

이 모델은 고대 퇴적물의 한 예입니다. 이제 제 모델에는 60,000개의 잎이 있습니다. 물론 이는 샘플링에 많은 양입니다. 나무의 수를 크게 줄이는 것이 가능합니다. 그러나 나는 CatBoost 의 잎을 평가했으며 유전자 트리의 잎에 비해 개별적으로 특성이 매우 약하다는 점에 주목합니다.

내가 훈련한 유전자 트리의 나뭇잎(수천 개의 나뭇잎)에서 측정항목을 개선할 수 있습니다.

 
알렉세이 비아즈미킨 :

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다. 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

특정 모델의 동작에 대한 기능의 영향을 평가합니다.

 
알렉세이 비아즈미킨 :

문제가 무엇인지 이해하면 해결책을 찾을 수 있습니다. 분명히 그러한 나무에는 단점이 있습니다.

그러나 나는 CatBoost 코드를 변경하기 위해 이해하지 못할 것이라는 데 동의합니다.

그러나 모델에 영향을 미칠 수 있습니다. 아마도 잎에서 드문 예를 0으로 만드는 것이 긍정적인 효과를 줄 수 있지만 나중에 잎 계수의 무게를 다시 측정하는 것이 바람직합니다. 이것은 더 어렵지만 전체적으로 해결할 수 있습니다.

나는 또한 과적합 효과가 있을 것이라는 데 동의하지만 성격이 다릅니다. 문제는 이러한 효과 중 어느 것이 더 정확하게 식별되고 평가될 수 있고 어느 것이 다루기 더 쉬운가입니다.

사실, 이러한 방법의 대다수는 모델에서 예측 변수의 사용에 대해서만 이야기할 뿐 자체 평가는 하지 않습니다. 모델에 독립적인 예측 변수 추정이 필요합니다 . 작업 중입니다. 약간의 긍정적인 결과가 있습니다.

물론 파이썬이나 R에서 기성품 솔루션을 비틀고 싶지만 새 구문을 마스터할 수 있을지 의구심이 듭니다.

1을 더하는 것(또는 1을 빼는 것)이 최선이라는 결론에 이르렀습니다. 여기 내 연구입니다. 아마 이미 보셨을 겁니다.

Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
 
막심 드미트리예프스키 :

특정 모델의 동작에 대한 기능의 영향을 평가합니다.

나는 이것에 대해 이야기하고 평가가 결과 모델을 통해 진행된다고 말합니다.

 
도서관 :

1을 더하는 것(또는 1을 빼는 것)이 최선이라는 결론에 이르렀습니다. 여기 내 연구입니다. 아마 이미 보셨을 겁니다.

나는 그것을 전에 본 적이 없다 - 나는 보았다 - 일반적으로 나는 제거를 통해 실제 효과를 얻을 수 있다는 데 동의합니다. CatBoost에는 예측 변수를 제거하고 예측 변수가 없는 모델에 가중치를 다시 부여하는 것과 같은 방법이 있지만 아직 알아내지 못했습니다. 지금까지는 예측 변수를 추가하고 제외하는 것으로 제한했지만 하나가 아니라 그룹을 지정했습니다.

 
알렉세이 비아즈미킨 :

나는 이것에 대해 이야기하고 평가가 결과 모델을 통해 진행된다고 말합니다.

그리고 이것은 좋다

새로운 데이터에서 어떤 징후가 손상되었는지 확인할 수 있습니다.

 

xs ... 아마도 경험 때문일 수도 있고, 아마도 내가 쿵쾅 거리기 때문일 수도 있습니다 ...)

그러나 그것은 당신이 .. 고통받는 것 같습니다 ..)