예, 이상한 결과입니다. 그런데 훈련에 참여하는 표본에서 확률을 취하지 않습니까? 하지만 어딘가에 오류가 있는 것 같습니다.
그리고 샘플(대상 행)의 단위는 몇 개입니까?
테스트 세트가 없습니다. 데이터 세트에는 총 891개의 행이 있습니다.
나는 공식 rms, rmse, cls 또는 다른 것 중 하나가 거기에서 사용된다고 생각합니다. 중요한 것은 결과가 0%, 50% 및 100% 지점에서 수렴된다는 것입니다. 그리고 그들 사이에는 곡선이 있습니다. 클래스로의 분할은 일반적으로 50%로 수행되며 이 위치에는 일반적인 확률과 일치합니다. 그래서 나는 그 문제를 미해결 상태로 두기로 했다.
나는 공식 rms, rmse, cls 또는 다른 것 중 하나가 거기에서 사용된다고 생각합니다. 중요한 것은 결과가 0%, 50% 및 100% 지점에서 수렴된다는 것입니다. 그리고 그들 사이에는 곡선이 있습니다. 클래스로의 분할은 일반적으로 50%로 수행되며 이 위치에는 일반적인 확률과 일치합니다. 그래서 나는 그 문제를 미해결 상태로 두기로 했다.
글쎄요, 아이디어의 깊이를 이해하려면 코드 속도를 늦출 필요가 있습니다. 그러나 기존 잎사귀를 고려하여 잎사귀에 가중치를 할당하는 방법이 흥미롭습니다.
글쎄요, 아이디어의 깊이를 이해하려면 코드 속도를 늦출 필요가 있습니다. 그러나 기존 잎사귀를 고려하여 잎사귀에 가중치를 할당하는 방법이 흥미롭습니다.
우선순위
그라디언트 부스팅의 아이디어는 서로를 연속적으로 정제하는 기본 모델의 앙상블을 구축하는 것입니다. n 번째 기본 모델은 n-1 모델 앙상블의 "오류"에 대해 학습되고 모델의 응답은 가중치 합산됩니다. "오류" 는 여기에서 인용 부호로 묶여 있습니다. 사실 각 후속 모델은 손실 함수의 역 기울기를 근사하기 때문에 실제 값과 예측 값의 차이와 반드시 같지는 않습니다(즉, 리터럴 의미의 오류 ).
가중치는 확률에 따라 평소와 같이 결정되는 것 같습니다. 그러나 분할은 분명히 최고일 뿐만 아니라 전체 결과를 향상시키는 것으로 선택됩니다. 그러나 이것은 추측일 뿐입니다. 코드를 이해하는 것은 비현실적입니다. 목록에 몇 킬로미터가 있습니다. 이것은 4000줄의 aglib가 아닙니다.
mytarmailS :
왜 켓버스트인가? 아날로그에는 없는 것이 무엇입니까?
나는 Alexey에 동의합니다. 나는 xgboost 에 대한 약간의 경험이 있습니다. 실전에서 비교가 가능합니다.
맥스! 이 모델의 이름을 알려주세요...
1) 모델 1이 훈련됨
2) 모델 1 의 테스트 데이터에 대한 예측에 따라 모델 2를 학습시키는 등
스테이킹?
예, 이상한 결과입니다. 그런데 훈련에 참여하는 표본에서 확률을 취하지 않습니까? 하지만 어딘가에 오류가 있는 것 같습니다.
그리고 샘플(대상 행)의 단위는 몇 개입니까?데이터 세트에는 총 891개의 행이 있습니다.
나는 공식 rms, rmse, cls 또는 다른 것 중 하나가 거기에서 사용된다고 생각합니다. 중요한 것은 결과가 0%, 50% 및 100% 지점에서 수렴된다는 것입니다. 그리고 그들 사이에는 곡선이 있습니다. 클래스로의 분할은 일반적으로 50%로 수행되며 이 위치에는 일반적인 확률과 일치합니다. 그래서 나는 그 문제를 미해결 상태로 두기로 했다.
질문을 해도 될까요?
왜 켓버스트인가? 아날로그에는 없는 것이 무엇입니까?
테스트 세트가 없습니다.
데이터 세트에는 총 891개의 행이 있습니다.
나는 공식 rms, rmse, cls 또는 다른 것 중 하나가 거기에서 사용된다고 생각합니다. 중요한 것은 결과가 0%, 50% 및 100% 지점에서 수렴된다는 것입니다. 그리고 그들 사이에는 곡선이 있습니다. 클래스로의 분할은 일반적으로 50%로 수행되며 이 위치에는 일반적인 확률과 일치합니다. 그래서 나는 그 문제를 미해결 상태로 두기로 했다.
글쎄요, 아이디어의 깊이를 이해하려면 코드 속도를 늦출 필요가 있습니다. 그러나 기존 잎사귀를 고려하여 잎사귀에 가중치를 할당하는 방법이 흥미롭습니다.
질문을 해도 될까요?
왜 켓버스트인가? 아날로그에는 없는 것이 무엇입니까?
다음과 같은 이유로 관심이 있습니다.
1. 지원 - 개발자로부터 많은 정보와 피드백.
2. 빠른 학습 - 모든 프로세서 코어 사용.
3. 모델 구축 및 재교육 제어를 위한 유연한 설정 - 여기에서 개선해야 할 점이 많습니다.
4. MQL5에서 훈련한 후 이진 대칭 모델을 적용하는 기능, 그러나 이것은 제 개발이 아닙니다.
고맙습니다
아마도 누군가가 관심을 가질 것입니다.
예제의 비트코인 예측을 포함하여 R의 시계열 예측에 대한 새 책이 출시되었습니다.
https://ranalytics.github.io/tsa-with-r/
글쎄요, 아이디어의 깊이를 이해하려면 코드 속도를 늦출 필요가 있습니다. 그러나 기존 잎사귀를 고려하여 잎사귀에 가중치를 할당하는 방법이 흥미롭습니다.
가중치는 확률에 따라 평소와 같이 결정되는 것 같습니다.
그러나 분할은 분명히 최고일 뿐만 아니라 전체 결과를 향상시키는 것으로 선택됩니다. 그러나 이것은 추측일 뿐입니다. 코드를 이해하는 것은 비현실적입니다. 목록에 몇 킬로미터가 있습니다. 이것은 4000줄의 aglib가 아닙니다.
왜 켓버스트인가? 아날로그에는 없는 것이 무엇입니까?
방금 이유를 물었습니다. 나는 당신이 ketbust에서 이러한 나무로 어떻게 고통받는지 알 수 있습니다. 출력에는 몇 가지 문제, 목발이 있습니다.
나는 "규칙 유도"라는 주제를 조금 파고 들었고 R에는 규칙이나 규칙의 앙상블을 생성하기 위한 많은 패키지가 있다는 것을 알았습니다.
1) 규칙을 한 줄로 표시하기 쉽습니다.
2) 인간이 읽기 쉬운 규칙
3) 사소한 것에서 유전학에 이르기까지 다양한 유형의 빌딩 규칙
4) 다른 모든 수준에서의 품질 예측
그래서 제 생각에 당신은 이 ketbust로 고통을 겪지 않아야 할 것 같은데요? ,하지만 더 즐거운 것을 가져 가라.
맥스! 이 모델의 이름을 알려주세요...
1) 모델 1이 훈련됨
2) 모델 1 의 테스트 데이터에 대한 예측에 따라 모델 2를 학습시키는 등
스테이킹?
메타 라벨링 드 프라도