이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에서 자르기, 배깅이 있는지 모르겠습니다.
이 변수가 1보다 작게 만들어지면 오류가 증가해야 합니다.
그렇긴 하지만 위에서 설명한 대로 오류는 여전히 평균으로 표시되었습니다. 이제 정상입니다.
이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에 크롭이 있는지 모르겠지만 배깅이 있습니다.
그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%에서 오류가 전혀 없을 수 있다는 사실에 대해 말하고 있습니다. R=1.
나는 숲이 어떻게 작동하는지 들어가지 않았습니다. 그러나 말에 따르면, 각 나무는 나중에 반복되지 않을 수 있는 일종의 패턴을 기억한다는 것을 이해합니다. 동시에, 따라서 (반복이 없기 때문에) 플러스로 풀릴 확률은 얼마인지 말할 수 없으며 공리로서 확률을 0.5로 취하는 대신 1로 취합니다. 본질적으로 알려지지 않았습니다. 따라서 우리는 숲이 실제로 실수가 아니라는 것을 알 수 있습니다(당신의 말에서).
안드레이 키셀료프 : 나는 숲이 어떻게 작동하는지 들어가지 않았습니다. 그러나 말에 따르면, 각 나무는 나중에 반복되지 않을 수 있는 일종의 패턴을 기억한다는 것을 이해합니다. 동시에, 따라서 (반복이 없기 때문에) 플러스로 풀릴 확률은 얼마인지 말할 수 없으며 공리로서 확률을 0.5로 취하는 대신 1로 취합니다. 본질적으로 알려지지 않았습니다. 따라서 우리는 숲이 실제로 실수가 아니라는 것을 알 수 있습니다(당신의 말에서).
감사합니다.
R=1은 각 트리가 패턴의 전체 훈련 세트를 기억한다는 것을 의미하고 0.66은 66%만 기억하고 각 트리가 패턴을 선택한다는 것을 의미합니다. 같은 패턴이 숲의 많은 나무에서 반복될 수 있습니다.
이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에서 자르기, 배깅이 있는지 모르겠습니다.
이 변수가 1보다 작게 만들어지면 오류가 증가해야 합니다.
그렇긴 하지만 위에서 설명한 대로 오류는 여전히 평균으로 표시되었습니다. 이제 정상입니다.
그건 그렇고, r이 o.1 감소하더라도 오류는 매우 좋습니다. 크게 증가합니다. 상단 r 0.9 하단 0.8
r = 0.66에서(RF의 클래식 버전에서와 같이)
그리고 결과는 그 표를 보여줍니다. 곱셈은 이미 잘못 풀었다
이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에 크롭이 있는지 모르겠지만 배깅이 있습니다.
이 변수가 1보다 작게 만들어지면 오류가 증가해야 합니다.
500000000000000에 대해 1번 잘못된 거래를 해야 하는데, 이는 어떤 상품에서도 불가능합니다.
감사합니다.
@Maxim Dmitrievsky 만큼 오류가 작도록
500000000000000에 대해 1번 잘못된 거래를 해야 하는데, 이는 어떤 상품에서도 불가능합니다.
감사합니다.
그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%, 즉 R=1.
예, 이것은 과적합이지만 이것이 알고리즘이 작동하는 방식입니다. 이것이 랜덤 포레스트에서 모든 종류의 트릭을 사용하는 이유입니다.
그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%에서 오류가 전혀 없을 수 있다는 사실에 대해 말하고 있습니다. R=1.
이를 위해서는 모델을 평가하기 위해 가방 밖에서 살펴봐야 하지만 r = 0.66 max set yes
그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%에서 오류가 전혀 없을 수 있다는 사실에 대해 말하고 있습니다. R=1.
감사합니다.
이를 위해서는 모델을 평가하기 위해 가방 밖에서 살펴봐야 하지만 r = 0.66 max set yes
선택은 필수겠지만 하나의 배깅은 그다지 강력한 예측 기술은 아니다 - IMHO
글쎄, 그들이 지금까지 부자가 된 것은 .. :) 그러면 일반 lib를 diplerning과 연결하면 볼 것입니다.
하지만 속도!
그렇긴 하지만 위에서 설명한 대로 오류는 여전히 평균으로 표시되었습니다. 이제 정상입니다.
그건 그렇고, r이 o.1 감소하더라도 오류는 매우 좋습니다. 크게 증가합니다. 상단 r 0.9 하단 0.8
r = 0.66에서(RF의 클래식 버전에서와 같이)
그리고 결과는 그 표를 보여줍니다. 곱셈은 이미 잘못 풀었다
감사합니다.
나는 숲이 어떻게 작동하는지 들어가지 않았습니다. 그러나 말에 따르면, 각 나무는 나중에 반복되지 않을 수 있는 일종의 패턴을 기억한다는 것을 이해합니다. 동시에, 따라서 (반복이 없기 때문에) 플러스로 풀릴 확률은 얼마인지 말할 수 없으며 공리로서 확률을 0.5로 취하는 대신 1로 취합니다. 본질적으로 알려지지 않았습니다. 따라서 우리는 숲이 실제로 실수가 아니라는 것을 알 수 있습니다(당신의 말에서).
감사합니다.
NS 신호에 대한 임계값을 높이면 필요한 입력 데이터의 양을 늘려 이를 보상하므로 오류는 줄어들었지만 입력 옵션은 적었습니다.
감사합니다.
글쎄, 여기에 질문은 이미 올바른 기능과 대상에 있습니다. 비록 그것이 곱셈 테이블보다 간단할 수 있지만 거기에서도 오류는 작지 않습니다