모델은 보간만 할 수 있지만 외삽은 할 수 없습니다(숲과 나무의 부스팅도 마찬가지입니다). 즉, 결정 트리는 훈련 샘플의 모든 객체를 포함하는 평행 육면체 외부의 특징 공간에 위치한 객체에 대해 일정한 예측을 합니다. 노란색과 파란색 공이 있는 예제에서 이는 모델이 좌표가 > 19 또는 < 0인 모든 공에 대해 동일한 예측을 제공함을 의미합니다.
모델은 보간만 할 수 있지만 외삽은 할 수 없습니다(숲과 나무의 부스팅도 마찬가지입니다). 즉, 결정 트리는 훈련 샘플의 모든 객체를 포함하는 평행 육면체 외부의 특징 공간에 위치한 객체에 대해 일정한 예측을 합니다. 노란색과 파란색 공이 있는 예제에서 이는 모델이 좌표가 > 19 또는 < 0인 모든 공에 대해 동일한 예측을 제공함을 의미합니다.
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
Haykin 이론 Neural networks and Bishop 영어로 읽기 - 번역은 없지만 준비 중인 것 같습니다.
예, 모든 것이 간단합니다. 입력은 무작위 트랜잭션이고 출력은 결과입니다. 몬테카를로 방식이라고 하는데 아주 좋습니다. 자체가 빠르지 않습니다. 그리고 체계화는 국회 자체의 문제다.
글쎄요, 국회 자체에 특별한 이름이 있나요? 확률적 어닐링 방법 에 기반한 신경망이 교사와 함께 또는 교사 없이 어떻게 학습하고 출력 대신 입력을 최적화하는지 명확하지 않습니다. :)) 나는 책을 읽고,
Khaykin "NS 풀 코스 두 번째 에디션." 러시아어로 되어있다
글쎄요, 국회 자체에 특별한 이름이 있나요? 확률적 어닐링 방법에 기반한 신경망이 교사와 함께 또는 교사 없이 어떻게 학습하고 출력 대신 입력을 최적화하는지 명확하지 않습니다. :)) 나는 책을 읽고,
Khaykin "NS 풀 코스 두 번째 에디션." 러시아어로 되어있다
Khaykin이 있고 러시아어에는 Bishop이 없습니다.
NS - 일반적인 MLP, 훈련 - 일반적인 BP, 플레이 중 정기적인 수동 재구성만 가능합니다. 이러한 재구성을 수행하지 않거나 단순히 샘플을 혼합하면 매우 빠르게 학습하지만 훈련 시퀀스에서만 잘 작동합니다(훌륭합니다).
Khaykin이 있고 러시아어에는 Bishop이 없습니다.
NS - 일반적인 MLP, 훈련 - 일반적인 BP, 플레이 중 정기적인 수동 재구성만 가능합니다. 이러한 재구성을 수행하지 않거나 단순히 샘플을 혼합하면 매우 빠르게 학습하지만 훈련 시퀀스에서만 잘 작동합니다(훌륭합니다).
그리고 Khaikin에는 정크가 있습니다 :) 지금은 그냥 지나갈 것입니다. 즉, 항상 기사와 모델 설명으로 제한했습니다. 책에는 불필요한 것들이 많이 있습니다 (판매용 볼륨이있을 수 있도록)
그리고 Khaikin에는 정크가 있습니다 :) 지금은 그냥 지나갈 것입니다. 즉, 항상 기사와 모델 설명으로 제한했습니다. 책에는 불필요한 것들이 많이 있습니다 (판매용 볼륨이있을 수 있도록)
거짓 진술. 보통의 숲과 외삽의 부스트도 NS와 다르지 않다.
내가 접하지 않을 모든 기사에서 그들은 같은 것을 씁니다.
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
외삽은 나무에게 어렵습니다! - 피터의 통계 자료
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest는 훈련 데이터 외부에서 예측할 수 없습니다.
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
훈련 데이터보다 높게 예측하지 않는 랜덤 포레스트 회귀
내가 접하지 않을 모든 기사에서 그들은 같은 것을 씁니다.
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
외삽은 나무에게 어렵습니다! - 피터의 통계 자료
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest는 훈련 데이터 외부에서 예측할 수 없습니다.
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
훈련 데이터보다 높게 예측하지 않는 랜덤 포레스트 회귀
교육을 제대로 받지 못한 사람들이 쓴 헛소리. 그들은 과적합에 대해 들어본 적도 없고, 데이터 마이닝에 대해 알지도 못하고, 노이즈 예측기에 대해 들어본 적도 없고, 모델을 평가하는 방법도 모릅니다. 마인드 게임을 하는 일종의 무성한 속물일 뿐입니다.
교육을 제대로 받지 못한 사람들이 쓴 헛소리. 그들은 과적합에 대해 들어본 적도 없고, 데이터 마이닝에 대해 알지도 못하고, 노이즈 예측기에 대해 들어본 적도 없고, 모델을 평가하는 방법도 모릅니다. 마인드 게임을 하는 일종의 무성한 속물일 뿐입니다.
그리고 이 모든 것이 외삽에 관한 한 ..
alglib 라이브러리에서 RF를 작성한 사람들도 교육 수준이 낮은 사람들입니까?
그리고 r 블로거도 무지합니다.
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
FA를 제외한 모든 무시
FA 만
;))
FA를 제외한 모든 무시
FA 만
;))
이것은 사람들이 원리를 이해하지 않고 ML을 사용하는 방법이며 아무 것도 작동하지 않는다고 말합니다. 지난 기사에서 RF가 외삽할 수 없다는 것이 명백하므로 친숙한 데이터에서만 작동해야 합니다.
아아, 그들은 틀렸고 이것은 "무식한 사람"과 속물뿐만 아니라 다층 퍼셉트론의 "무익함"에 관한 Minsky와 그의 권위있는 의견을 기억하십시오)))
나는 일반적으로 Habré에 관한 기사에 대해 침묵합니다. 그것은 포럼에 스터핑, 99.9% 좋은 팝 광고, 솔직한 쓰레기 0.1%의 합리적인 생각을 암묵적인 형태로 "라인 사이"에 넣습니다.R에 있는 사람이 예를 들었는데 어디에서 실수를 했습니까? 불행히도 R을 사용하지 않지만 직접 재현할 수도 있습니다.