위에서 언급 한 문제는 훈련 파일과 OOS 파일에서 우수한 결과를 얻은 모델이 있다는 것입니다. 훈련 파일은 샘플별로 무작위 샘플링을 해도 얻을 수 있고, OOS는 훈련 파일에서 나온 잔여물이라는 것을 알고 있습니다.
그러나 외부 파일에서 모델을 실행할 때 결과는 치명적으로 나쁩니다.
몇 년 전에 그런 변종이 있었던 것을 기억합니다.
그 이유를 찾아냈습니다. 그 이유는 앞을 내다 보는 것이 무엇인지 이해하기가 매우 어렵 기 때문에 매우 불편한 이유였습니다.
그런 다음 교사가 ZZ의 증분 인 모델을 만들었고 계산에 ZZ가 포함 된 많은 예측 변수가 있습니다. 예를 들어, 가격과 ZZ의 차이입니다. 훈련 할 때 ZZ의 올바른 링크가 포함되지 않은 파일 조각을 단순히 잘라 냈습니다. 그리고 예측 변수를 계산할 때 누락된 ZZ 값은 마지막 링크까지 확장했습니다.
무작위 샘플을 제공하는 세 개의 파일(이것은 Rattle에 있습니다)은 약 5%의 분류 오류를 발생시켰습니다. 그러나 처음 세 파일과 관련이 없는 네 번째 파일은 무작위 오류가 발생했습니다.
그러나 ZZ가 계산에 관여하는 모든 예측 인자를 제거하면 모든 것이 제자리를 찾습니다. 분류 오류는 네 파일 모두에서 거의 동일합니다.
이것은 미래를 내다보는 것입니다.
재교육을 통해 분명한 것은 테스터에서 최적화를 사용하고 R에서 쓰레기에서 예측자 목록을 정리하는 데 매우 주의를 기울여야 한다는 것입니다. 하지만 앞을 내다보는 것을 어떻게 감지할 수 있을까요?
과거의 경험에 비추어 보면 다음과 같은 것이 분명합니다. 훈련, 테스트 및 검증에서 분류 오류가 10% 미만인 경우 오류가 20% 30%로 증가할 때까지 예측자를 하나씩 버려야 합니다. ....
저는 그 이유를 찾아냈습니다. 그 이유는 앞을 내다보기 때문인데, 앞을 내다본다는 것이 무엇인지 이해하기가 매우 어렵기 때문에 매우 불편한 이유입니다.
그런 다음 교사가 ZZ의 증분 인 모델을 사용했으며 계산에 ZZ가 포함 된 많은 예측 변수가 있습니다. 예를 들어, 가격과 ZZ의 차이입니다. 훈련 할 때 ZZ의 올바른 링크가 포함되지 않은 파일 조각을 잘라 내기 만하면됩니다. 그리고 예측 변수를 계산할 때 ZZ의 누락된 값은 마지막 링크까지 확장했습니다.
활동적인 시장 조사원 전체가 여기 R에 앉아 있습니다... 요약하자면...
위에서 언급 한 문제는 훈련 파일과 OOS 파일에서 우수한 결과를 얻은 모델이 있다는 것입니다. 훈련 파일은 샘플별로 무작위 샘플링을 해도 얻을 수 있고, OOS는 훈련 파일에서 나온 잔여물이라는 것을 알고 있습니다.
그러나 외부 파일에서 모델을 실행할 때 결과는 치명적으로 나쁩니다.
몇 년 전에 그런 변종이 있었던 것을 기억합니다.
그 이유를 찾아냈습니다. 그 이유는 앞을 내다 보는 것이 무엇인지 이해하기가 매우 어렵 기 때문에 매우 불편한 이유였습니다.
그런 다음 교사가 ZZ의 증분 인 모델을 만들었고 계산에 ZZ가 포함 된 많은 예측 변수가 있습니다. 예를 들어, 가격과 ZZ의 차이입니다. 훈련 할 때 ZZ의 올바른 링크가 포함되지 않은 파일 조각을 단순히 잘라 냈습니다. 그리고 예측 변수를 계산할 때 누락된 ZZ 값은 마지막 링크까지 확장했습니다.
무작위 샘플을 제공하는 세 개의 파일(이것은 Rattle에 있습니다)은 약 5%의 분류 오류를 발생시켰습니다. 그러나 처음 세 파일과 관련이 없는 네 번째 파일은 무작위 오류가 발생했습니다.
그러나 ZZ가 계산에 관여하는 모든 예측 인자를 제거하면 모든 것이 제자리를 찾습니다. 분류 오류는 네 파일 모두에서 거의 동일합니다.
이것은 미래를 내다보는 것입니다.
재교육을 통해 분명한 것은 테스터에서 최적화를 사용하고 R에서 쓰레기에서 예측자 목록을 정리하는 데 매우 주의를 기울여야 한다는 것입니다. 하지만 앞을 내다보는 것을 어떻게 감지할 수 있을까요?
과거의 경험에 비추어 보면 다음과 같은 것이 분명합니다. 훈련, 테스트 및 검증에서 분류 오류가 10% 미만인 경우 오류가 20% 30%로 증가할 때까지 예측자를 하나씩 버려야 합니다. ....
지그재그는 미래가 아닌 막대의 순간에 그려야 합니다.
모델이 찾고 있는 패턴은 한 줄이며 인접한 줄은 고려되지 않고 훈련용 샘플은 1500개의 막대이기 때문에 모델 훈련의 경우 ZZ는 필요하지 않기 때문에 확장되지 않았습니다.
과거 경험에 따르면 다음과 같이 적용됩니다. 훈련, 테스트 및 검증에서 분류 오류가 10% 미만인 경우 오류가 20% 30%로 증가할 때까지 예측자를 하나씩 어리석게 버립니다. ....
천재)))))
오차가 10% 미만인 실제 예측자를 찾는 방법은 무엇인가요?
그들이 존재하지 않는다고 말하지 마세요, 그것은 믿음의 문제입니다....
이 지그재그 쓰레기는 어디서 왔으며 누가 먼저 발명했을까요?
자신이 좋아하는 자신을 과시하기보다는 문제의 본질에 대해 글을 쓰는 데 관심이 있거나 전혀 관심이 없으신가요?
저는 그 이유를 찾아냈습니다. 그 이유는 앞을 내다보기 때문인데, 앞을 내다본다는 것이 무엇인지 이해하기가 매우 어렵기 때문에 매우 불편한 이유입니다.
그런 다음 교사가 ZZ의 증분 인 모델을 사용했으며 계산에 ZZ가 포함 된 많은 예측 변수가 있습니다. 예를 들어, 가격과 ZZ의 차이입니다. 훈련 할 때 ZZ의 올바른 링크가 포함되지 않은 파일 조각을 잘라 내기 만하면됩니다. 그리고 예측 변수를 계산할 때 ZZ의 누락된 값은 마지막 링크까지 확장했습니다.
포레스터가 올바르게 말했듯이, 반복할 때마다 루프에서 예측자를 계산해야 합니다. ....
이것이 해결책입니다.
Genius)))))
그렇다면 10% 미만의 오차를 가진 실제 예측자를 찾는 방법은 무엇일까요?
없다고 말하지 마세요, 믿음의 문제입니다.....
간단합니다.
위에 ZZ의 예로 어떻게 했는지 썼습니다.
그러나 그것은 ZZ에 관한 것이 아닙니다 : 우리는 선생님의 성가를 예측 자에 넣고 외부 파일에서 실행하기 전에 행복을 얻습니다.
그리고 Maxim이 매우 아름다운 그림으로하는 것처럼 파일을 실행하고 행복하게 살 수는 없습니다.
그러나 앞을 내다 보는 문제로 돌아갑니다. 무딘 오버 슈트를 제안했습니다. 아니면 다른 것이 있을까요?
자신이 좋아하는 자신을 과시하기보다는 문제의 장점에 대해 글을 쓰는 데 관심이 있거나 전혀 관심이 없습니까?