요컨대, alglib에서 분류 오류 및 logloss .. logloss에 따르면 아무 것도 명확하지 않습니다. 숲 근처 기차의 분류 오류는 훈련 샘플> 0.8 및 oob 0.2로 0으로 떨어집니다.
따라서 훈련 샘플은 적어도 약간의 오류가 있도록 작게 만들어졌지만 여전히 작습니다. 파이썬과 비교하는 방법을 모르겠습니다.
오히려 과적합 ... 트리는 입력 데이터를 완전히 기억할 수 있습니다. R은 줄일 수 있지만 Alglib에서 더 이상 조정할 것이 없는 것 같습니다. 예를 들어 xgboost에서 트리의 깊이는 제한될 수 있습니다. 그래서 처음에는 다루지 않고 그리드로 전환했습니다. 그러나 네트워크에는 고유한 문제가 있습니다.
도서관 : 오히려 과적합 ... 트리는 입력 데이터를 완전히 기억할 수 있습니다. R은 줄일 수 있지만 Alglib에서 더 이상 조정할 것이 없는 것 같습니다. 예를 들어 xgboost에서 트리의 깊이는 제한될 수 있습니다. 그래서 처음에는 다루지 않고 그리드로 전환했습니다. 그러나 네트워크에는 고유한 문제가 있습니다.
나무의 수와 r 만 있습니다. 예, r을 0.6보다 크게 설정하면 기차의 분류 오류는 거의 항상 0.0입니다. :)) 테스트에 옵션이있을 수 있습니다. 일반적으로 약 0.5
우리는 돈이 아니라 아이디어를 위해 여기에 있습니다)) 돈은 훨씬 더 진부한 방식으로 벌어집니다
그래, 이 아이디어는 도대체 뭐야. 음, 기계 학습이 있지만 기적은 없습니다. 단지 더 정교한 지표일 뿐 그 이상은 아닙니다.
글쎄, 주식, 선물 거래, 거기에서만 더 많은 돈이 필요하므로 이것은 나에 관한 것이 아닙니다.
그래서 프로그램을 하고 모든 것이 목욕탕에 갔다. 신경과 힘이 많이 필요하고 배기 가스는 모기 고기와 같습니다.
그래, 이 아이디어는 도대체 뭐야. 음, 기계 학습이 있지만 기적은 없습니다. 단지 더 정교한 지표일 뿐 그 이상은 아닙니다.
글쎄, 주식, 선물 거래, 거기에서만 더 많은 돈이 필요하므로 이것은 나에 관한 것이 아닙니다.
그래서 프로그램을 하고 모든 것이 목욕탕에 갔다. 신경과 힘이 많이 필요하고 배기 가스는 모기 고기와 같습니다.
당연히 안되는거죠 그런생각도 하지마세요 엉덩이가 뜨거워지는지 먼저 신경써서 고생하시고.. 아니면 이 부분에서 누수가 있는지 찾아보세요
간단히 말해서, 외환은 당신이 넘어야 할 산이라고 상상해 보십시오. 그러나 이것은 아무것도 달라붙지 않는 거의 평탄한 산이다.
그리고 MO가 1-2% 향상되면 실제로 아무 것도 제공되지 않으며 예측 변수도 없고 소음만 있으면 됩니다.
요컨대, alglib에서 분류 오류 및 logloss .. logloss에 따르면 아무 것도 명확하지 않습니다. 숲 근처 기차의 분류 오류는 훈련 샘플> 0.8 및 oob 0.2로 0으로 떨어집니다.
따라서 훈련 샘플은 적어도 약간의 오류가 있도록 작게 만들어졌지만 여전히 작습니다. 파이썬과 비교하는 방법을 모르겠습니다.
그래서 처음에는 다루지 않고 그리드로 전환했습니다. 그러나 네트워크에는 고유한 문제가 있습니다.
나는 미쳤어 ... Maksimka, 그것이 그가 돌로 된 이유입니다)) 아니, 나는 여기에도 썼습니다. 간단히 말해서 로고 손실은 페널티입니다. 물병자리에서 다시 읽으면 해석하기 쉽기 때문에 사용됩니다.
그런 다음 accuarisi에서 운이 좋다면 logloss mona를 약간 구부리고 몇 퍼센트 더 짜십시오. Fa를 보여주고 R에는 성경이 있습니다 ...
네, 저는 항상 반을 잊어버리고 1년 후에 똑같은 사실에 놀랐습니다. 다시 읽겠습니다 :) alglib에는 약간의 드라이브가 있습니다. 일반적으로 모든 것이 진지한 라이브러리와 다르며 숲은 자체 제작합니다.
나는 미쳤어 ... Maksimka, 그것이 그가 돌로 된 이유입니다)) 아니, 나는 여기에도 썼습니다. 간단히 말해서 로고 손실은 페널티입니다. 물병자리에서 다시 읽으면 해석하기 쉽기 때문에 사용됩니다.
그런 다음 accuarisi에서 운이 좋다면 logloss mona를 약간 구부리고 몇 퍼센트 더 짜십시오. 그는 Fa를 보여주었습니다. R에 성경이 있습니다 ... 그것을 algib으로 몰아 넣는 것, 예 xs, cha의 설정에서 왜곡 된 것 ...
딸랑이의 욕심을 줄여라...
당신은 일반적으로 시장에 akurashu를 cho, 내 의견으로는 적용되지 않습니다, 거기에서 처음에는 클래스가 균형이 맞지 않습니다.
당신이 akurashu 100%를 가지고 있다면, 모든 것이 대다수 클래스로 날아갈 것입니다. 이것은 일반적으로 최악의 지표입니다. 혼동 행렬을 보는 것이 더 낫습니다. 특히 클래스가 어떻게 분할되었는지 보여줍니다.
오히려 과적합 ... 트리는 입력 데이터를 완전히 기억할 수 있습니다. R은 줄일 수 있지만 Alglib에서 더 이상 조정할 것이 없는 것 같습니다. 예를 들어 xgboost에서 트리의 깊이는 제한될 수 있습니다.
그래서 처음에는 다루지 않고 그리드로 전환했습니다. 그러나 네트워크에는 고유한 문제가 있습니다.
나무의 수와 r 만 있습니다. 예, r을 0.6보다 크게 설정하면 기차의 분류 오류는 거의 항상 0.0입니다. :)) 테스트에 옵션이있을 수 있습니다. 일반적으로 약 0.5
당신은 일반적으로 시장에 akurashu를 cho, 내 의견으로는 적용되지 않습니다, 거기에서 처음에는 클래스가 균형이 맞지 않습니다.
당신이 akurashu 100%를 가지고 있다면, 모든 것이 대다수 클래스로 날아갈 것입니다. 이것은 일반적으로 최악의 지표입니다. 혼동 행렬을 보는 것이 더 낫습니다. 특히 클래스가 어떻게 분할되었는지 보여줍니다.
Nrush는 파이썬에서 다른 것을 시도합니다. 예를 들어, 고양이 부스트, 상자에서 나온 것조차 거의 제공하지 않음 + 연속으로 모든 것을 먹음 + 점이 있는 시각화 도구가 있음(컷이 많이 개선되지 않을 때 설정됨) 등...
나는 이미 그것을 설치했습니다. 내일은 GBM, 아마도 LightGbm 과 함께 시도해 볼 것입니다. 그리고 xgboost는 설정하기 귀찮은 일이고 알아내는 데 오랜 시간이 걸립니다.