전략이 새로운 데이터에서 작동할지 여부를 알 수 있는 전략 재교육 지표만 있으면 나머지는 모두 해결할 수 있습니다....
----------------------------------------
오버트레이닝을 감지하기 위해 몇 가지 접근 방식을 취할 아이디어가 있는데, 제 아이디어는 Prado "PBO"의 auto.arima를 기반으로 합니다. 과잉 훈련을 감지하기 위해 몇 가지 접근 방식을 취할 아이디어가 있습니다. 제 것은 auto.arima, Prado "PBO"를 기반으로하고, 아마도 다른 것을 예측 변수로 던지고 AMO가 과잉 훈련 확률을 예측하고이를 메트릭으로 만들도록 가르 칠 수 있습니다.
또는
매우 흥미롭습니다. 오버트레이닝은 MO의 두 번째 기둥입니다. 첫 번째는 쓰레기에서 예측 인자를 제거하는 것입니다. 하지만 세 번째 기둥은 앞을 내다보는 것입니다. 여기에는 전혀 생각이 없습니다.
그렇군요... 어때요?
죄송합니다.
안녕하세요, 엔진룸!
강력한 신경망도 만들었습니다.
파운드돌과 일반 비행을 위해 훈련시켰습니다.
안녕하세요 엔진룸!
저도 강력한 신경망을 만들었습니다.
파운드돌과 일반 비행을 위해 훈련시켰습니다.
거래 내역을 볼 수 있도록 거래 내역을 볼 수 있나요?
거래 내역을 볼 수 있도록 거래 내역을 볼 수 있나요?
파운드돌에서 트레이딩을 해봤는데 괜찮아요... 하지만 거래 내역이 많지 않아요.
그래도 다행이네요
이제 저는 신경망이 트레이딩을 하면서 스스로 학습하도록 만들고 있습니다.
스마트 봇을 만들면 매주 훈련할 필요가 없죠.
파운드돌로 훈련해봤는데 괜찮아요. 하지만 역사가 많지 않아요.
그래도 다행이에요.
이거 데모인가요? (5~10핍 정지)
데모인가요?
네.
yes
알겠습니다.
하지만 4자리 숫자 100개의 핍을 먹도록 훈련하는 방법이 가능한가요?
제 말은, 핍에서 벗어나기 위해서요.전략 앤서블 소개
https://buildalpha.wordpress.com/2018/11/20/buildalpha-ensemble-strategies-reduce-overfitting-by-combining-strategies/
----------------------------------------
전략이 새로운 데이터에서 작동할지 여부를 알 수 있는 전략 재교육 지표만 있으면 나머지는 모두 해결할 수 있습니다....
----------------------------------------
오버트레이닝을 감지하기 위해 몇 가지 접근 방식을 취할 아이디어가 있는데, 제 아이디어는 Prado "PBO"의 auto.arima를 기반으로 합니다. 과잉 훈련을 감지하기 위해 몇 가지 접근 방식을 취할 아이디어가 있습니다. 제 것은 auto.arima, Prado "PBO"를 기반으로하고, 아마도 다른 것을 예측 변수로 던지고 AMO가 과잉 훈련 확률을 예측하고이를 메트릭으로 만들도록 가르 칠 수 있습니다.
또는
매우 흥미롭습니다. 오버트레이닝은 MO의 두 번째 기둥입니다. 첫 번째는 쓰레기에서 예측 인자를 제거하는 것입니다. 하지만 세 번째 기둥은 앞을 내다보는 것입니다. 여기에는 전혀 생각이 없습니다.