트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 377

 
블라디미르 페레르벤코 :

train/test/valid로 분할한 후 train 을 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다.

행운을 빕니다


믹싱에 대해 읽을 수 있는 곳을 링크할 수 있습니까? 왜냐하면 순전히 직관적으로 이것은 말이 안 됨) 뿐만 아니라 예측자가 목표와 상관관계가 있다는 사실(이것은 슬픔을 반으로 나누면서 정리됨)
 
블라디미르 페레르벤코 :

train/test/valid로 분할한 후 train 을 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다.

행운을 빕니다

ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다.

혼성전용열차

훈련(80.0%) 세그먼트의 평균 오류 = 0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
검증(20.0%) 플롯의 평균 오차 =0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
테스트(20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다.

 
도서관 :

ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다.

혼성전용열차

훈련(80.0%) 세그먼트의 평균 오류 = 0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
검증(20.0%) 플롯의 평균 오차 =0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
테스트(20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다.


이들과 다른 파일의 오류는 무엇입니까?

 
산산이치 포멘코 :


이들과 다른 파일의 오류는 무엇입니까?

테스트 말씀이신가요?

테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에)

 
도서관 :

테스트 말씀이신가요?

테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에)


이 모든 선택 중에서
 
산산이치 포멘코 :

이 모든 선택 중에서
아니오, 모든 데이터가 사용되었습니다.
 
도서관 :
아니오, 모든 데이터가 사용되었습니다.

소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다.
 
산산이치 포멘코 :

소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다.

혼합 시:

훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 세그먼트의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6

섞지 않고

훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6

속도를 위해 2주기의 재교육 ... 이미 자야 할 시간입니다)

 
도서관 :

혼합 시:

훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6

섞지 않고

훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6

속도를 위해 2주기의 재훈련 만 ... 이미 자야 할 시간입니다)


모델은 아무것도 배우지 않습니다. 모든 것이 불도저에서 나옵니다. 어딘가에서 무언가를 낚아채다가 아무 상관이 없다는 것이 밝혀졌습니다.

데이터마이닝으로 시작하세요. 대상, 대상과 관련된 예측 변수 검색, 특정 대상에 대해 선택된 예측 변수의 예측 능력 결정, 그 다음에는 모델


다른 모든 것은 숫자의 지적인 게임입니다.

 

https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw

주말에 할 일을 찾았습니다 :) ap for noobs

그러나 사람들은 알고리즘 거래에도 참여합니다.


Основы анализа данных
Основы анализа данных
  • www.youtube.com
Канал содержит курсы по анализу данных. Все курсы бесплатны и легки в освоении Прохожу обучение в бесплатной школе Дениса Коновалова http://superpartnerka.bi...