트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 393

 
마이클 마르쿠카이테스 :
여보세요!!!! 지점이 죽지 않고 계속 자리를 잡고 있어 다행이라 대중에게 질문을 던집니다. 훈련용 데이터 세트가 있지만 불행히도 너무 커서 훈련이 너무 오래 걸립니다. 누군가는 자신의 개발을 사용하여 모델을 만들 수 있습니다. 그러면 함께 작동하는 방법을 볼 수 있습니다 !!!!!.

입력을 그대로 두십시오(0부터 순서대로 0이 첫 번째 열입니다).

0,4,50,53,59,61,64,92,98,101,104,

파일:
 

데이터 세트의 잘린 부분을 계산하는 것으로 나타났습니다. 모델을 완전히 미러링해야 했지만 샘플 외부의 네트워크 작업 결과는 다음과 같습니다.

제 생각에는 05.29부터의 이 작품은 전혀 나쁘지 않다고 생각합니다.


 
도서관 :

입력을 그대로 두십시오(0부터 순서대로 0이 첫 번째 열입니다).

0,4,50,53,59,61,64,92,98,101,104,


옵티마이저의 장점은 불필요한 열을 제거한다는 것입니다. 따라서 그는 얼마나 오랫동안 공포를 고려합니다. 그러나 이제 내가 게시한 전체 데이터 세트를 최적화하려고 시도하지만 귀하의 권장 사항을 고려한 다음 샘플 외부에 어떤 결과가 나올지 볼 것입니다. 확인?
 
마이클 마르쿠카이테스 :

옵티마이저의 장점은 불필요한 열을 제거한다는 것입니다. 따라서 그는 얼마나 오랫동안 공포를 고려합니다. 그러나 이제 내가 게시한 전체 데이터 세트를 최적화하려고 시도하지만 귀하의 권장 사항을 고려한 다음 샘플 외부에 어떤 결과가 나올지 볼 것입니다. 확인?


굿굿!!! 로드된 교육. 칼럼이 많이 작아졌다는 점을 감안하면 금방 계산이 될 것 같아서 작업 결과를 포스팅 하도록 하겠습니다 :-)

그래서 첫 번째 훈련은 55%의 일반화 능력으로 이어졌습니다.

 

이상하게도 이 항목을 사용하면 모델도 반전되어야 하며 동일한 세그먼트에서 이러한 자산을 얻을 수 있습니다.

그것은 조금 더 나쁩니다. 그러나 그것은 또한 있을 곳이 있습니다.

오, 옵티마이저에서 전체 데이터 세트를 실행합니다. 그러면 더 많은 열이 선택되고 일반화 수준이 더 높아져 샘플 외부 영역의 네트워크 품질이 향상되었을 것이라고 생각합니다.

 
마이클 마르쿠카이테스 :


글쎄요!!! 로드된 교육. 칼럼이 많이 작아졌다는 점을 감안하면 금방 계산이 될 것 같아서 작업 결과를 포스팅 하도록 하겠습니다 :-)

그래서 첫 번째 훈련은 55%의 일반화 능력으로 이어졌습니다.

55% 일반화 능력이란?
일반 MLP 11-5-1은 다음을 제공합니다.
훈련(60.0%) 세그먼트의 평균 오류 = 0.057(5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
검증의 평균 오차(20.0%) 플롯 =0.038(3.8%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
테스트의 평균 오차(20.0%) 영역 =0.023(2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
 
도서관 :
55% 일반화 능력이란?
일반 MLP 11-5-1은 다음을 제공합니다.
훈련(60.0%) 세그먼트의 평균 오류 = 0.057(5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
검증(20.0%) 플롯의 평균 오차 =0.038(3.8%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
테스트의 평균 오차(20.0%) 영역 =0.023(2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2


뭐라고 대답해야 할지조차 모르겠습니다. 보고서에서 예를 제공하지 않는 한. 최적화의 결과 는 그런 것이고, 여기에서 어떻게 해석하느냐는 모두에게 지대한 일이지만, 최적화가 끝나면 결과는 이렇습니다.

* 일반화 능력의 민감도: 55.12820512820513%

* 일반화 능력의 특이도: 55.5045871559633%

* 일반화 능력: 55.309734513274336%

* 트루포지티브: 129

* 거짓양성: 105

* 트루네거티브: 121

* 거짓음수: 97

* 통계가 있는 샘플 중 총 패턴: 452

나는 일반화 능력의 전체 결과를 빨간색으로 강조 표시했습니다. 첫 번째는 1을 추측한 비율, 두 번째는 0을 추측한 비율, 세 번째는 총계입니다.


 
마이클 마르쿠카이테스 :


뭐라고 대답해야 할지조차 모르겠습니다. 보고서에서 예를 제공하지 않는 한. 최적화의 결과 는 그런 것이고, 여기에서 어떻게 해석하느냐는 모두에게 지대한 일이지만, 최적화가 끝나면 결과는 이렇습니다.

* 일반화 능력의 민감도: 55.12820512820513%

* 일반화 능력의 특이도: 55.5045871559633%

* 일반화 능력: 55.309734513274336%

* 트루포지티브: 129

* 거짓양성: 105

* 트루네거티브: 121

* 거짓음수: 97

* 통계가 있는 샘플 중 총 패턴: 452

나는 일반화 능력의 전체 결과를 빨간색으로 강조 표시했습니다. 첫 번째는 1을 추측한 비율, 두 번째는 0을 추측한 비율, 세 번째는 총계입니다.


MLP는 추측의 95 %에서 밝혀졌습니다 ... 당신이 올바른 자전거를 타고 있지 않은 것 같습니다) 불쾌하지 않습니다.
나는 또한 내 자신의 자전거를 만들지만 수십 년 동안 입증된 MLP를 기반으로 합니다. 그렇다면 나는 어떤 종류의 자전거입니까? 코드 어딘가에 논리에 오류가 있습니까? 다른 옵션을 테스트하는 동안 이미 몇 가지를 찾았습니다. 이 주제의 첫 번째 게시물에서 문제를 해결했습니다. 그러나 작업에서 초과분을 차단하는 동일한 필터는 그 안에서 필요한 것을 차단합니다((. 입력의 가중치, 전체 데이터에 대한 실행 필드를 통해 스크리닝을 수행할 필요가 있다고 생각합니다.
 
도서관 :
MLP는 추측의 95 %에서 밝혀졌습니다 ... 당신이 올바른 자전거를 타고 있지 않은 것 같습니다) 불쾌하지 않습니다.
나는 또한 내 자신의 자전거를 만들지만 수십 년 동안 입증된 MLP를 기반으로 합니다. 그렇다면 나는 어떤 종류의 자전거입니까? 코드 어딘가에 논리에 오류가 있습니까? 다른 옵션을 테스트하는 동안 이미 몇 가지를 찾았습니다.


문제는 저는 프로그래머가 아닙니다. 이 옵티마이저는 제가 작성한 것이 아닙니다. 저는 그냥 어떤 식으로든 사용합니다. 지정한 입력은 일반화의 55%를 제공합니다. 이는 추측하는 것보다 낫습니다. 따라서 샘플 외부에서 작업 결과를 긍정적인 이익으로 볼 수 있습니다. 지금 나를 막는 유일한 것은 모델을 미러링해야 하고 모델이 똑바르면 병합된다는 것입니다.

그러나 모든 입력에 대해 옵티마이저를 실행하면 모델이 훨씬 더 복잡해지고 더 많은 입력을 선택하게 될 것이라고 생각합니다. 그리고 그러한 모델은 이론적으로 더 잘 작동해야 합니다. 그러나 전체 데이터 세트에서 옵티마이저를 실행할 수 없습니다. 한 달 동안 계산될 것이라고 생각합니다. 그래서 희망은 GPU에서 최적화 프로그램을 실행하는 것입니다. 우리는 거기에서 보게 될 것입니다.

 
마이클 마르쿠카이테스 :


문제는 저는 프로그래머가 아닙니다. 이 옵티마이저는 제가 작성한 것이 아닙니다. 저는 그냥 어떤 식으로든 사용합니다. 지정한 입력은 일반화의 55%를 제공합니다. 이는 추측하는 것보다 낫습니다. 따라서 샘플 외부에서 작업 결과를 긍정적인 이익으로 볼 수 있습니다. 지금 나를 막는 유일한 것은 모델을 미러링해야 하고 모델이 똑바르면 병합된다는 것입니다.

그러나 모든 입력에 대해 옵티마이저를 실행하면 모델이 훨씬 더 복잡해지고 더 많은 입력을 선택하게 될 것이라고 생각합니다. 그리고 그러한 모델은 이론적으로 더 잘 작동해야 합니다. 그러나 전체 데이터 세트에서 옵티마이저를 실행할 수 없습니다. 한 달 동안 계산될 것이라고 생각합니다. 그래서 희망은 GPU에서 최적화 프로그램을 실행하는 것입니다. 우리는 거기에서 보게 될 것입니다.

한 달 동안 무언가를 실행한다면 - 무정전 전원 공급 장치를 사용하여 컴퓨터에 전원을 공급하고 2 계산 후에 어떻게 든 조명을 껐습니다))
그리고 GPU 옵션을 너무 많이 기다리지 마십시오. 코드를 다시 작성하는 데 시간이 더 오래 걸리는 것 같으며 작성자가 하지 않은 경우 다른 사람이 이 작업의 끝에 도달할 가능성은 거의 없습니다.
사유: