트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 111

 
마이클 마르쿠카이테스 :
5년 동안 시장을 단 몇 분 만에 억제하려고 하시나요?????? 이 71관찰, 2주간 5분 거래가 있다면...... 그리고 매수만 . 그럼 가세요 ..... 아니면 당신이 날아 버린 ???
쇼 그는 울타리 ... 일종의 서기관
 
Dr.Trader :

앞서 말했듯이 이 측정항목은 쓸모가 없습니다.

데이터는 거의 동일한 2개의 부분으로 무작위로 나뉘며, 그 후 모델은 첫 번째 부분에서만 훈련되고 두 부분 모두에서 한 번에 테스트됩니다. ~75%의 일반화 능력은 모델이 마지막에 파일에 있는 모든 예제의 75%를 올바르게 예측한다는 것을 의미합니다.
모델이 75%에 도달할 수 있는 방법에는 몇 가지 옵션이 있습니다.
1) 모델은 훈련에 사용된 데이터에 대해 100% 정확도로 훈련했으며 파일의 두 번째 부분에서 50%(동전 던지기와 동일)를 받은 새 데이터에 대처하지 못했습니다. 평균은 75%에 불과합니다. 이것은 매우 나쁜 시나리오이며 거래에서 모든 것이 나쁠 것입니다.
2) 모델은 훈련 데이터에서 75%의 정확도로 훈련되었고 테스트 데이터에서도 동일한 75%를 보여 다시 평균 75%입니다. 이 상황에서 이것이 최고의 시나리오이며, 무언가를 얻을 수 있는 기회가 있습니다.
3) 이 둘 사이의 중간 옵션.

귀하의 옵션은 첫 번째 옵션에 더 가깝습니다. 이러한 결과로 거래하려면 운에 많이 의존해야 합니다. 저는 귀하의 주요 신호(순차 또는 기타) 역할을 하는 지표 덕분에 아직 보증금을 잃지 않았다고 믿습니다. 이 지표에 대해 방금 만든 고문이 지표 + jPrediction보다 더 나쁘지 않은 결과를 줄 것이라고 생각합니다.

일반화 능력이 어떻게 계산되는지 어떻게 알 수 있습니까? 이것은 Reshetov에게 알려져 있습니다. 나는 그가 앞서 말했듯이 계산이 테스트 데이터에 대해서만 수행된다고 생각합니다 ...... 고전적인 시퀀스가 실행 가능했다면 예측자를 사용하지 않을 것이지만 아아 ... 다른 사람들처럼 배수됩니다. 그러나 분류기를 추가하면 완전히 향상됩니다. 다시 한 번 나는 71개의 관찰이 5분에 2주 동안의 TS 작업이라고 씁니다. 그러한 기간 동안 이것은 상당히 수용 가능한 간격입니다. 그리고 반년 이상 그물을 꼬는 것은 더 이상 내 운명이 아니다. 2주 만에 훈련하고 하루 만에 벌고 그랬고, 아직도 성배 를 찾고 있다. 예, 저는 매일 모델을 훈련합니다. 아침부터. 다행히 최적화 시간은 이제 매우 수용 가능합니다 .....
 
mytarmailS :
sho 그는 울타리 ... 일종의 서기관
글쎄, 당신은 무엇을 이해하지 못합니까? 아니면 이해를 초월한 건가요????
 
마이클 마르쿠카이테스 :
글쎄, 당신은 무엇을 이해하지 못합니까? 아니면 이해가 안되는건가요????

나는 당신에게 일반적인 능력을 어떻게 측정하는지 묻고 당신은 역사와 다른 말도 안되는 몇 년에 대해 이야기합니다 ...

동일한 실험을 시뮬레이션하기 위해 이것을 알아야 합니다. 나는 한 가지 방법으로 나 자신의 일반적인 능력을 다른 방법으로 당신 자신의 일반적인 능력을 측정할 수 없습니다. 그러나 당신은 이 능력을 측정하는 방법을 모릅니다, 당신이 할 수 있는 전부는 보기 의 숫자에서   jPrediction , 그것들이 어디에서 어떻게 왔는지 조금도 모른 채, 따라서 그들이 당신에게 특정한 질문을 하기 시작할 때, 당신은 수년간의 역사 등에 대해 말도 안되는 이야기를 시작합니다. 그러니 그만 ... 제발 ...

 
mytarmailS :

나는 당신에게 일반적인 능력을 어떻게 측정하는지 묻고 당신은 역사와 다른 말도 안되는 몇 년에 대해 이야기합니다 ...

동일한 실험을 시뮬레이션하기 위해 이것을 알아야 합니다. 나는 한 가지 방법으로 나 자신의 일반적인 능력을 다른 방법으로 당신 자신의 일반적인 능력을 측정할 수 없습니다. 그러나 당신은 이 능력을 측정하는 방법을 모릅니다, 당신이 할 수 있는 전부는 보기 의 숫자에서   jPrediction , 그것들이 어디에서 어떻게 왔는지 조금도 모른 채, 따라서 그들이 당신에게 특정한 질문을 하기 시작할 때, 당신은 수년간의 역사 등에 대해 말도 안되는 이야기를 시작합니다. 그러니 그만 ... 제발 ...

나는 이미 Reshetov 예측자를 사용한다고 설명했습니다. H가 일반화 능력을 측정하는 방법은 Yuri에 대한 질문입니다. 도대체 왜 나한테 묻는거야, 이해가 안가. 물어. 그가 공식을 줬고 나는 그것들을 일반적인 용어로 기억하지만 왜 나에게 묻는지 이해가 되지 않습니다. 나는 그의 프로그램의 어리석은 사용자이며 더 이상 .....
 
마이클 마르쿠카이테스 :
나는 계산이 오로지 테스트 데이터를 기반으로 한다고 생각한다.

그렇다면 다행입니다. 훨씬 낫습니다.

어쨌든 전면 테스트는 결과를 훨씬 더 잘 보여줍니다. 파일을 2개의 부분으로 나누었습니다(순서대로 섞지 않고). 첫 번째 부분에는 50개의 줄이 있고 두 번째 부분에는 19개가 있습니다. 따라서 jPrediction은 두 번째 파일의 예제에 액세스할 수 없으며 이것은 정말 새롭습니다. 모델에 대한 데이터.

결과적으로 두 번째 파일에서 JPrediction은 9개의 경우에만 답변을 제공했습니다. 5개의 경우가 맞고 4개의 경우가 틀립니다. 정확도는 약 50%이며 이 결과에는 좋은 것이 없습니다.

파일:
 
트레이더 박사 :

그렇다면 다행입니다. 훨씬 낫습니다.

어쨌든 전면 테스트는 결과를 훨씬 더 잘 보여줍니다. 파일을 2개의 부분으로 나누었습니다(순서대로 섞지 않고). 첫 번째 부분에는 50개의 줄이 있고 두 번째 부분에는 19개가 있습니다. 따라서 jPrediction은 두 번째 파일의 예제에 액세스할 수 없으며 이것은 정말 새롭습니다. 모델에 대한 데이터.

결과적으로 두 번째 파일에서 JPrediction은 9개의 경우에만 답변을 제공했습니다. 5개의 경우가 맞고 4개의 경우가 틀립니다. 정확도는 약 50%이며 이 결과에는 좋은 것이 없습니다.

동의한다. 입력 작업을 해야 합니다...
 
트레이더 박사 :

그렇다면 다행입니다. 훨씬 낫습니다.

어쨌든 전면 테스트는 결과를 훨씬 더 잘 보여줍니다. 파일을 2개의 부분으로 나누었습니다(순서대로 섞지 않고). 첫 번째 부분에는 50개의 줄이 있고 두 번째 부분에는 19개가 있습니다. 따라서 jPrediction은 두 번째 파일의 예제에 액세스할 수 없으며 이것은 정말 새롭습니다. 모델에 대한 데이터.

결과적으로 두 번째 파일에서 JPrediction은 9개의 경우에만 답변을 제공했습니다. 5개의 경우가 맞고 4개의 경우가 틀립니다. 정확도는 약 50%이며 이 결과에는 좋은 것이 없습니다.

19, 50, 누가 더 많습니다. 최소한 수백 개의 행이 있는 데이터 세트 데이터베이스에서 예를 들어 보십시오.

나 자신이 매개 변수를 선택하고 데이터를 분할하는 것을 선호하기 때문에 이 소프트웨어는 적합하지 않습니다. 하지만 입문용으로서는 흥미로울 것이라고 생각합니다.

 

레셰토프!

내 제안은 여전히 유효합니다.

 
mytarmailS :

안녕하세요 유리님!

질문있습니다)) 순차검색에 대해...

예측 변수가 10개 있다고 가정해 보겠습니다.

1, 2, 3 , 4, 5, 6 , 7, 8, 9, 10

예측 변수의 녹색 그룹은 일반화 능력이 가장 우수한 그룹이며 이 그룹에 다른 N+1 예측 변수가 추가됩니다.

빨간색 그룹, 이것은 녹색 그룹보다 약간 더 나쁜 모습을 보인 그룹이며 ( 빨간색 ) 흉상에는 참여하지 않습니다. 모든 검색은 이미 녹색 그룹에 묶여 있습니다.

질문: 다른 예측 변수를 하나씩 N + 1로 검색한 후 결국 빨간색 그룹이 더 일반화할 수 있는 능력이 있고 동일한 것이 사실이거나 제가 뭔가를 잘못 이해한 것으로 밝혀지면 어떻게 합니까 ???? 명확히 해주세요

데이터와 알고리즘을 보지 않고 명확한 답을 얻고 싶다면 SanSanych Fomenko 에 문의하는 것이 가장 좋습니다. 그의 얼굴에 지적인 얼굴을 하고 있는 그는 모호함에 관계 없이 어떤 문제에 대해서도 "정확하고 가치 있는" 지시를 내릴 것입니다.

그리고 보다 정확한 답변을 원하시면 A/B 테스팅, 즉 한 경우에는 빨간색과 검은색을 녹색에 연결하고 두 번째 경우에는 검정색만 연결하십시오. 실험 결과에 따라 어떤 변형에서 가장 좋은 일반화 능력을 얻을 수 있는지, 그 변형이 작업에 가장 적합합니다.

결론은 경험의 결과가 항상 진실의 기준이라는 것입니다.

예를 들어, 오늘 저는 jPrediction에 대한 데이터 센터링을 테스트했습니다. 결과는 다른 샘플에서 실망스럽거나 약간 더 좋았습니다. 역전파가 있는 메시의 경우 센터링이 눈에 띄게 향상됩니다. 선형 정규화를 떠나야 했습니다.

그리고 A/B 테스팅을 하지 않고 경험 대신 머신러닝에 관한 책이나 강의에서 '기성 지식'을 가져오거나, 다 아는 걸 물어보면 답이 나올 텐데. 선형 정규화보다 "센터링이 더 좋습니다. 경험에 따르면 이것이 모든 알고리즘에 대해 명백한 사실은 아닙니다.

여기 파이가 있습니다.

사유: