트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 22

 
나는 이것에 만족하지 않습니다. 일시적입니다. 나는 지표의 매개변수를 선택하는 방법을 배울 것입니다 - 나는 더 작은 기간 동안 D1에서 나올 것입니다 - 나는 같은 시간 간격에 대해 훨씬 더 많은 관찰을 할 수 있을 것입니다.
 
안녕하세요! 관심이 있는 사람이 있으면 내 연구를 공유하겠습니다.

클러스터링 아이디어에 관해서는 아무 것도 나오지 않았습니다. 하나의 클러스터에서 조각을 붙이면 균질성을 느끼지 못했습니다. 왜 그런지 모르겠습니다. 그냥 무작위입니다. 유클리드 근접이 아닌 더 명확하고 덜 거친 방법을 사용해야합니다. 주파수, 진폭 및 위상에 대한 스펙트럼 분석을 공부해야한다고 생각합니다. 푸리에가 적합하다고 생각합니다. 그래서 여기에이 주제를 이해하는 누군가가 있다면 나는 기꺼이 소통 할 것입니다. 그렇지 않아도! 선생님 구해요! 그래서 이 주제는 아직 보류 중입니다.

======================================

RF에 대한 추가 연구.

나는 어떻게 든 RF 모델 자체의 설정, 즉 파티션 수와 개수를 가지고 놀았습니다. 숲과 여기 다음 테스트에서 내 모델은 매우 잘 훈련되었고 원하는 대부분의 움직임을 포착했으며 새 데이터의 이익은 매우 꾸준히 증가했으며 어딘가에서 기하급수적으로 증가했습니다. 동일한 매개변수를 사용하여 동일한 모델을 다시 훈련하기로 결정했습니다. 마음 모델이 충분하지 않았습니다((그리고 지금은 다시 훈련하여 매우 평범한 결과를 얻었습니다. 그런 다음 동일한 매개변수를 찾기 위해 저녁 내내(약 100회) 모델을 재훈련했지만 아아, 최대 나는 그 첫 번째 모델의 결과의 1/3을 얻었습니다.

질문: 무엇이었습니까? 무작위로 판명된 재훈련 또는 모델이 데이터에 대한 일종의 강한 의존성을 포착한 경우, 귀하의 경험에 따라 일반적으로 이것을 어떻게 관련시킬 수 있습니까? 이 설정을 다시 찾을 수 있는 방법이 있습니까? 어떻게?

내가 말한 모든 결과는 새로운 데이터, 이전에 알려지지 않은 모델에서 얻은 것입니다.

총 데이터 55,000
35,000명 교육
20,000 확인
데이터 선물 RTS, TF - 5분
 
mytarmails :

======================================

RF에 대한 추가 연구.


질문: 무엇이었습니까? 무작위로 판명된 재훈련 또는 모델이 데이터에 대한 일종의 강한 의존성을 포착한 경우, 귀하의 경험에 따라 일반적으로 이것을 어떻게 관련시킬 수 있습니까? 이 설정을 다시 찾을 수 있는 방법이 있습니까? 어떻게?

이 데이터를 잊어 버릴뿐만 아니라 유사한 것이 나타나면 가능한 한 멀리 실행하십시오.

추신.

노이즈에서 초기 예측자 세트를 정리할 필요가 있습니다.

닥터 트레이더   주요 구성 요소를 시도했지만 관찰 결과가 거의 없습니다. 시도 해봐. 위 링크, 코드도 게시됨

 
산산이치 포멘코 :

이 데이터를 잊어 버릴뿐만 아니라 유사한 것이 나타나면 가능한 한 멀리 실행하십시오.


왜요? 다투다
 
mytarmailS :
안녕하세요! 관심이 있는 사람이 있으면 내 연구를 공유하겠습니다.

클러스터링 아이디어에 관해서는 아무 것도 나오지 않았습니다. 하나의 클러스터에서 조각을 붙이면 균질성을 느끼지 못했습니다. 왜 그런지 모르겠습니다. 그냥 무작위입니다. 유클리드 근접이 아닌 더 명확하고 덜 거친 방법을 사용해야합니다. 주파수, 진폭 및 위상에 대한 스펙트럼 분석을 공부해야한다고 생각합니다. 푸리에가 적합하다고 생각합니다. 그래서 여기에이 주제를 이해하는 누군가가 있다면 나는 기꺼이 소통 할 것입니다. 그렇지 않아도! 선생님 구해요! 그래서 이 주제는 아직 보류 중입니다.

=======================================

RF에 대한 추가 연구.

나는 어떻게 든 RF 모델 자체의 설정, 즉 파티션 수와 개수를 가지고 놀았습니다. 숲과 여기 다음 테스트에서 내 모델은 매우 잘 훈련되었고 원하는 대부분의 움직임을 포착했으며 새 데이터의 이익은 매우 꾸준히 증가했으며 어딘가에서 기하급수적으로 증가했습니다. 동일한 매개변수를 사용하여 동일한 모델을 다시 훈련하기로 결정했습니다. 마음 모델이 충분하지 않았습니다((그리고 지금은 다시 훈련하여 매우 평범한 결과를 얻었습니다. 그런 다음 동일한 매개변수를 찾기 위해 저녁 내내(약 100회) 모델을 재훈련했지만 아아, 최대 나는 그 첫 번째 모델의 결과의 1/3을 얻었습니다.

질문: 무엇이었습니까? 무작위로 판명된 재훈련 또는 모델이 데이터에 대한 일종의 강한 의존성을 포착한 경우, 귀하의 경험에 따라 일반적으로 이것을 어떻게 관련시킬 수 있습니까? 이 설정을 다시 찾을 수 있는 방법이 있습니까? 어떻게?

내가 말한 모든 결과는 새로운 데이터, 이전에 알려지지 않은 모델에서 얻은 것입니다.

총 데이터 55,000
35,000명 교육
20,000을 확인하십시오
데이터 선물 RTS, TF - 5분

그것은 일종의 실수였다.

이를 방지하려면 테이블에 실험 로그를 보관하십시오. 모든 훈련 매개변수, 입력 선택이 있는 경우, 최상의 입력, 훈련 결과, 검증 결과. 그리고 당신은 행복할 것입니다.

 
mytarmailS :
왜요? 다투다
아래 및 주장
 

얘들아! 예제 코드를 도와주세요

세 개의 벡터 "A", "B", "C"가 있다고 가정해 보겠습니다.

이러한 변수가 많기 때문에 자동 모드에서 차이점에 대한 모든 종류의 옵션을 빌드해야 합니다.

유형:

x1 = A - B

x2 = A - C

x3 = C - B

데이터 프레임의 열로 x1, x2, x3을 씁니다.

어렵지 않다면 코드를 보여주세요

 
mytarmailS :

얘들아! 예제 코드를 도와주세요

세 개의 벡터 "A", "B", "C"가 있다고 가정해 보겠습니다.

이러한 변수가 많기 때문에 자동 모드에서 차이점에 대한 모든 종류의 옵션을 빌드해야 합니다.

유형:

x1 = A - B

x2 = A - C

x3 = C - B

데이터 프레임의 열로 x1, x2, x3을 씁니다.

어렵지 않다면 코드를 보여주세요

작업 옵션. 최적이 아닐 수 있음:

sampleA <- as .data.frame(matrix(round(runif(n = 51000 , min = 0 , max = 1 )), ncol = 51 ))


n <- ncol(sampleA) #your columns

differences <- list()
counter <- 1
for (i in 1 :n){
         for (j in 1 :n){
                differences[[counter]] <-       sampleA[, i] - sampleA[, j]
                counter <- counter + 1
        }
}

diff_data <- as .matrix( do .call(rbind.data.frame, differences))

diff_data_frame <- as .data.frame(t(diff_data))
 
알렉세이 버나코프 :

작업 옵션. 최적이 아닐 수 있음:

정말 감사합니다 그렇지 않으면 3개의 양초와 4개의 OHLC 가격으로 모든 종류의 조합을 작성하고 세 번 땀을 흘렸고 코드가 너무 많았습니다.
 
mytarmailS :
정말 감사합니다. 그렇지 않으면 3개의 양초와 4개의 OHLC 가격으로 모든 종류의 조합을 작성하고 있었고 세 번 땀을 흘렸고 코드가 너무 많았습니다.

코드가 추가 열을 생성하지 않도록 하는 방법은 무엇입니까? 예를 들어, 함수의 3개 열에서 9개의 조합이 얻어집니다. 사실 위의 예에서와 같이 3개면 충분합니다.

A/B를 하고 바로 B/A를 하는 것은 말이 안 되기 때문에