트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2723

 
Maxim Dmitrievsky #:
무작위성이 더 많기 때문에 작동하려면 더 많은 노력을 기울여야 합니다.

수열을 구성 요소로 분해하고 무작위성을 찾은 다음 결정적인 부분을 찾을 수 있습니다. 무작위는 버리고 나머지는 남겨둡니다... BP 처리를위한 표준 사례 ...

그러나 아니요, 그것도 작동하지 않습니다.

새로운 데이터의 어느 시점에서 무작위는 결정론이되고 결정론은 무작위가 될 것입니다.....

또한 없음)

 
mytarmailS #:

수열을 구성 요소로 분해(분해)하고, 무작위를 찾고, 결정적인 부분을 찾을 수 있습니다. 무작위를 버리고 나머지는 남겨 둡니다 ... BP 처리를위한 표준 사례 ...

그러나 아니요, 그것도 작동하지 않습니다.

새로운 데이터의 어느 시점에서 무작위는 결정론이 되고 결정론은 무작위가 될 것입니다....

그래서 둘 다 안 됩니다.)

물론 튜토리얼에는 더 쉽게 설명하기 위해 간단한 BP가 있습니다. 실제로는 그보다 더 복잡합니다.

예측하기 어려운 다른 비금융 VR도 있으며, 최소한의 오차가 있을 수 있습니다. 그러나 거래에서는 항상 예측할 필요가 없기 때문에 모델을 선택적으로 수행하도록 설정할 수 있기 때문에 더 쉽습니다. 지난 기사에서 그렇게 했으므로 이제 유익한 기능을 선택하는 주제가 남아 있습니다. 이미 방법을 생각해 냈으니 이제 실험 만하면됩니다.

저는 제 접근 방식을 마무리하고 싶고 아이디어에 따라 보편적이어야하며, 즉 모든 통화에 대한 결과를 제공해야합니다.

그리고 이벤트와 함께 당신은 또한 본질적으로 거래하지 않는 3 등급을 만듭니다. BP를 예측되는 것과 예측되지 않는 것으로 나눕니다.
 
Maxim Dmitrievsky #:
그리고 이벤트도 기본적으로 3등급 거래는 하지 않습니다. BP를 예측되는 것과 예측되지 않는 것으로 나눕니다.

그것은 당신의 환상이지 현실이 아닙니다.


제가 지금까지 본 방식은 이렇습니다:

10만 개의 관찰 데이터가 있다고 가정하고, 이를 "X.big"이라고 부르겠습니다.

1) 우리가 관심있는 것을 선택 (패턴, 규칙, 이벤트, TS의 신호)합니다. 저는이를 "초기 규칙"(Alexey Funtz 활성화. 이름은 매우 불행하지만...)이라고 부릅니다.

2) 데이터에서 "초기 규칙"을 선택하면 이제 100k가 아닌 100-1000 개의 관찰이 있으므로 검색 공간 "X.small"을 줄였습니다.

3) "X.small" 에서 본격적인 특징 검색을 시작하고 순차적 규칙의 형태로 특징을보고 유전 프로그래밍을 통해 규칙이 자동으로 생성되고 본격적인 검색을 원하지만 할 수 있는지 확실하지 않습니다.

4) 생성 된 속성의 배열이 모델에 한 번에 1000 개씩 공급됩니다.

5) 모델(일부 AMO)이 중요도에 따라 기능을 선택하고 좋은 기능을 저장하고 새 배열을 얻는 등....

6) 검색 결과 특정 " 초기 규칙 "에 따라 수천 개의 작업 속성을 얻습니다.


따라서이 모든 것을 모델이라고 부르면 모델 자체가 수십억 개의 기능을 제시하고 필요한 것을 선택합니다.

 
mytarmailS #:

현실이 아닌 환상입니다.


지금까지는 그렇게 생각합니다:

10만 건의 관찰 데이터가 있다고 가정하고 이를 'X.big'이라고 부르겠습니다.

1) 우리가 관심 있는 것을 (패턴, 규칙, 이벤트, TS의 신호) 식별하고, 이를 "초기 규칙"(Alexey Funtz. 활성화. 이름은 매우 안타깝지만...)이라고 부릅니다.

2) 데이터에서 "초기 규칙"을 선택하면 검색 공간 "X.small"을 줄였기 때문에 이제 100k가 아닌 100-1000 개의 관찰이 있습니다.

3) "X.small"에서 우리는 본격적인 특징 검색을 시작하고 순차적 규칙의 형태로 특징을보고 규칙은 유전자 프로그래밍을 통해 자동으로 생성되며 본격적인 검색을 원하지만 작동할지 확실하지 않습니다.

4) 생성된 특징의 배열이 모델에 한 번에 1000개씩 공급됩니다.

5) 모델이 중요도에 따라 특징을 선택하고 좋은 특징을 저장하고 새로운 배열을 얻는 등....

6) 검색 결과 특정 " 초기 규칙 "에 따라 수천 개의 작업 속성을 얻습니다.


따라서 이 모든 것을 모델이라고 부르면 모델 자체가 수십억 개의 기능을 제시하고 필요한 것을 선택합니다.

다시 25... 이것은 의미 측면에서 3등급 분류와 다르지 않습니다.

 
Maxim Dmitrievsky #:

다시 25. 의미상 3등급 분류와 다르지 않습니다.

데이터 집합을 만들어서 누구의 알고리즘이 더 나은지 확인해 보겠습니다.

 
Maxim Dmitrievsky #:
하나는 내가 그의 아이디어를 훔쳤다고 하고, 다른 하나는 그가 나를 가르쳤다고 하는데... 도대체 너희들은 누구야? ))))

"훔쳤다" - 방금 그렇게 말했나요? 뻔뻔하군, 내가 알 수 있어.

트레이딩, 자동 트레이딩 시스템 및 테스트 트레이딩 전략에 관한 포럼.

트레이딩의 머신러닝: 이론, 실전, 트레이딩 등

알렉세이 뱌즈미킨, 2020.12.03 19:11

그래서 아이디어는 모델을 평가하는 것이고, 모델은 실제로 혼란스러운 목표를 풀고이 경우 모든 것이 얼마나 혼란스러운 지 확인하는 것이 아니라 성공을 평가할 수 있습니다.

저는 캐스케이드 학습 방법(제가 직접 만든 용어입니다. 다른 방법이 있을 수 있습니다)을 시도해 볼 생각입니다. 그래프는 훈련이 성공적인 영역이 있음을 보여줍니다. 이 영역을 떠나서이 영역을 넘어 왼쪽 영역의 분포에 해당하는 샘플 예제에서 이전에 제거한 후 다시 훈련하는 영역이 있습니다. 나는 이미 손으로 그것을 시도했습니다-효과가 좋았고 이제는 자동화하려고 생각하지만 둘째 날에는 여전히 운이 없습니다-나는 그 효과가 우연이 두렵습니다-나는 화를 내고 싶지 않습니다. 이 문제에 대해 어떻게 생각하시나요? 파이썬에서는 쉽게 할 수 있다고 생각합니다.

기사에서 논의되었습니다.

나는 인용합니다:

"

우리는 자체 오류를 분석하고 수정하여 결과를 반복적으로 개선 할 수있는 알고리즘을 작성하고 싶습니다. 이를 위해 아래 다이어그램에서 제안한대로 두 개의 분류기를 사용하여 순차적으로 훈련 할 것을 제안합니다.

"

"

이 접근법의 직관은 손실 거래는 혼동 행렬의 용어로 기본 모델에 대한 첫 번째 종류의 분류 오류라는 것입니다. 즉, 오탐으로 분류되는 경우입니다. 메타모델은 이러한 경우를 필터링하여 오탐에 대해서는 1점, 그 외에는 모두 0점을 부여합니다. 메타모델 데이터 세트를 필터링하여 기본 모델을 학습시킴으로써 정확도, 즉 올바른 매수 및 매도 트리거 수를 늘립니다. 동시에 메타모델은 가능한 한 많은 다양한 결과를 분류하여 Recall(완전성)을 높입니다.

"

아이디어는 같지만 구현을 하셨고 세부 사항을 해결하셨습니다. 저는 개념만 말씀드렸고 실험과 구현 코드를 공개했는지 잘 모르겠습니다.

지금은 무슨 내용인지 이해하지 못하더라도 나중에 이해가 되면 사용하라는 맥락에서 말씀드린 것입니다. 그리고 이해하지 못한다고 해서 부적절하게 행동하거나 사람들의 성격과 논리에 대한 가치 판단을 표현할 이유가 되지 않는다는 점을 말씀드렸습니다.

 
mytarmailS #:

데이터 집합을 만들어서 누구의 알고리즘이 더 나은지 확인해 보겠습니다.

데이터 집합은 무엇으로 구성되나요? 따옴표만 입력으로 받습니다.

 
Aleksey Vyazmikin #:

"훔쳤다" - 방금 그렇게 말했나요? 뻔뻔한 놈이네요.

기사에서 말한 내용이 바로 그거예요.

인용하세요:

"

우리는 자체 오류를 분석하고 수정하여 반복적으로 결과를 개선할 수 있는 알고리즘을 작성하고자 합니다. 이를 위해 아래 다이어그램에서 제안한 대로 두 개의 분류기를 묶어서 순차적으로 훈련할 것을 제안합니다.

"

"

이 접근법의 직관은 손실 거래가 혼동 행렬의 용어로 기본 모델에 대한 첫 번째 종류의 분류 오류라는 것입니다. 즉, 오탐으로 분류되는 경우입니다. 메타모델은 이러한 경우를 걸러내고 오탐에 대해서는 1점, 그 외에는 모두 0점을 부여합니다. 메타모델 데이터 세트를 필터링하여 기본 모델을 학습시킴으로써 정확도, 즉 올바른 매수 및 매도 트리거 수를 늘립니다. 동시에 메타모델은 가능한 한 많은 다양한 결과를 분류하여 Recall(완전성)을 높입니다.

"

아이디어는 같지만 구현은 여러분이 하셨고 세부적인 내용은 제가 개념만 말씀드렸고 실험과 구현 코드를 공개했는지 잘 모르겠습니다.

지금은 이해가 안 되더라도 나중에 이해가 되면 사용할 수 있다는 큰 틀 안에서 설명해 드렸습니다. 그리고 이해하지 못한다고 해서 부적절하게 행동하거나 사람들의 성격과 논리에 대한 가치 판단을 표현할 이유가 되지 않는다는 점을 강조했습니다.

이제 기사에서 코드를 가져와 확인해 보겠습니다. 아직 아무것도 없는데 왜 우리가 말하는 것을 이해해야 하나요?

재교육이 아닌 재교육, 기준선에 의한 재교육 등을 포함하여 이러한 구현의 변형이 많이 있습니다.

특히 시작하면 결과는 원래 계획했던 환상과 다릅니다.

 
Maxim Dmitrievsky #:

데이터 세트는 무엇으로 구성되나요? 따옴표만 입력으로 받습니다.

최근 200개에 대한 OHLS 가격과 레이블만 입력하면 시간을 추가할 수 있습니다.

 
mytarmailS #:

OHLS 가격은 200개와 태그, 시간을 추가할 수 있습니다.

200개? 너무 적어요. 태그도 없고 자동 분할 기능도 있어요.

다시 써야겠어요.

사유: