트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1537

 
막심 드미트리예프스키 :

주장?

필요한 인수 - 기본적으로 매개변수 6은 설정 테이블 에서 따릅니다.

트리의 깊이가 예측자 사이의 완성된 관계에 더 많이 의존하기 때문에 이상합니다. 그래서 이 두 개의 독립적인 관계에서 그래프로 판단할 때 약 200 정도의 총 복잡성이 좋은 모델을 만든다는 것은 놀라운 일입니다.

 
알렉세이 비아즈미킨 :

필요한 인수 - 기본적으로 매개변수 6은 설정 테이블 에서 따릅니다.

트리의 깊이가 예측자 사이의 완성된 관계에 더 많이 의존하기 때문에 이상합니다. 그래서 이 두 개의 독립적인 관계에서 그래프로 판단할 때 약 200 정도의 총 복잡성이 좋은 모델을 만든다는 것은 놀라운 일입니다.

그래서 데이터를 내보내고 있다고 말하는 것입니다. 숲은 그들에 대해 재훈련되었습니다(아마도 특징을 분류하여 숲의 이 특징을 고칠 수 있을 것입니다). 이제 나는 6을 설정합니다. 기차에서 재교육은 중요합니다. Akuras는 0.9 미만입니다.

6은 너무해 2~4는 괜찮음

숲과의 비유는 직접적이며 나무의 깊이는 제한되지 않습니다
 
막심 드미트리예프스키 :

그래서 데이터를 내보내고 있다고 말하는 것입니다. 숲은 그들에 대해 재훈련되었습니다(아마도 특징을 분류하여 숲의 이 특징을 고칠 수 있을 것입니다). 이제 나는 6을 설정합니다. 기차에서 재교육은 중요합니다. Akuras는 0.9 미만입니다.

6은 너무해 2~4는 괜찮음

숲과의 비유는 직접적이며 나무의 깊이는 제한되지 않습니다

이해가 되지 않습니다. 앞서 증분 형태의 예측 변수가 있다고 말했지만 범주형 예측 변수를 만들고 싶습니까?

나무의 입장에서 보면 사실 별로 변한게 없습니다 - 나무를 해부해보니 사실 나무의 많은 개별 잎이 하나의 긴 잎으로 합쳐져 있고 이 잎의 매우 많은 부분이 중복되거나 의미가 없습니다 중간 값 / 끊을 수 있는 연결. 일반적으로 내 샘플에서는 트리의 깊이가 트리의 수에 영향을 미치며 결과는 4분할 트리에서 동일한 결과를 얻을 수 있음을 확인했습니다.

 
알렉세이 비아즈미킨 :

이해가 되지 않습니다. 앞서 증분 형태의 예측 변수가 있다고 말했지만 범주형 예측 변수를 만들고 싶습니까?

나무의 입장에서 보면 사실 별로 변한게 없습니다 - 나무를 해부해보니 사실 나무의 많은 개별 잎이 하나의 긴 잎으로 합쳐져 있고 이 잎의 매우 많은 부분이 중복되거나 의미가 없습니다 중간 값 / 끊을 수 있는 연결. 일반적으로 내 샘플에서는 트리의 깊이가 트리의 수에 영향을 미치며 결과는 4분할 트리에서 동일한 결과를 얻을 수 있음을 확인했습니다.

먼저 범주로 나누십시오(예: 20개의 범위 범주로). 그런 다음 결정할 때까지 원 핫 코딩(가상 기호를 통해) 또는 다른 것입니다. 결과적으로 각 기능은 바이너리 또는 이와 유사한 것입니다.

숲에 대한 다른 값이 많을수록 더 많은 재교육이 이루어집니다. 훈련 세트가 증가하면 과적합이 증가합니다. 캣버스트는 그렇지 않습니다. 따라서 숲의 경우 범주화하여 연속 기능에 대한 옵션 수를 줄이십시오. 이것이 도움이 될지 잘 모르겠습니다. 지켜보겠습니다.

편향-분산 트레이드 오프 또는 무엇이든.

 
막심 드미트리예프스키 :

먼저 범주(예: 20개 범위)로 나눕니다. 그런 다음 결정할 때까지 원 핫 코딩(가상 기호를 통해) 또는 다른 것입니다. 결과적으로 각 기능은 바이너리 또는 이와 유사한 것입니다.

글쎄요, 잘 모르겠습니다. 데이터 처리 속도를 높이는 것이 요점일 가능성이 더 큽니다. 그런 예측 변수를 분할하지 않고, 하나의 잎사귀 체인에서 서로 비교하지 않는 것입니다. 유감스럽게도 가치 있는 효과를 보지 못했습니다. . 그리고 논리는 이것이 비교 가능한 값이 아니라는 것입니다. 이것은 무작위 선택을 균등화하기 위해 그룹으로 결합된 원-핫 코딩입니다.

막심 드미트리예프스키 :
숲에 대한 다른 값이 많을수록 더 많은 재교육이 이루어집니다. 훈련 세트가 증가하면 과적합이 증가합니다. 캣버스트는 그렇지 않습니다.

훈련에 대한 샘플의 의존도 또한 모호하지 않습니다. 나는 반년 또는 그 이전에 유사한 연구를 수행했습니다. 오히려 비교해야 하는 데이터에 대한 의존성이 있습니다.

 
막심 드미트리예프스키 :

MO에 대한 패턴을 설명하는 간단하고 흥미로운 접근 방식

https://www.quanttrader.com/index.php/a-simple-algorithm-to-detect-complex-chart-patterns/KahlerPhilipp2019

메가 원시적, 훨씬 더 정확하게 패턴을 설명하는 방법이 있습니다.

 
mytarmailS :

메가 원시적, 훨씬 더 정확하게 패턴을 설명하는 방법이 있습니다.

예를 들어?

 
Alexander_K :
고난의 기도에 동참합니다. 나는 고개를 숙이고 성배에 대한 링크를 제공하도록 요청합니다.
Alexander_K :

나는 최소한 3개월의 일을 하면서 실생활에서 확인된(테스트 보고서는 흥미가 없음) Grail에 대해 합리적인 금액을 지불할 준비가 되어 있습니다.

나는 Grail의 실제 비용 = 상인의 현재 자본의 합이라고 생각합니다. 저것들. 계정에 $1000의 자산이 있으며, 이는 TS 비용이 동일한 금액임을 의미합니다. 신경망 기술 및/또는 물리적 및 수학적 모델, 실제 상태 및 판매 의향을 기반으로 하는 Grail이 있는 사람은 개인 문서로 작성하여 논의할 것입니다.

시장에서 진정으로 돈을 버는 사람은 녹색 레몬, 아마도 수백 개의 레몬에 대해 기술을 판매하지 않을 것입니다 ... 게다가 재미를 위해 누군가가 "있는 그대로"누군가가 발행하는 소프트 "블랙 박스"를 제시하더라도 적절한 예측이나 미리 만들어진 신호, 그것이 제대로 작동한다면 월 10~30만 달러에 데이터를 밀어야 하고 성능의 품질은 데이터보다 훨씬 더 비싸고 훨씬 더 많이 필요하므로 비교하는 것과 같습니다. 샌드박스에 있는 아이와 금광 회사, 아이가 국자로 금광을 파내고 싶지만 뭔가가 잘되지 않습니다 ... 다른 국자를 가져갈까요? 그런 특종을 가지고 있는 정원의 다른 아이들에게 물어보십시오. 아마도 누군가는 "할 것"이며 어린이는 종종 꿈꾸는 사람입니다. :)

 
알렉세이 비아즈미킨 :

글쎄요, 잘 모르겠습니다. 데이터 처리 속도를 높이는 것이 요점일 가능성이 더 큽니다. 그런 예측 변수를 분할하지 않고, 하나의 잎사귀 체인에서 서로 비교하지 않는 것입니다. 유감스럽게도 가치 있는 효과를 보지 못했습니다. . 그리고 논리는 이것이 비교 가능한 값이 아니라는 것입니다. 이것은 무작위 선택을 균등화하기 위해 그룹으로 결합된 원-핫 코딩입니다.

훈련에 대한 샘플의 의존도 또한 모호하지 않습니다. 나는 반년 또는 그 이전에 유사한 연구를 수행했습니다. 오히려 비교해야 하는 데이터에 대한 의존성이 있습니다.

영어로 된 그 기사에서 이것에 대해 그렇습니다. 많은 변수가있을 때 한 변수의 값을 서로 비교하지 않기 위해 - 이것은 단지 재교육으로 이어집니다

길이에서가 아니라 다른 것에서 내가 본 것을 말합니다. 샘플을 늘립니다. Train에서는 더 아름다워지고 테스트에서는 더 나빠집니다. 일반화는 기차의 크기가 커짐에 따라 증가해야하지만 숲의 경우 정확히 반대입니다.

 
막심 드미트리예프스키 :

예를 들어?

dtw, 스펙트럼 분석.. 번들..

스케일에 관계없이 동일한 패턴을 볼 수 있는 알고리즘을 만들었습니다. 하나의 차트를 보는 알고리즘은 하나의 차트를 보고 분과 주간 차트 모두에서 패턴을 보고 실제로 예측할 수 있습니다. 하지만 아직 일이 많다

사유: