Hodrick-Prescott 필터 - 페이지 4

 
Neutron писал(а) >>

+5

그것은 말도 안돼.

글쎄, 헛되이 ...... 내 생각에는 움직임의 차이가 가격이 어디에 있는지 보여주는 훌륭한 지표입니다. 게다가, 그것은 원래 신호에 최소한의 왜곡을 도입합니다 ..... ))))))

 

이동평균선의 차이 빠른 이동평균선의 1차 도함수에 불과하며 따옴표가 아닌 ITS 극값을 나타냅니다. 몇 가지 합리적인 질문이 발생합니다.

첫째, 고어를 통해 속옷을 착용하고 고전적인 것이 있다면 파생물을 결정하는 그러한 방법을 사용하려면 어떻게해야합니까?

둘째, 가격 유형의 시계열(TS) 분석에서 1차 도함수를 사용하는 것은 이 경우 이러한 접근 방식의 유효성을 의미하지만 그렇지 않습니다! 실제로 VR은 매끄럽지 않으며(자기상관 계수는 모든 TF에서 음수임) 이 방법은 여기서 작동할 수 없고 작동하지 않습니다. 우리의 경우 평활화를 적용한 결과는 불가피한 위상 지연이 될 것이며, 이는 kotira에서 극한값을 적시에 감지하려는 모든 시도를 무효화합니다.

셋째, 약하긴 하지만 여전히 다시 그리기 이동 평균을 사용하는 요점이 무엇인지 이해하지 못했습니다. 다시 그리기가 아닌 이동 평균에서 작업하는 것과 여전히 동일하다면 이동 평균을 다시 그리는 것입니다. 왜 이러한 "속임수"입니까? 이게 뭐야?

 
가격 계열의 자기 상관 계수 범위는 (플러스) 0.6-0.9이며,
거래를 직업이라고 부를 수 있는 것은 바로 이 기능입니다.
이동 평균, 경험적 그래픽 분석, 신경망 사용 ,
그리고 매우 놀랍게도 통계적 반경험적 방법도 있습니다.
 
Korey >> :
가격 계열의 자기 상관 계수는 (플러스) 0.6-0.9 이내,
거래를 직업이라고 부를 수 있는 것은 바로 이 기능입니다.
이동 평균, 경험적 그래픽 분석, 신경망 사용 ,
그리고 매우 놀랍게도 통계적 반경험적 방법도 있습니다.

동의한다!

 
Korey писал(а) >>
가격 계열의 자기 상관 계수는 (플러스) 0.6-0.9 이내,

위에서 거래의 문제를 보면 결국 우리는 가격 증분에 관심이 있고 절대 가치가 아니라 가격 변동에 돈이 생깁니다.

따라서 우리의 경우 원래 가격 시리즈가 아니라 견적의 첫 번째 차이의 시리즈에 대해 이야기하고 있습니다. 따라서 일련의 첫 번째 차이(예: Open[i]-Open[i+1])에 대해 인접 판독값 간의 상관 계수는 작고(<<1) 항상 음수입니다. 미분 미적분의 장치를 임의의 VR에 적용하려면(예: Taylor 급수로 확장하고 이에 기반한 예측 모델 구축 - 우리 모두가 이동 평균에서 짜내려고 하는 것), 급수가 필요합니다. 첫 번째 차이의 양의 자기 상관(이는 원래 시리즈의 부드러움을 보장함), 불행히도 가격 시리즈는 이 조건을 충족하지 않습니다. 이것은 내가 우리 사업에서 이사가 원칙적으로 전망이 없다고 말할 때 염두에 두었던 바로 그 사실입니다. 그들은 역사를 보여줍니다. 그건 그렇고, 20 년 전 가격 시리즈는 약하지만 양의 상관 관계가 있었지만 (첫 번째 차이점) 이것이 고전적인 TA의 간단한 모델을 사용하여 돈을 벌 수있게 한 것입니다. 이제 그림이 달라졌고 효과적인 거래 문제를 해결하기 위한 간단한 접근 방식이 필요합니다.

콘스탄틴 이 쓴 >>

동의한다!

재미있는.
 
Neutron >> :

이제 그림이 달라졌고 효과적인 거래 문제를 해결하기 위한 간단한 접근 방식이 필요합니다.

효과적인 거래 문제를 해결하기 위한 "사소하지 않은" 접근 방식이란 무엇을 의미합니까?

 

좋은 질문.

예를 들어 Taylor 시리즈 확장에 대한 대안이 있습니다. 이 확장은 첫 번째 차분 시리즈에서 음의 자기상관 이 있는 VR에서도 작동합니다. 다중 입력이 있는 단일 계층 신경망에 대한 문제를 해결한 결과로 명시적으로 얻을 수 있습니다. 예를 들어, 다음은 2입력 NN에 대한 솔루션으로 얻은 이러한 확장의 첫 번째 항입니다.

, 여기서 d[i+1]은 i+1 가격 시리즈 증분의 예측입니다.

이것은 물론 만병 통치약은 아니지만 최소한 사소한 것이 아닙니다 ... 그래서 나에게 보입니다.

 
Neutron писал(а) >> 그들은 이야기를 보여줍니다.

미래는 무엇을 보여줍니까?

 
Neutron писал(а) >>

좋은 질문.

예를 들어 Taylor 시리즈 확장에 대한 대안이 있습니다. 이 확장은 첫 번째 차분 시리즈에서 음의 자기상관을 사용하여 VR에서도 작동합니다. 다중 입력이 있는 단일 계층 신경망에 대한 문제를 해결한 결과로 명시적으로 얻을 수 있습니다. 예를 들어, 다음은 2입력 NN에 대한 솔루션으로 얻은 이러한 확장의 첫 번째 항입니다.

, 여기서 d[i+1]은 i+1 가격 범위 증분의 예측입니다.

이것은 물론 만병 통치약은 아니지만 최소한 사소한 것이 아닙니다 ... 그래서 나에게 보입니다.

일반적으로 실용적인 측면에서 단일 계층 신경망에 대해 이야기하지 않는 것이 좋습니다. 그것은 일정한 가중치를 가진 선형 필터일 뿐 그 이상은 아닙니다. 이상하게 보일 수 있지만 "사소한 접근"은 사소한 사고에서 매우 효율적입니다. 챔피언십 우승자들을 보십시오. 아름다움은 단순함에 있습니다. 모두가 이러한 전략을 알고 있지만 모든 사람이 사용 방법을 아는 것은 아닙니다. 백만 가지 공식으로 가격 움직임을 설명할 수 있지만 가장 중요한 것은 이익이 아닙니다.

 

모든 것이 가능합니다(모든 것이 가능합니다). 문제는 우리가 모든 것을 알지 못한다는 것입니다.

사소하지 않은 접근 방식의 사소한 방법과 사소하지 않은 생각의 사소한 접근 중 어느 것이 더 낫습니까? 잘 모르겠습니다... 탁월함을 위해 어떤 기준을 사용하는지는 별개의 문제입니다. 당신은 그런 것을 찾아 어둠 속에서 평생을 헤매며 보낼 수도 있고, 오랫동안 모두에게 알려진 ... 맛의 문제로 조용히 사용할 수도 있습니다.

나는 문제를 해결하기 위한 최적의 방법이 있으며 "내 생각에" 또는 "모든 사람이 하는 것"과 같은 편향 없이 과학적 패러다임의 틀 내에서 확실히 달성할 수 있다는 관점을 취합니다.

사유: