트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2155

 
mytarmailS :

모델에 대한 TF 불변 정규화에 대해 ..

우리는 시리즈를 가지고 중요한 전환점을 강조합니다

극점만 남기고 나머지는 삭제

정상화하다

이제 첫 번째 행의 중단점 사이의 거리를 가져와서 새 행을 만들고 정규화합니다.

따라서 우리는 범위(진폭)와 시간(주파수) 모두에서 정규화된 시리즈를 얻습니다.


필요한 것은 패턴에서 짝수개의 극값을 관찰하는 것입니다. 나머지는 모두 정규화됩니다.


따라서 분 또는 주간 데이터라도 모델에 입력할 수 있으며 동일한 것으로 간주하고 TF에 불변합니다.

한 번에 모든 TF에서 하나 의 모델을 훈련할 수 있습니다.

=============================================

그것이 무엇이며 왜 그런지 이해하지 못하는 사람들을 위해

모델의 경우 동일한 패턴이므로 동일한 패턴이 됩니다.

나는 거의 이것을 하고 있다. 나에게만 시간과 100% 포인트가 있다. 그러나 여기서 최소 거리로 시간을 정규화하는 방법을 이해하지 못했습니다.

 
막심 드미트리예프스키 :

빨리 추측) 그러나 아무도 ...

내가 뭔가 놓친게 분명해?

 
알렉세이 비아즈미킨 :

내가 뭔가 놓친게 분명해?

예, 대명사에 하이픈

 
막심 드미트리예프스키 :

멍청한 분들을 위해 다시 한 번 말씀드립니다.

기능 공간에는 점이 있습니다. 하나는 구매하고 다른 하나는 판매합니다.

이러한 점들이 매수-매도 순서가 관찰되지 않는 방식으로 혼합될 수 있다고 가정합니다. 데이터 세트의 스프레드에 대한 정보가 손실됩니다.

확산은 점 사이 또는 두 점 클래스 사이의 유클리드 거리와 동일할 수 있습니다.

이 정보를 추가하는 방법. LPF, 가속 등, 당신은 h에 자신을 밀어 넣을 수 있습니다. 이것은 명확성, 말하자면 인식을 위한 것입니다.

일정한 막대가 굴러 가지 않습니다. 양쪽에 가능성이 있다. 가격에서 거래의 스프레드는 항상 음수입니다.

추신은 상태를 악화

 
막심 드미트리예프스키 :

카로흐 읽고, 읽고 , 읽고 , 읽고 ....

나는 당신이 그 스프레드로 무엇을 하고 싶은지 아직도 이해하지 못합니다

무엇을 하고 싶은지, 왜 하고 싶은지 도무지 이해가 되지 않는 분들..

 
mytarmailS :

카로흐 읽고, 읽고 , 읽고 , 읽고 ....

나는 당신이 그 스프레드로 무엇을 하고 싶은지 아직도 이해하지 못합니다

무엇을 하고 싶은지, 왜 하고 싶은지 도무지 이해가 되지 않는 분들..

Valery에게 물어보십시오. 그는 따라 잡기 시작했습니다 ...

이에 대한 다른 표현이 생각나지 않습니다.
 
알렉세이 비아즈미킨 :

거의 하고 있는데 시간만 있으면 100% 포인트. 그러나 여기서 최소 거리로 시간을 정규화하는 방법을 이해하지 못했습니다.

일반 0-1 정규화

 
막심 드미트리예프스키 :

레이블이 있는 이미 표시된 데이터세트에서 레이블에 따라 피처에서 스프레드를 빼거나 추가하면 어떤 효과가 있습니까?

피처 공간이 더 잘 분리되어 보이나요?

이것은 훈련을 위해서만 수행된다는 것이 분명합니다.

내 기사에서 이것이 내가 사용한 접근 방식입니다. 마크를 상당한 거리로 배치하여 훈련을 크게 향상시켰습니다. 일반적으로 레이블은 본질적으로 회귀를 대체하므로 0(평균?)에서 벗어날수록 기능의 잠재적 차이가 커집니다. 작은 부분을 고려하지 않고 노이즈를 줄입니다. 그러나 진입/제외 분류와 매수/매도/대기 3중 분류에서 유용합니다. 접근 방식의 성공 여부는 기본 전략(형성 또는 부상)에도 달려 있습니다. 추가 연구 대상입니다.

 
알렉세이 비아즈미킨 :

내 기사에서 이것이 내가 사용한 접근 방식입니다. 마크를 상당한 거리로 배치하여 훈련을 크게 향상시켰습니다. 일반적으로 레이블은 본질적으로 회귀를 대체하므로 0(평균?)에서 벗어날수록 기능의 잠재적 차이가 커집니다. 작은 부분을 고려하지 않고 노이즈를 줄입니다. 그러나 진입/제외 분류와 매수/매도/대기 3중 분류에서 유용합니다. 접근 방식의 성공 여부는 기본 전략(형성 또는 부상)에도 달려 있습니다. 추가 연구 대상입니다.

지금은 클래스 분리로 어려운 리샘플링만 생각하고 있지만 더 쉬운 방법이 있다고 생각합니다.

어떻게 했어, 어떤 편지를 읽을까?

 
막심 드미트리예프스키 :

예, 대명사에 하이픈

추가되었습니다 :)

사유: