트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2786

 
Valeriy Yastremskiy #:

마르코프 프로세스에서는 현재 값에 대한 의존성이 없습니다.

전환 행렬의 어느 위치에 있든 거기서부터 이동한다는 게 무슨 뜻인가요?

 
Valeriy Yastremskiy #:

즉, 요인이 적으면 프로세스가 제어되지만 일정 수 이상의 요인이 충돌하고 요인을 합산하는 확률적인 결과가 발생하기 시작합니다. 게다가 요인들은 서로 연결될 수 있고 실제로 연결되며 피드백이 있습니다. 하지만 마르코프 프로세스에는 그러한 연결고리가 없습니다.

무작위 변수를 설명합니다 - 어떻게 연결이 있을 수 있죠(논리적으로 연결이 없습니다).... 하지만 행렬이 있다면 그 안에서 연결을 찾거나 설명하거나 길을 잃거나 형성 할 수 있다는 것을 의미합니다.... 이벤트의 영향을받는 상태를 설명하는 것에 대한 IMHO ... 모두 동일한 통계이지만 상태에 따라 한 단계 앞으로 나아갈 수 있습니다 (그리고이 단계 만이 각 순간의 통계 시리즈의 역학을 설정합니다)... 나만 전체 마르코비안 공식화에서 "무작위성"에 혼란스러워합니다 (그러나 그것이 통계와 dim_reduction의 목적입니다).

 
JeeyCi #:

무작위 변수를 설명합니다 - 어디에 연결이 있습니까 (논리적으로는 없음)... 그러나 행렬이 있기 때문에 - 그 안에서 연결을 찾거나 설명하거나 길을 잃거나 형성하는 것이 가능하다는 것을 의미합니다 ... 이벤트의 영향을받는 상태를 설명하는 것에 대한 임호... 모든 동일한 통계뿐만 아니라 상태에 따라 한 단계 앞으로 나아갑니다 (그리고이 단계 만이 각 순간의 통계 시리즈의 역학을 설정합니다) ... 나만 전체 마르코비안 공식화에서 "무작위성"에 혼란스러워합니다 (그러나 그것이 통계와 dim_reduction의 목적입니다).

나는 무작위 프로세스의 물리학에 대한 이해를 주었고, 나에게 그것은 두 가지 변형이며, 시장에서 첫 번째는 요인의 수가 확률 적 결과를 제공하는 경우이고 두 번째는 프로세스가 상호 연결되지 않은 고주파 프로세스에 비해 저주파 프로세스의 결과입니다.

그리고 철학적으로 저는 함수나 프로세스의 과거 값과 연결되지 않으면 프로세스가 무작위적이라는 것을 이해합니다. 그러나 현실 세계에서는 일반적으로 그렇지 않습니다.

시장에서 장기간의 정지 상태가 강한 요인 또는 강한 장기 요인의 관성력의 영향이라고 가정하면 소음에서이를 구별 할 수 있으며 마르코프 상태가 아닙니다. 모델을 SB 모델과 구별하는 접근 방식은 매우 논리적입니다. 그러나 논리적으로 비 마르코프 상태가 있으면 조사 할 수 있고 차이가 없으면 조사 할 의미가 없습니다 .))))))

 
Maxim Dmitrievsky #:

전환 매트릭스에서 현재 어디에 있느냐는 말이 무슨 뜻이죠?

분명하지만 현재 값과 이전 값 사이에 연결이 없기 때문에 무작위 프로세스입니다 .)))))). 그래서 예, 매트릭스에는 값이 있습니다)))))

GSC는 이 관계를 거의 0으로 최소화하는 원칙에 따라 만들어졌습니다).

 

블라디미르 페레르벤코의 정규화 방식은 이상합니다. log2(x + 1) 은 여전히 이해할 수 있습니다,

그러나 그러한 짐승의 출현- sin (2*pi*x) 를 통해 비대칭을 제거하기 위해-그것이 무엇을하는지 명확하지 않습니다. 논리적으로 순환 구성 요소를 추가하고 문제는 왜 그러한 구성 요소를 추가합니까? 아니면 제거합니까? (사이클을 제거하면 노이즈가 남습니다)...

그리고 tanh(x) 는 일반적으로 신경망 처리를 모방하여 시리즈를 압축하는 것처럼 보이지만... 아니면 단순한 행의 왜곡을 모방한 것일까요? - 순환성을 제거 할 것 같지 않으며 어느 것이 명확하지 않습니다....

어쨌든, 물론 시계열 = 추세 +주기 + 노이즈가 분명합니다 ...

...하지만 그는 그러한 변환으로 주기성을 제거하려고 할 수 있습니다 (그리고 sin (2*pi*x)가 어떻게 보편적 인 방법인지 알 수 없습니다 ??) ... 나는 이것이 처음에는 이것이 일종의 시도라고 생각했습니다-순환성을 제거하기 위해(이 길이를 부호 계수 자체에 통합함으로써? 파장을 부호-인자 자체에 통합하여), 정규 분포, 즉 속도와 가속도를 부호의 구성에 넣기 위해 ... ?? 그러나 여전히 죄로 조작하는 것은 부호 값에 따라 진폭을 조정하여 부당한 계열 왜곡 인 것 같습니다-나는 통계 처리에서 그런 것을 만나지 못했습니다 .... 왜 코스가 아닌가요? 왜 탄이 아닌가요? -- 곡선을 그리는 다른 방법? 왜?

아마도 저자는이 특정 삼각법의 본질을 설명 할 수 있습니다 (로그를 통해 왜곡 분포를 제거하려는 목적은 이미 분명합니다) - 그러나 sin을 사용하는 정당화 / 가정은 무엇입니까? 왜 cos? 그리고 왜이 곡률이 전혀없는 이유는 무엇입니까?(부호 변경을 가속화할까요?-오히려 때때로 평활화할 수도 있습니다)


Renat Akhtyamov #:

벡터가 주어졌고, 논문을 썼고, 장신구처럼 취급되었습니다....

누군가가 그러한 변환을 얼마나 진지하게 받아 들여야하는지 / 받아 들일 수 있는지 그리고 그 이유를 쓸 수 있습니까? (로그의 비대칭성을 없애고 싶다는 욕구를 제외하고는 ln이 가장 일반적이라고 생각합니다).

 
JeeyCi #:

블라디미르 페레르벤코는 로그2(x + 1) 을 정상으로 변환하는 몇 가지 이상한 방법을 가지고 있지만, 여전히 이해하려고 노력할 수 있습니다,

그러나 그러한 짐승의 출현- sin (2*pi*x) 를 통해 비대칭을 제거하기 위해-그것이 무엇을하는지 명확하지 않습니다. 논리적으로 순환 구성 요소를 추가하고 문제는 왜 그러한 구성 요소를 추가합니까? 아니면 제거합니까? (주기를 제거하면 노이즈가 남습니다)....

그리고 tanh(x) 는 일반적으로 신경망 처리를 모방하여 시리즈를 압축하는 것처럼 보입니다. 아니면 행의 또 다른 단순한 뒤틀림처럼 보입니까? - 사이클을 제거 할 가능성이 낮고 어느 것이 명확하지 않습니다....

어쨌든, 물론 시계열 = 추세 +주기 + 노이즈가 분명합니다 ...

... 하지만 그는 그러한 변환으로 주기성을 제거하려고 할 수 있습니다 (그리고 sin (2*pi*x)가 어떻게 보편적 인 방법인지 알 수 없습니다 ??) ... 나는 이것이 처음에는 이것이 일종의 시도라고 생각했습니다-순환성을 제거하기 위해(이 길이를 부호 계수 자체에 통합함으로써? 파장을 부호-인자 자체에 통합하여), 정규 분포, 즉 속도와 가속도를 부호의 구성에 넣기 위해 ... ?? 그러나 여전히 죄로 조작하는 것은 부호 값에 따라 진폭을 조정하여 부당한 계열 왜곡 인 것 같습니다-나는 통계 처리에서 그런 것을 만나지 못했습니다 .... 왜 코스가 아닌가요? 왜 탄이 아닌가요? -- 단지 다른 왜곡 방식? 무엇을 위해?

아마도 저자는이 특정 삼각법의 본질을 설명 할 수 있습니다 (로그를 통해 왜곡 분포를 제거하려는 목적은 이미 분명합니다) - 그러나 sin을 사용하는 정당화 / 가정은 무엇입니까? 왜 cos? 그리고 왜이 곡률이 전혀없는 이유는 무엇입니까?(부호 변경을 가속화할까요?-오히려 때때로 평활화할 수도 있습니다)


누군가는 그러한 변화를 얼마나 심각하게 받아 들여야하는지 / 받아 들일 수있는 이유와 그 이유를 쓸 수 있습니까? (로그의 비대칭을 없애려는 시도와는 별개로, 저는 ln이 가장 일반적이라고 생각합니다).

나도 그러한 변환을 이해하지 못했지만 나머지에서 가장 좋은 변환을 선택하는 것일 가능성이 큽니다. 그리고 일반적으로 테스트를 기반으로 한 선택에는 논리가 없습니다.

UHF의 필터와 안테나의 모양은 원래 계산되지 않았습니다. 예, 그리고 실제 생활에서 계산은 파일로 마무리되었습니다)))))

 
Valeriy Yastremskiy #:

저도 그런 전환을 이해한 적이 없지만, 아마도 나머지 중에서 가장 좋은 전환을 선택하는 선택자의 의견일 가능성이 높습니다. 그리고 일반적으로 테스트에 기반한 선택에는 논리가 없습니다.

UHF의 필터와 안테나의 모양은 원래 계산되지 않았습니다. 예, 그리고 실제 생활에서 계산은 파일로 마무리되었습니다)))))

변환 전과 후의 샘플 히스토그램을 간단히 비교할 수 있습니다. 최종 형태가 목표 형태(예: 정규 분포 또는 균일 분포)에 더 가깝다면 변환이 매우 적합하다고 볼 수 있습니다.) 히스토그램을 그리는 대신 목표에 대한 적합성 테스트(각각 정규성 또는 균일성)를 고려할 수 있습니다.

접시를 포물선 모양으로 만들지 않나요? 공식에 따라)

 
JeeyCi #:

블라디미르 페레르벤코는 로그2(x + 1) 을 정상으로 변환하는 몇 가지 이상한 방법을 가지고 있지만, 여전히 이해하려고 노력할 수 있습니다,

그러나 그러한 짐승의 출현- sin (2*pi*x) 를 통해 비대칭을 제거하기 위해-그것이 무엇을하는지 명확하지 않습니다. 논리적으로 순환 구성 요소를 추가하고 문제는 왜 그러한 구성 요소를 추가합니까? 아니면 제거합니까? (주기를 제거하면 노이즈가 남습니다)....

그리고 tanh(x) 는 일반적으로 신경망 처리를 모방하여 시리즈를 압축하는 것처럼 보입니다. 아니면 행의 또 다른 단순한 뒤틀림처럼 보입니까? - 사이클을 제거 할 가능성이 낮고 어느 것이 명확하지 않습니다....

어쨌든, 물론 시계열 = 추세 +주기 + 노이즈가 분명합니다 ...

... 하지만 그는 그러한 변환으로 주기성을 제거하려고 할 수 있습니다 (그리고 sin (2*pi*x)가 어떻게 보편적 인 방법인지 알 수 없습니다 ??) ... 나는 이것이 처음에는 이것이 일종의 시도라고 생각했습니다-순환성을 제거하기 위해(이 길이를 부호 계수 자체에 통합함으로써? 파장을 부호-인자 자체에 통합하여), 정규 분포, 즉 속도와 가속도를 부호의 구성에 넣기 위해 ... ?? 그러나 여전히 죄로 조작하는 것은 부호 값에 따라 진폭을 조정하여 부당한 계열 왜곡 인 것 같습니다-나는 통계 처리에서 그런 것을 만나지 못했습니다 .... 왜 코스가 아닌가요? 왜 탄이 아닌가요? -- 단지 다른 왜곡 방식? 무엇을 위해?

아마도 저자는이 특정 삼각법의 본질을 설명 할 수 있습니다 (로그를 통해 왜곡 분포를 제거하려는 목적은 이미 분명합니다) - 그러나 sin을 사용하는 정당화 / 가정은 무엇입니까? 왜 cos? 그리고 왜이 곡률이 전혀없는 이유는 무엇입니까?(부호 변경을 가속화할까요?-오히려 때때로 평활화할 수도 있습니다)


누군가는 그러한 변화를 얼마나 심각하게 받아 들여야하는지 / 받아 들일 수있는 이유와 그 이유를 쓸 수 있습니까? (로그와 비대칭을 없애려는 시도와는 별개로, 결국에는 일반적으로 ln이라고 생각합니다).

우리가 삼각 함수 또는이 수준의 다른 것에 대한 추론 수준에있는 한, 그러한 정당화의 목적이 선언되지 않았고 목적 달성을위한 기준을 알 수 없기 때문에 정당화를하는 것은 불가능하기 때문에 한 가지 이유에 대한 정당화가 없습니다.


그리고 MO의 목표는 피팅 오류를 줄이거나 오히려 머신러닝 모델의 예측 오류를 줄이는 것이 유일한 목표입니다. 그리고 예측 오차가 앞으로 크게 변하지 않아야 한다는 제한이 있습니다.


이 목표를 달성하는 데 가장 큰 걸림돌은 재무 계열의 비정형성입니다.

주어진 공식 시계열 = 추세+주기+노이즈는 정확하지 않습니다. 수백 가지가 넘는 GARCH 유형 모델에서 더 정확하고 매우 잘 작동하지만 최종 형태, 즉 비정규성을 가능한 한 정확하게 모델링하는 방법에서 문제를 해결하지 못합니다.

목표와 목표 달성을 위한 기준을 지정하면 비정형성을 처리하는 방법은 전혀 중요하지 않으며 중요한 것은 결과입니다. 어쨌든 초기 비고정 계열을 고정에 가깝게 변환할수록 MO 모델의 예측 오차가 작아지고, 가장 중요한 것은 이 오차의 변동이 작아진다는 것입니다.

블라디미르 페레르벤코는 그것을 완벽하게 잘 이해하고 있지만 그의 기사는 실용적이기보다는 교육적입니다. 그는 단지 문제를 보여주고 그 해결을위한 도구를 제공하며 눈에 보이는 간격없이 매우 완전하고 체계적으로 제공합니다. 그리고 문제와 해결을 위한 도구의 선택은 모두 예측 오류를 줄이겠다는 목표에 종속되어 있습니다.

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

거기에서 Aleksey Vyazmikin이 댓글에서 저자에게 그러한 질문을했습니다-토론 스레드 링크를 얻었습니다-링크가 파괴되었습니다! 저자 Vladimir Perervenko가 숨어 버렸습니까? )

 

로컬 의사 결정 트리라는 아이디어가 떠올랐습니다. 이것은 KNN 또는 국부 회귀(비고정성에도 잠재적으로 적합)의 아날로그와 같은 것입니다. 이 아이디어는 관심 지점이 포함된 상자(최소 주어진 수의 K 포인트까지)만 상자로 나누고 나머지 상자는 신경 쓰지 않는다는 것입니다. 클래스 간의 경계가 날카 롭고 포인트가 그러한 경계에 가까우면 KNN 또는 지역 회귀보다 나을 수 있습니다.

접근 방식이 전혀 의미가 있는지 궁금합니다.