트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2814

 
Maxim Dmitrievsky #:
다시 생각해보니
내 메일 #:
안 돼요, 달라졌어요...

Hmm은 현재 어떤 클러스터에 속해 있는지 예측하고, 클러스터링은 사후에 어떤 클러스터에 속해 있었는지 보여줍니다.
간단히 말해

생각도 해보고, 실험도 해보고, 코드도 작성해봤는데...

[삭제]  
mytarmailS #:

생각도 해보고, 실험도 해보고, 코드도 작성해봤지만...

그래서 클러스터링이 새로운 데이터에서는 작동하지 않는다고 생각하시나요? 말도 안 되는 소리입니다.)

그리고 흠이 클러스터링 알고리즘으로 간주 될 수 있다고 생각한다면.
 
Maxim Dmitrievsky #:
클러스터링이 새로운 데이터에는 효과가 없다고 생각하시나요? 말도 안 되는 소리입니다.)

당신은 그것을 이해하지 못합니다...

클러스터/상태가 있습니다.

시작이 있고 끝이 있습니다. 양초가 5개라고 가정해 봅시다.


5번째 캔들(클러스터 프로토타입을 현재 상태와 비교했을 때)에서 이 클러스터의 수를 알 수 있습니다.

hmm을 통해 첫 번째 캔들에서 클러스터/상태의 수(또는 오히려 확률)를 알 수 있습니다.

[삭제]  
mytarmailS #:

이해하지 못합니다.

클러스터/상태가 있습니다.

시작과 끝이 있고, 촛불이 5개라고 가정해 봅시다.


5번째 캔들(클러스터 프로토타입을 현재 상태와 비교했을 때)에서 클러스터의 수를 알 수 있습니다.

hmm을 통해 첫 번째 캔들에서 클러스터/상태의 수(또는 확률)를 알 수 있습니다.

두 경우 모두 지연 없이 현재 데이터에서 클러스터 번호를 알 수 있습니다.

Hmm은 시퀀스에 대해 동일한 클러스터링 알고리즘입니다. 눈에 띄는 것은 없습니다.
 
Maxim Dmitrievsky #:
두 경우 모두 지연 없이 현재 데이터에서 클러스터 번호를 알 수 있습니다.

아니요.

클러스터링은 인식입니다.

현재 어떤 상태에 있는지 예측하는 것입니다.


고개를 숙인 상태와 숙이지 않은 상태 두 가지가 있다고 가정해 보겠습니다.


클러스터링은 프로토타입 클러스터와 비교하는 방식으로 작동합니다.


즉, 프로토타입과의 비교가 완료된 후 클러스터의 상태를 사후에 알게 됩니다.

=================

그리고 HMM은 우리가 GP의 상태에 있을 확률을 알려줍니다.


[삭제]  
mytarmailS #:

아니요.

클러스터링은 인식입니다.

흠, 지금 어떤 상태인지 예측하는 것이죠.

그만하세요.)
 
Maxim Dmitrievsky #:
그만해 )

당신도...

HMM의 비터비 알고리즘이 클러스터링 111222444111111.....

를 클러스터로 사용할 수 있다고 누군가 썼다고 해서 클러스터링이 되는 것은 아닙니다.

[삭제]  
mytarmailS #:

당신도 마찬가지입니다.

HMM의 비터비 알고리즘이 클러스터 111222444111111.... 같은 것을 생성할 수 있다면

를 생성할 수 있고 누군가가 클러스터로 사용할 수 있다고 썼다고 해서 클러스터링이 되는 것은 아닙니다.

숨겨진 상태를 얼마나 많이 설정하느냐에 따라 클러스터 수가 달라집니다. 똑같은 거죠. 알았어요, 알았어요, 씹고 싶지 않네요.

여러분이 신경 쓰는 것은 원리가 무엇이든 간에 서로 다른 모델을 훈련하기 위한 분리입니다. 어쨌든 증분 평균이 클러스터 수에 영향을 미치므로 이것이 필요합니다.
 
Maxim Dmitrievsky #:
설정한 숨겨진 상태 수만큼 클러스터를 생성할 수 있습니다. 같은 원리입니다.

그게 무슨 상관이 있을까요?

마지막으로

클러스터링을 사용하면 클러스터가 끝날 때 클러스터 번호를 얻습니다.

SMM을 사용하면 클러스터가 시작될 때 클러스터 번호를 얻습니다.

[삭제]  
mytarmailS #:

그게 무슨 상관이죠?

마지막입니다.

클러스터링할 때 클러스터가 종료되면 클러스터 번호를 얻습니다.

SMM을 사용하면 클러스터가 시작될 때 클러스터 번호를 얻습니다.

아니, 당신은 착각하고 있습니다.