트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2252

 
막심 드미트리예프스키 :

장난해?

글쎄, 그 점에서 - 자동 생성기가 무엇인지, 나는 전에 당신을 알고있었습니다))

[삭제]  
mytarmailS :

그리고 왜 뉴런이 존재하는지, 블록다이어그램으로 설명할 수 있습니까?

 
막심 드미트리예프스키 :

그래서 나는 당신에게 왜 hmm를 인코더로 교체하기로 결정했는지 말해주고 있습니다.

당신은 왜 그것이 더 잘 작동할 것이라고 결정했고, 당신은 어떤 종류의 아이디어를 가지고 있었고, 그래서 나는 그 아이디어에 관심이 있습니다. 아시죠?

[삭제]  
mytarmailS :

그래서 나는 당신에게 왜 hmm를 인코더로 교체하기로 결정했는지 말해주고 있습니다.

당신은 왜 그것이 더 잘 작동할 것이라고 결정했고, 당신은 어떤 종류의 아이디어를 가지고 있었고, 그래서 나는 그 아이디어에 관심이 있습니다. 아시죠?

동일한 생성 모델이지만 사용자 정의가 가능하기 때문입니다.

차트에서는 잘 작동하고 따옴표에서는 더 나쁘게 작동합니다. 이유를 알 때까지

 
막심 드미트리예프스키 :

동일한 생성 모델이지만 사용자 정의가 가능하기 때문입니다.

이유를 이해할 때까지 차트에서는 잘 작동하고 따옴표에서는 더 나쁘게 작동합니다.

네트워크 가중치와 이를 변경할 수 있는 권한이 있습니까?

 
막심 드미트리예프스키 :

나는 그들에게 더 많은 것을 기대했다

인코더는 뉴런

당신은 여전히 아무것도 이해하지 못하지만 여기에 구조가 있습니다

그래서 훈련은 어디에서? 이것들은 모두 함수이자 클래스입니다.

[삭제]  
블라디미르 페레르벤코 :

그래서 훈련은 어디에서? 이것들은 모두 함수이자 클래스입니다.

학습 주기가 필요합니까?

 
막심 드미트리예프스키 :

학습 주기가 필요합니까?

글쎄, 내가 이해하는 한 Variational AE는 훈련 중에 숨겨진 것이 아니라 재매개변수화된 값이 디코더에 제공된다는 점에서 일반 AE와 다릅니다. 나는 그것이 어디에 있는지 보지 못했다.

[삭제]  
블라디미르 페레르벤코 :

글쎄, 내가 이해하는 한 Variational AE는 훈련 중에 숨겨진 것이 아니라 재매개변수화된 값이 디코더에 제공된다는 점에서 일반 AE와 다릅니다. 나는 그것이 어디에 있는지 보지 못했다.

        z_mu, z_var = self.encoder(x)

         # sample from the distribution having latent parameters z_mu, z_var
         # reparameterize
        std = torch. exp (z_var / 2 )
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
막심 드미트리예프스키 :

자, 예를 들어 (파이썬 코드에서 모든 것이 명확하지는 않습니다). 그리고 이 BAE의 훈련은 어디에 있습니까?

pyTorch에 있습니까?