트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2269

 
막심 드미트리예프스키 :

나는 내 총을 썼습니다. 복잡한 것은 없습니다. 진실은 되풀이되지 않으며 그것을 다시 실행해야 합니다.

토치의 예

여기 또 다른 예가 있습니다

그것을 알아 내려고 노력할 시간이있을 것입니다.

 
로르샤흐 :

그것을 알아 내려고 노력할 시간이있을 것입니다.

내 라이브러리를 통해 위 라이브러리의 다양한 생성 모델을 비교했습니다. GMM은 테이블 형식 데이터(증가가 있는 데이터 프레임)에 대해 더 잘 작동하는 것으로 나타났습니다. 그런 다음 두 번째로 효율적인 코풀라가 옵니다. 테이블 형식 Gans 등과 같은 신경망 모델. 더 나쁜 수행. 하지만 내가 뭔가를 잘못했을 수도 있습니다. 다른 옵션이 있습니다.

 
막심 드미트리예프스키 :

내 라이브러리를 통해 위 라이브러리의 다양한 생성 모델을 비교했습니다. GMM은 테이블 형식 데이터(증가가 있는 데이터 프레임)에 대해 더 잘 작동하는 것으로 나타났습니다. 그런 다음 두 번째로 효율적인 코풀라가 옵니다. 테이블 형식 Gans 등과 같은 신경망 모델. 더 나쁜 수행. 하지만 내가 뭔가를 잘못했을 수도 있습니다. 다른 옵션이 있습니다.

네트워크는 노이즈를 잘 견디지 못하는 것으로 보이며, 이것이 아마도 결과가 더 나쁜 이유일 것입니다.

에포크마다 데이터에 노이즈를 섞고 싶었지만 손이 닿지 않았습니다.

 
로르샤흐 :

네트워크는 노이즈를 잘 견디지 못하는 것으로 보이며, 이것이 아마도 결과가 더 나쁜 이유일 것입니다.

에포크마다 데이터에 노이즈를 섞고 싶었지만 손이 닿지 않았습니다.

마치 그들이 매우 심하게 평균을 낸 것처럼. 출력은 유사한 샘플, 약한 스프레드입니다. 잠재 벡터로 변경하지 마십시오. 값이 너무 가깝습니다.

 
막심 드미트리예프스키 :

마치 그들이 매우 심하게 평균을 낸 것처럼. 출력은 유사한 샘플, 약한 스프레드입니다. 잠재 벡터로 변경하지 마십시오. 값이 너무 가깝습니다.

이야기의 깊이를 줄일 수 있습니까?

 
로르샤흐 :

이야기의 깊이를 줄일 수 있습니까?

hmm가 강력하게 평균한 값을 제공하는 오토인코더의 출력에서 달랐습니다. 정의에 따라 자동 인코더가 압축하는 경우 GAN은 그 이유를 이해하지 못합니다. Dropout도 일종의 저장을 하지 않습니다.

 
막심 드미트리예프스키 :

hmm가 강력하게 평균한 값을 제공하는 오토인코더의 출력에서 달랐습니다. 정의에 따라 자동 인코더가 압축하는 경우 GAN은 그 이유를 이해하지 못합니다. Dropout도 일종의 저장을 하지 않습니다.

평균화와 블러링은 거의 같은 것입니다. 그렇지 않습니까? 여기 내가 찾은 기사가 있습니다.

 
로르샤흐 :

평균화와 블러링은 거의 같은 것입니다. 그렇지 않습니까? 여기 내가 찾은 기사가 있습니다.

음, 데이터 압축

숫자로 명확하지만 표 형식의 데이터에서는 더 나쁘게 작동합니다.

그래서 TabularGAN이 있습니다. 위의 패키지에서.

 
막심 드미트리예프스키 :

음, 데이터 압축

숫자로 명확하지만 표 형식의 데이터에서는 더 나쁘게 작동합니다.

대각선으로 읽어보니 문제가 다른 노이즈 분포와 부적절한 지표에 있는 것 같습니다.

온실 조건에서 테스트 데이터를 확인하는 것이 좋습니다.
 
로르샤흐 :

흥미로운 주제는 역 그리드입니다.

입력에 노이즈를 적용합니다. 출력 스펙트럼을 가져옵니다.

https://arxiv.org/pdf/1806.08734.pdf

사유: