트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2206

 
막심 드미트리예프스키 :

실제 봇이 회전하고 있습니다. 어머니의 수탉 장사꾼이 다시 여기에 오기를 원하십니까? 밀도 추정치와 같으며 동일한 것입니다(음, 자동 인코더는 의사가 처방한 대로 동일합니다). 순환 레이어를 포함하여 무엇이든 간단히 인코더를 만들 수 있습니다. 이것은 더 발전된 모델입니다. 상상하면 본질로 유추할 수 있어 yes

다음 스포일러 . 기사. GMM에 대한 간략한 설명도 있지만 나중에 이것이 왜 이런 식으로 작동하는지 찾으려고 했을 때 찾았습니다. 그리고 원래는 내가 직접 유형을 생각해 냈습니다. :)

반 지도 학습을 위한 기성품 패키지가 있습니까?

거기에 모든 것이 준비되어 있어야 합니다.

 
mytarmailS :

반 지도 학습을 위한 기성품 패키지가 있습니까?

거기에 모든 것이 준비되어 있어야합니다

있다. 그러나 요리된 모든 것이 항상 먹을 수 있는 것은 아닙니다.

 
막심 드미트리예프스키 :

있다. 그러나 요리된 모든 것이 항상 먹을 수 있는 것은 아닙니다.

그리고 시도 했습니까?

결국, 그들은 당신이하는 일을 기계에서만 수행합니다. 분포에 따라 데이터를 시뮬레이션 할뿐만 아니라 다른 접근 방식을 선택할 수 있습니다.

 
mytarmails :

그리고 시도 했습니까?

결국, 그들은 당신이하는 일을 기계에서만 수행합니다. 분포에 따라 데이터를 시뮬레이션 할뿐만 아니라 다른 접근 방식을 선택할 수 있습니다.

가는 중입니다. 또는 진행 중입니다.

내가 기사를 쓰는 이유는 무엇이라고 생각합니까? 자랑하기 위해서가 아니라 스스로 알아내기 위해. 쓰면서 스스로 깨닫는다.

 
막심 드미트리예프스키 :

가는 중입니다. 또는 진행 중입니다.

내가 왜 기사를 쓴다고 생각해? 자랑하기 위해서가 아니라 스스로 알아내기 위해. 글을 쓰면서 스스로 깨닫는다.

사실, 다른 사람에게 설명하기 전까지는 자신도 이해가 되지 않고, 의사에게 제가 하는 일을 설명하기도 하고, 솔직히 말해서 스스로 따라잡을 수 있다는 긍정적인 효과가 나타납니다. 그리고 대담자가 호에 있지 않다는 사실은 모두 쓰레기입니다))))

 
발레리 야스트렘스키 :

사실, 다른 사람에게 설명하기 전까지는 자신도 이해가 되지 않고, 의사에게 제가 하는 일을 설명하기도 하고, 솔직히 말해서 스스로 따라잡을 수 있다는 긍정적인 효과가 나타납니다. 그리고 대담자가 호에 있지 않다는 사실은 모두 쓰레기입니다))))

그리고 ))

 
막심 드미트리예프스키 :

글을 제대로 이해했는지..

1) 실제 데이터의 작은 조각을 가져와 레이블을 표시합니다.

2) 기차 세미 .. 모델

3) 확인   semi.. 실제 데이터의 큰 플롯에 대한 모델

4) 좋은 것을 찾을 때까지 원을 그리며   semi.. 실제 데이터의 넓은 영역에 적절하게 대응하는 모델

 
mytarmailS :

글을 제대로 이해했는지..

1) 실제 데이터의 작은 조각을 가져와 레이블을 표시합니다.

2) 기차 세미 .. 모델

3) 확인   semi.. 실제 데이터의 큰 플롯에 대한 모델

4) 좋은 것이 나올 때까지 원을 그리며   semi.. 실제 데이터의 넓은 영역에 적절하게 대응하는 모델

그런 다음 컨트롤 섹션도 살펴보고 모든 패스에서 좋은 모델의 수도 살펴봅니다. 그것들이 많으면 이것이 플러스입니다.

 
막심 드미트리예프스키 :

그런 다음 컨트롤 섹션도 살펴보고 모든 패스에서 좋은 모델의 수도 살펴봅니다. 그것들이 많으면 이것이 플러스입니다.

듣다! 이건 세미..모델의 장점이 아니라 잘못된 라벨링의 문제인 것 같아요

, 우리의 "감독 마크업"은 시장에 너무 부적절하고 세미 .. 단지 그것을 조금 더 적절하게 만들고 모든 것이 기적입니다 ..

그리고 적절한 마크업을 하면 더 좋은 결과를 얻을 수 있습니다...


내 말은 분류 문제가 아니라 최적화 문제로 훈련하는 것입니다. 최소/최대 검색으로 모델을 훈련시킵니다.

기능, 예를 들어 이익 극대화 + 수수료, 이것이 가장 적절한 라벨링이 될 것입니다.

생각해봐..

 
mytarmailS :

듣다! 이건 세미..모델의 장점이 아니라 잘못된 라벨링의 문제인 것 같아요

, 우리의 "수동 마크업"은 시장에 너무 부적절하고 세미 .. 단지 그것을 조금 더 적절하게 만들고 모든 것이 기적입니다 ..

그리고 적절한 마크업을 하면 더 좋은 결과를 얻을 수 있습니다...


내 말은 분류 문제가 아니라 최적화 문제로 훈련하는 것입니다. 최소/최대 검색으로 모델을 훈련시킵니다.

기능, 예를 들어 이익 극대화 + 수수료, 이것이 가장 적절한 라벨링이 될 것입니다.

생각해봐..

적절한 마크업을 수행하는 데 비용이 많이 들고 일반적으로 어떻게 .. 따라서 반 지도 학습이 많은 경우에 더 잘 작동할 수 있다고 쓰여 있습니다.

그것은 또한 고양이와 다른 많은 것들에 대해 테스트되었으며 그 자체로 잘 나타났습니다. 딥마인드의 같은 기사..

사유: