트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1806

 

안녕하세요 여러분

저는 Deep Reinforcement Learning(Python 사용)을 사용하고 있으며 교육이 이미 진행 중입니다(그림 참조).

Trabalho de aprendizado por reforço profundo


오늘날 저는 학습을 위한 시장 시계로 이동 평균만을 사용합니다.

이 모델은 여러 작업(구매, 판매 및 대기)을 수행합니다. 따라서 훈련 후 모델은 최상의 작업만 "대기"하기 위해 많은 작업을 수렴합니다.

그러나 이 모델에서는 모든 틱을 사용하기 때문에 훈련이 매우 느립니다.

정확성을 높이고 손실을 줄이기 위한 시장 관찰 데이터로 무엇을 제안합니까?

번역 오류에 대해 죄송합니다.

 
ipsec :

정확성을 높이고 손실을 줄이기 위한 시장 관찰 데이터로 무엇을 제안합니까?


1) 시장 모델 을 만들고 그 안에서 에이전트를 훈련하면 차원이 줄어들고 학습 속도가 빨라 집니다 .

2) 그들이 말했듯이 기능의 선택은 창조적 인 작업입니다. 많은 것이 있으면 차원 축소도 여기에 도움이되며 클러스터링에서 pca, umap 등으로 많이 있습니다.

3) 전체 샘플이 아니라 조건에 따라 훈련합니다. 예를 들어 지지선과 저항선을 잡고 가격이 해당 수준일 때만 매수 또는 매도를 결정하면 훈련 표본을 주문별로 줄일 수 있습니다. 규모. 또한 크기의 축소, 무엇을 말하든 ..

모든 항목을 함께 결합할 수 있습니다.

 
ipsec :

안녕하세요 여러분

저는 Deep Reinforcement Learning(Python 사용)을 사용하고 있으며 교육이 이미 진행 중입니다(그림 참조).


오늘날 저는 학습을 위한 시장 시계로 이동 평균만을 사용합니다.

이 모델은 여러 작업(구매, 판매 및 대기)을 수행합니다. 따라서 훈련 후 모델은 최상의 작업만 "대기"하기 위해 많은 작업을 수렴합니다.

그러나 이 모델에서는 모든 틱을 사용하기 때문에 훈련이 매우 느립니다.

정확성을 높이고 손실을 줄이기 위한 시장 관찰 데이터로 무엇을 제안합니까?

번역 오류 죄송합니다

허용 가능한 오류에 대한 틱을 제거합니다.

모든 눈금을 제거할 때 허용 오차를 초과하는 영역을 선택하십시오.

물론 가능한 경우 이러한 영역을 찾도록 모델을 훈련시킵니다.))))

 
막심 드미트리예프스키 :

글쎄, 이것들은 상태 공간 모델이고, 그들은 다른 시간에도 작동합니다.

그리고 목표를 추세의 변화에 연결할 수 있습니다. 업무는 이익을 위한 것이 아니라 인식과 예측을 위한 것입니다. 완전히 다른 작업, NN이 동시에 인식하고 예측할 수 없다는 것은 분명합니다.)))) 목표 이익, 균형은 직접 인식 없이 간접적으로 전환점을 인식합니다.

매일, 4시간, 매시간(또는 관심 있는 모든 것) 지그재그 반전을 수행하고, 예를 들어 (모든) TF 120 막대 및 추적 중인 120 틱))) 반전 지점 전후를 살펴보십시오. 매일 및 4시간 시청은 다음 및 이전 반전까지 또는 어떻게 더 나은지 모르겠습니다. 물론 데이터를 준비하려면 수동으로 작성해야 합니다.

또는 비슷한 것이 있습니다.

 
발레리 야스트렘스키 :

그리고 목표를 추세의 변화에 연결할 수 있습니다. 업무는 이익을 위한 것이 아니라 인식과 예측을 위한 것입니다. 완전히 다른 작업, NN이 동시에 인식하고 예측할 수 없다는 것은 분명합니다.)))) 목표 이익, 균형은 직접 인식 없이 간접적으로 전환점을 인식합니다.

매일, 4시간, 매시간(또는 관심 있는 모든 것) 지그재그 반전을 수행하고, 예를 들어 (모든) TF 120 막대 및 추적 중인 120 틱))) 반전 지점 전후를 살펴보십시오. 매일 및 4시간 시청은 다음 및 이전 반전까지 또는 어떻게 더 나은지 모르겠습니다. 물론 데이터를 준비하려면 수동으로 작성해야 합니다.

또는 비슷한 것이 있습니다.

이것은 지그재그 브레이크 사이의 규칙성의 존재에 의해 매우 쉽게 검증됩니다. 엔트로피 감소. 토와 차이가 있다면 시청하실 수 있습니다. 그러나 나는 그런 것들을 찾지 못했다. DNA 분석 및 약물 공식 유도를 위해 의학에서 사용되는 특수 패키지가 있습니다. 예를 들어 순열 엔트로피 또는 q-learning과 같은 옵티마이저, 옵티마이저가 있는 더 복잡한 경우
 
ipsec :

안녕하세요 여러분

저는 Deep Reinforcement Learning(Python 사용)을 사용하고 있으며 교육이 이미 진행 중입니다(그림 참조).


오늘날 저는 학습을 위한 시장 시계로 이동 평균만을 사용합니다.

이 모델은 여러 작업(구매, 판매 및 대기)을 수행합니다. 따라서 훈련 후 모델은 최상의 작업만 "대기"하기 위해 많은 작업을 수렴합니다.

그러나 이 모델에서는 모든 틱을 사용하기 때문에 훈련이 매우 느립니다.

정확성을 높이고 손실을 줄이기 위한 시장 관찰 데이터로 무엇을 제안합니까?

번역 오류에 대해 죄송합니다.

내 생각에 심층 강화는 금융 시장과 같은 1-5차원이 아닌 다변수 작업에 사용됩니다. 따라서 신경망 또는 선형 근사기를 사용하여 REINFORCE와 같은 더 간단하고 빠른 방법을 시도할 수 있습니다.

 
막심 드미트리예프스키 :
이것은 지그재그 브레이크 사이의 규칙성의 존재에 의해 매우 쉽게 검증됩니다. 엔트로피 감소. 토와 차이가 있다면 시청하실 수 있습니다. 그러나 나는 그런 것들을 찾지 못했다. DNA 분석 및 약물 공식 유도를 위해 의학에서 사용되는 특수 패키지가 있습니다. 예를 들어 순열 엔트로피 또는 q-learning과 같은 옵티마이저, 옵티마이저가 있는 더 복잡한 경우

아니오, 골절의 규칙성이 작동하지 않습니다))))) 규칙성을 고려하지 않고 골절 전에 무언가를 잡아야 합니다) 일반적으로 이전 SB와 동일한 차이가 있는 골절을 잡을 기회가 있습니다. 골절. 일반 패키지에서는 이 작업을 수행할 수 없습니다. 그리고 나는 추세의 중간에 너무 긴 추세 를 제외하고는 휴식을 위해 중요한 것이 있다고 생각하지 않습니다. ))))

 
발레리 야스트렘스키 :

아니오, 골절의 규칙성이 작동하지 않습니다))))) 규칙성을 고려하지 않고 골절 전에 무언가를 잡아야 합니다) 일반적으로 이전 SB와 동일한 차이가 있는 골절을 잡을 기회가 있습니다. 골절. 일반 패키지에서는 이 작업을 수행할 수 없습니다. 그리고 나는 추세의 중간에 너무 긴 추세를 제외하고는 휴식을 위해 중요한 것이 있다고 생각하지 않습니다.))))

글쎄, 나는 TF 상관 관계와 유추하여 이해했습니다. 당신은 또한 시도 할 수 있습니다

 
막심 드미트리예프스키 :

내 생각에 심층 강화는 금융 시장과 같은 1-5차원이 아닌 다변수 작업에 사용됩니다. 따라서 신경망 또는 선형 근사기를 사용하여 REINFORCE와 같은 더 간단하고 빠른 방법을 시도할 수 있습니다.

다른 TF를 보면 차원이 커집니다))))

 
막심 드미트리예프스키 :

글쎄, 나는 TF 상관 관계와 유추하여 이해했습니다. 당신은 또한 시도 할 수 있습니다

네. TF만이 모든 것을 보고 싶어하며 어떤 것이 필요한지 즉시 결정할 수 없습니다. 아마도 이웃 하나, 또는 TF의 하나 또는 2개의 값 후에 더 나을 수도 있고, 아니면 모두가 필요할 수도 있습니다.))) 생각하기 어렵습니다.)))

사유: