트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 481

 
막심 드미트리예프스키 :

증분은 매수/매도 클래스에 속하는 확률론적 평가를 받을 수 있습니다.


"생각" 없이 더 잘 쉬다

 
올렉 자동판매기 :

"생각" 없이 더 잘 쉬다


자, 실험으로 확인해보죠.. :) 물론 2개, 2개 이상의 수업을 해보겠지만 제 경우에는 근본적인 차이는 못느끼겠습니다

 
막심 드미트리예프스키 :

Maxim, 귀하의 상황은 다음과 같습니다.

표적:

a) 이동 방향의 확률을 얻습니다.

b) 움직임의 강도를 추정합니다.

솔루션 옵션:
1) 하나의 출력 [0,1] 또는 [-1,1]을 사용합니다. 또는 두 개의 출력 [[0,1],[0,1]].

미묘한 차이! 훈련 데이터는 움직임의 강도를 반영해야 합니다. 움직임의 이력은 원하는 범위로 정규화되어야 합니다.

플러스: 네트워크 모델 설정이 간편하고 간편합니다.

단점: 가격 변동의 진폭이 다르기 때문에 전체 시계열에 걸쳐 정규화가 균일하지 않습니다.

2) 2차원 분류 출력 [0,1]+[0,1] 또는 [-1,1]+[-1,1]을 사용합니다. 3/4 출력 [[0,1],[0,1]+[0,1]] 또는 [[0,1],[0,1]+[0,1],[0,1] ]. 1차원은 운동 방향의 확률이고, 2차원은 운동력의 확률입니다.

플러스: 결과의 더 나은 시각화.

빼기: "나무" 프레임워크에서 신경망 모델을 설정하는 복잡성.

3) 네트워크 모델을 둘로 나누는 옵션 2. 한 모델은 방향을 예측하는 법을 배우고, 두 번째 모델은 움직임의 강도를 예측하는 법을 배웁니다.

플러스: 가시성을 저장합니다. 신경망 사용 용이성 .

빼기: 계산 속도가 약간 증가할 수 있습니다. 더 많은 코드.

 
알렉세이 테렌테프 :

Maxim, 귀하의 상황은 다음과 같습니다.

표적:

a) 이동 방향의 확률을 얻습니다.

b) 움직임의 강도에 대한 추정치를 얻습니다.

솔루션 옵션:
1) 하나의 출력 [0,1] 또는 [-1,1]을 사용합니다. 또는 두 개의 출력 [[0,1],[0,1]].

미묘한 차이! 훈련 데이터는 움직임의 강도를 반영해야 합니다. 움직임의 이력은 원하는 범위로 정규화되어야 합니다.

플러스: 네트워크 모델 설정이 간편하고 간편합니다.

단점: 가격 변동의 진폭이 다르기 때문에 전체 시계열에 걸쳐 정규화가 균일하지 않습니다.

즉, 결국 처음에 신호의 강도를 고려하여 출력을 채우면 2개의 클래스 중 하나에 할당될 확률 값은 신호의 강도에 해당합니다(예: 정규화된 0-1 범위의 증분, 출력에서 이 클래스 또는 해당 클래스에 할당할 확률이 더 높아집니다. 예상 증분은 더 큽니까?

또는 여전히 그렇게 작동하지 않으며 클래스에 할당될 확률만 얻을 수 있지만 출력에서 증가분의 크기는 이미 손실됩니다. :)

 
마법사_ :

회귀선을 구축하면 .... 즉, ....보다 강할 것입니다.
그리고 비선형 분류로 신경망을 취하면 ...


하나의 자로 그것들을 측정하고 알아내십시오. 예를 들어, 이제 유행 - Logloss(R에서 - 라이브러리(MLmetrics))

더 많은 클래스를 만드는 것이 좋지 않을까요?

최선의 방법으로 하세요...



음, 즉, 증분 크기에 대한 정보는 훈련 후에 손실되지 않으며 2개 클래스 중 첫 번째 클래스에 할당될 확률을 사용하여 예측된 증분 강도를 결정할 수 있습니다. 클래스는 증분됩니다. 그렇다면 출구를 많이 만드는 이유는 2개면 충분합니다. :)

 
막심 드미트리예프스키 :

음, 즉, 증분 크기에 대한 정보는 훈련 후에 손실되지 않으며 2개 클래스 중 첫 번째 클래스에 할당될 확률을 사용하여 예측된 증분 강도를 결정할 수 있습니다. 클래스는 증분됩니다. 그렇다면 출구를 많이 만드는 이유는 2개면 충분합니다. :)

매도 증가의 각 단계의 확률은 동일한 단계의 매도 증가의 확률과 다를 수 있습니다. 좋은 결과에 관심이 있다면 경계해야 합니다.

감사합니다.
 
막심 드미트리예프스키 :

즉, 결국 처음에 신호의 강도를 고려하여 출력을 채우면 2개의 클래스 중 하나에 할당될 확률 값은 신호의 강도에 해당합니다(예: 정규화된 0-1 범위의 증분, 출력에서 이 클래스 또는 해당 클래스에 할당할 확률이 더 높아집니다. 예상 증분은 더 큽니까?

또는 여전히 그렇게 작동하지 않고 클래스에 할당될 확률을 얻을 수 있지만 출력에서 증분 크기는 이미 손실됩니다. :)

신경망 자체는 필요한 것이 무엇인지 알지 못합니다. 그녀는 당신이 그녀에게 먹이는 것으로부터 배웁니다. 실제로 입력과 출력 사이의 데이터에 일부 패턴이 있는 경우 적절한 훈련을 통해 모델이 이를 나타냅니다. 저것들. 예, 확률 값은 움직임의 강도를 나타낼 수 있습니다.


이 접근 방식을 사용하면 이러한 방식으로 신호를 [0,1]에 의한 bye / sat 또는 사인파 / tanh 출력 [-1,1]의 두 가지 클래스로 나눕니다.

 
안드레이 키셀료프 :
매도 증가의 각 단계의 확률은 동일한 단계의 매도 증가의 확률과 다를 수 있습니다. 좋은 결과에 관심이 있다면 경계해야 합니다.

감사합니다.

아니요, 이미 화면을 제공했습니다. 증분은 고정되어 있고 0의 양쪽에서 대칭이므로 확률은 + - 동일합니다.


 
그리고 네, 여기에서 요점은 정규화에 있습니다. 다른 시간 간격으로 다른 방식으로 데이터를 점프하고 정규화합니다.

모든 데이터에 대한 데이터를 한 번에 정규화하면 신호가 훨씬 약해집니다.
 
알렉세이 테렌테프 :

신경망 자체는 필요한 것이 무엇인지 알지 못합니다. 그녀는 당신이 그녀에게 먹이는 것으로부터 배웁니다. 실제로 입력과 출력 사이의 데이터에 일부 패턴이 있는 경우 적절한 훈련을 통해 모델이 이를 나타냅니다. 저것들. 예, 확률 값은 움직임의 강도를 나타낼 수 있습니다.


이 접근 방식을 사용하면 이러한 방식으로 신호를 [0,1]에 의한 bye / sat 또는 사인파 / tanh 출력 [-1,1]의 두 가지 클래스로 나눕니다.


네 감사합니다 제가 듣고싶던말입니다.. 신경망을 좋아하는 친구가 한 클래스에 배정될 확률은 클래스에 배정될 확률일 뿐이라고 해서 절대 증분 데이터는 없어집니다 .. 나는 그와 말다툼을 시작했고 결과적으로 둘 다 혼란스러워졌습니다 :)

사유: