트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2630

 
Maxim Dmitrievsky # :
사전에 알려지지 않은 창의적인 접근 방식
수익성 있는 TS 거래는 패턴을 가리켜야 합니다. 가격/시간만 사용한다면 피팅/피팅이 가능할 것 같습니다.
무엇이든 근사할 수 있으며 TS는 근사치 없이 코드의 명확한 논리입니다.
 
mytarmailS # :
무엇이든 근사할 수 있으며 TS는 근사치 없이 코드의 명확한 논리입니다.
명확한 논리는 우리에게 알려지지 않았습니다. 카운트 업 .. 이것은 디컴파일이 아닙니다. 그것은 "이미지와 모양으로" 흐릿하게 남아 있습니다. 아비바스 스니커즈
 
Maxim Dmitrievsky # :
명확한 논리는 우리에게 알려지지 않았습니다. 카운트 업 .. 이것은 디컴파일이 아닙니다. 그것은 "이미지와 모양으로" 흐릿하게 남아 있습니다. 아비바스 스니커즈

karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.

인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..

파란색 원래 신호, 빨간색 예측

Reference
Prediction   0    1
         0 106    4
         1    1    89
                                          
               Accuracy : 0.975            
                 95 % CI : ( 0.9426 , 0.9918 )
    No Information Rate : 0.535            
    P-Value [Acc > NIR] : < 2 e- 16           
                                          
                  Kappa : 0.9496      


정규화가 없으면 일반적으로

Prediction   0    1
         0    96    0
         1    0 104
                                     
               Accuracy : 1           
                 95 % CI : ( 0.9817 , 1 )
    No Information Rate : 0.52        
    P-Value [Acc > NIR] : < 2.2 e- 16   
                                     
                  Kappa : 1           
x <- cumsum(rnorm( 10000 ))

m5 <- TTR::SMA(x, 5 )
m15 <- TTR::SMA(x, 15 )

X <- matrix (ncol = 2 0 ,nrow = length(x))

for (i in 20 :length(x)){
  ii <- (i- 19 ):i
  X[i,] <- m5[ii] - m15[ii]
}


Yn <- (m5>m15)* 1
Y <-   as .factor(Yn)

tr <- 50 : 9800
ts <- 9801 : 10000

library (randomForest)
rf <- randomForest(Y[tr]~., X[tr,])
pr <- predict(rf ,X[c(tr,ts),])

prN <- as .numeric( as .character(pr))

par(mar=c( 2 , 2 , 0 , 0 ))
layout( 1 : 3 , heights = c( 10 , 1 , 1 )) # Heights of the two rows
      
plot(tail(x, 200 ),t= "l" ,col= 8 )
lines(tail(m5[c(tr,ts)], 200 ),col= 2 ,lwd= 1 )
lines(tail(m15[c(tr,ts)], 200 ),col= 4 ,lwd= 1 )
plot(tail(Yn, 200 ),t= "h" ,col= 4 ,lwd= 2 )
plot(tail(prN, 200 ),t= "h" ,col= 2 ,lwd= 2 )


caret::confusionMatrix(predict(rf ,X[ts,]) , Y[ts])
 
mytarmailS # :

karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.

인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..

파란색 원래 신호, 빨간색 예측


정규화가 없으면 일반적으로

글쎄, 괜찮습니다. 보고서를 통해 어떻게 구문 분석하고 MA와 같은 간단한 TS를 가짜로 만들지 알아내야 합니다. 조금 바쁘지만 테마는 멋지다
 
mytarmailS # :

karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.

인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..

파란색 원래 신호, 빨간색 예측


정규화가 없으면 일반적으로

MA Expert Advisor가 어떤 기간을 사용하는지 미리 알 수 없습니다. 또는 다른 지표가 사용됩니다.
MA(X)가 아니라 원시 인용부호(x), 예를 들어 100개의 막대에서 모델을 훈련시키십시오(블랙박스에서 MA 기간을 모르면 사용할 수 있는 막대의 수만 추측할 수 있습니다. ).

글쎄요, Y는 조사한 Expert Advisor가 발행한 것입니다.

 
elibrarius # :

MA Expert Advisor가 어떤 기간을 사용하는지 미리 알 수 없습니다. 또는 다른 지표가 사용됩니다.

내가 무엇을 할 수 있고 무엇을 할 수 없는지 말하지 말아요 "당신이 어떻게 할 수 있는지 모르겠어요"라고 말하면 정직할 것입니다.

 
elibrarius # :


MA(X)가 아닌 원시 인용(x)으로 모델을 훈련시키십시오.

원시에 나쁘지 않다

 Reference
Prediction   0    1
         0    72    2
         1    5 121
                                          
               Accuracy : 0.965            
                 95 % CI : ( 0.9292 , 0.9858 )
    No Information Rate : 0.615            
    P-Value [Acc > NIR] : < 2 e- 16           
                                          
                  Kappa : 0.9255      
 
mytarmailS # :

원시에 나쁘지 않다

이게 더 흥미롭다...
 
mytarmailS # :

원시에 나쁘지 않다

여기에 MO가 정말 필요한가요?

 

내 결과. 누가 해독 할 수 있습니까? 잘했습니다. 이미 무엇인지 잊어 버렸습니다.

또 다른 테스트 케이스, ma와 price의 교차점. 마지막 몇 개 막대의 증분이 입력으로 사용되며 거래 방향(1-매수, 0-매도)이 출력입니다. 기본 네트워크 매개변수: 1 tanh가 있는 조밀한 계층. 1 에포크, 배치=32. win - MA 기간당 입력 수, 전체 - 훈련 샘플 크기. 네트워크는 훈련 중에 반복되는 예제가 없도록 1 Epoch에서 훈련됩니다. 검증은 수직으로 반전된(*-1) 훈련 세트에서 발생합니다. 테스트는 별도의 독립 샘플에서 실행됩니다. 그들은 모두 합계와 같습니다. per<=win을 사용하면 네트워크가 숨겨진 패턴을 검색할 수 있음을 증명하는 데 필요한 높은 정확도를 보여줍니다.

소규모 네트워크(1000개 미만 뉴런)의 경우 CPU당 계산이 GPU당 계산보다 빠릅니다. 배치 = 8192이면 계산이 동시에 수행됩니다. 1개와 100개의 은닉 뉴런이 있는 이 테스트 케이스는 동시에 계산됩니다. CPU의 경우 배정밀도와 단정밀도는 동일한 시간으로 간주되며 결과는 비슷합니다. 다른 유형의 활성화가 거의 같은 시간에 계산되고 비슷한 결과를 제공합니다. 승리의 크기는 시간에 큰 영향을 미치지 않습니다. total=10^6, batch=1은 18분으로 계산됩니다. 배치와 시간 간의 관계는 선형입니다.

샘플 크기 정확도. 배치=1, 당=100, 승리=100. 첫 번째 열 - 샘플 크기(총), 2 - 시간 min.sec, 3 - 테스트 정확도, 4 - 훈련 정확도, 5 - 검증 정확도.
1m 18.49 99. 98.7 99.
100k 1.54 98.5 97.3 98.6
10k 0.11 97.8 88.4 98.1
1k 0.01 71.2 62.1 66.5

입력에 노이즈를 추가합니다. 총=10^6, 배치=32, 당=10, 승리=10. 첫 번째 열은 입력의 노이즈 비율, 2 - 테스트의 정확도, 3 - 기차의 정확도, 4 - 검증의 정확도입니다.

0.001 99.8 98.1 99.8
0.01 99.6 98.2 99.6
0.1 96.8 96.1 96.8
1 74.9 74.2 75.1

입력 및 오류 수. 총=10^6, 배치=32, 당=100. 테스트 정확도, 기차 정확도, 검증 정확도.

승리=150: 99.5 98.7 99.5

승리=100: 99.6 98.8 99.6

승리=90: 98.9 98.2 98.9

승리=80: 97.2 96.6 97.2

승리=70: 94.8 94.3 94.8

승리=60: 92.0 91.6 91.9

승리=50: 88.6 88.2 88.6

승리=20: 74.7 74.4 74.7

무게 차트. 1개의 입력 뉴런. ma(100) 왼쪽에 100개 입력, ma(50) 오른쪽에 100개 입력


사유: