트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2373

 
비밀 :

글쎄, S & P에 철거가 있습니다. 그리고 fx는 영구적으로 그것을 가지고 있지 않습니다.

음, 인플레이션을 제거하면 추세도 그렇게 일정하지 않습니다. Forex에서는 인플레이션이 부분적으로,   자동으로 삭제됩니다.

비밀 :

풋콜 비율 등 아이디어 좋긴한데 아직 이익을 내세우는 사람은 못봤음) 그래도 시장은 경험이 아닌 돈으로 움직이고 있고, 통화옵션의 유동성도 없다. 예, 그들은 다른 목적을 가지고 있습니다.

물론 모든 물고기는 오래전에 잡혔지만 가끔 조금 새로운 물고기가 시작되었는지 확인해야 합니다)

비밀 :

ps 전표에서 분기를 시작하는 것이 좋을 것입니다. 그렇지 않으면 어디에서나 주제에서 벗어납니다.)

만) 그러나 그들은 스레드를 만들 것입니다) 대다수의 경우 임의의 프로세스는 당신이 말하는 것이 무엇이든간에 - 모든 것이 어떤 의미에서 사실이 될 것입니다.) 다시 말하지만, 항상있을 것입니다 욕망에 불타오르는 수많은 실천 실천가들은 이론 이론가들에게 그들이 실천 실천에서 얼마나 멀리 떨어져 있는지 설명한다)

 
알렉세이 니콜라예프 :

음, 인플레이션을 제거하면 추세도 그렇게 일정하지 않습니다. Forex에서 인플레이션은 부분적으로,   자동으로 삭제됩니다.

물론 모든 물고기는 오래전에 잡혔지만 가끔 조금 새로운 물고기가 시작되었는지 확인해야 합니다)

만) 그러나 그들은 스레드를 만들 것입니다) 대다수의 경우 임의의 프로세스는 당신이 말하는 것이 무엇이든간에 - 모든 것이 어떤 의미에서 사실이 될 것입니다.) 다시 말하지만, 항상있을 것입니다 욕망에 불타오르는 수많은 실천 실천가들은 이론 이론가들에게 그들이 실천 실천에서 얼마나 멀리 떨어져 있는지 설명한다)

맞아, 나무와 숲에 대해 논쟁하는 것이 낫다.
 
R에서 샘플을 가져와 "올가미 회귀" 모델을 적용하는 스크립트를 만드는 데 도움을 줄 수 있는 사람이 있습니까? 상관관계가 높은 이진 특성에 대해 잘 작동한다는 의견을 들었습니다. 사용해보고 싶습니다. 사실, 회귀가 아니라 분류가 필요하지만 여기에서는 이것이별로 중요하지 않다고 생각합니다. 그 사람은 분류에 대해 말했습니다.
 
알렉세이 비아즈미킨 :
R에서 샘플을 가져와 "올가미 회귀" 모델을 적용하는 스크립트를 만드는 데 도움을 줄 수 있는 사람이 있습니까? 상관관계가 높은 이진 특성에 대해 잘 작동한다는 의견을 들었습니다. 사용해보고 싶습니다. 사실, 회귀가 아니라 분류가 필요하지만 여기에서는 이것이별로 중요하지 않다고 생각합니다. 그 사람은 분류에 대해 말했습니다.

ROCKET을 살펴보십시오. 알고리즘은 여러 가지 비상관된 기능을 생성합니다.

 
알렉세이 비아즈미킨 :
R에서 샘플을 가져와 "올가미 회귀" 모델을 적용하는 스크립트를 만드는 데 도움을 줄 수 있는 사람이 있습니까? 상관관계가 높은 이진 특성에 대해 잘 작동한다는 의견을 들었습니다. 사용해보고 싶습니다. 사실, 회귀가 아니라 분류가 필요하지만 여기에서는 이것이별로 중요하지 않다고 생각합니다. 그 사람은 분류에 대해 말했습니다.

https://www.pluralsight.com/guides/linear-lasso-and-ridge-regression-with-r

http://www.science.smith.edu/~jcrouser/SDS293/labs/lab10-r.html

https://rstatisticsblog.com/data-science-in-action/machine-learning/lasso-regression/

 
mytarmailS :


우리는 시장 모델을 만들어야 합니다 --- 우리에게 유용한 속성있는 단순화된 기능 공간


단순화 해야 하는 이유

1) 가시성, 인지도

2) 공간이 단순할수록 반복성이 높을수록 패턴 찾기가 쉽고 2년에 한 번 이상 반복됩니다.

3) 패턴 탐색 시 조합 폭발 가능성 최소화

4) 노이즈를 제거하는 스마트 단순화


유용한 속성 은 무엇입니까(모델에서 필요한 것)

1) 모델은 시장 움직임에 적합해야 합니다.

2) 모델 내 데이터의 반복성

3) 단순성


누군가가 무언가를 추가할 수도 있습니다. 또한 모델을 위한 옵션에 대해 토론하도록 초대합니다.

매트. 합리적인 가정이 있는 물리적 프로세스 모델은 충분한 정확도로 달성 가능한 목표입니다.

멀티팩터 매트. 간단한 프로세스 모델, Brownian이 좋은 예이며 필요한 정확도를 달성합니다.

그러나 나는 복잡한 시스템을 보지 못했습니다.

블로그의 Alexey Nikolaev는 R에서 소수 게임 모델을 만들었습니다.

그것은 진드기 움직임처럼 밝혀졌습니다. 그러나 모델에 다른 영향을 미치는 요인을 추가하는 것은 작동하지 않습니다. 그리고 어디로 가야할지, 복잡한 게임 모델로 들어가거나 단순한 모델에서 더 복잡한 모델을 만들려면 어느 정도 정확하게 결정하기 어렵습니다. 모델이 처음에는 단순함에도 불구하고 클래스/작용 변수 그룹의 수가 2배 이상으로 인해 작동하지 않습니다. 브라운 운동에서 클래스 1, 그 다음 모델은 상당히 복잡합니다.

 
막심 드미트리예프스키 :

ROCKET을 살펴보십시오. 알고리즘은 여러 가지 비상관된 기능을 생성합니다.

바이너리로 실험해야합니다.

 

감사합니다. 하지만 저는 R의 승객입니다. 거기에 있는 모든 다양한 코드 예제에서 익사할 것입니다. 나는 평범한 작업 스크립트를 가지고 있을 것입니다. 거기에는 많은 매개변수가 없는 것 같습니다 ...

 
알렉세이 비아즈미킨 :

감사합니다. 하지만 저는 R의 승객입니다. 거기에 있는 모든 다양한 코드 예제에서 익사할 것입니다. 나는 평범한 작업 스크립트를 가지고 있을 것입니다. 거기에는 많은 매개변수가 없는 것 같습니다 ...

내 게으른 친구를 잡아

 library (glmnet)
Y <- sample(c(- 1 , 1 ), 100 ,replace = T)   # data
X <- matrix(rnorm( 400 ),ncol = 4 )     # target
tr <- 1 : 80 # train idx

lambda_seq <- 10 ^seq( 2 , - 2 , by = -. 1 )
# identifying best lamda
best_lam <- cv.glmnet(x = X[tr,], y = Y[tr],alpha = 1 , lambda = lambda_seq, nfolds = 5 )$lambda.min

# train model with best lamda value identified
lasso_best <- glmnet(x = X[tr,], y = Y[tr], alpha = 1 , lambda = best_lam)
# predict new data
pred <- predict(lasso_best, s = best_lam, newx = X[-tr,])


그냥 모델에 대해 묻지 마세요 사용하지도 사용하지 않을 것입니다 이미 기적의 모델을 믿는 마인드에서 자랐습니다)

 
발레리 야스트렘스키 :

매트. 합리적인 가정이 있는 물리적 프로세스 모델은 충분한 정확도로 달성 가능한 목표입니다.

멀티팩터 매트. 간단한 프로세스 모델, Brownian이 좋은 예이며 필요한 정확도를 달성합니다.

그러나 나는 복잡한 시스템을 보지 못했습니다.

블로그의 Alexey Nikolaev는 R에서 소수 게임 모델을 만들었습니다.

그것은 진드기 움직임처럼 밝혀졌습니다. 그러나 모델에 다른 영향을 미치는 요인을 추가하는 것은 작동하지 않습니다. 그리고 어디로 가야할지, 복잡한 게임 모델로 들어가거나 단순한 모델에서 더 복잡한 모델을 만들려면 어느 정도 정확하게 결정하기 어렵습니다. 모델이 처음에는 단순함에도 불구하고 클래스/작용 변수 그룹의 수가 2배 이상으로 인해 작동하지 않습니다. 브라운 운동에서 클래스 1, 그 다음 모델은 상당히 복잡합니다.

복잡한

사유: