트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2834

 
mytarmailS #:
나는 xgboost로 성공하지 못했습니다 ...
또는 오히려 그랬지만 훈련이 효과가 없었고 거기에서 그라디언트와 좋은 친구를 사귀고 유전학으로 피트니스 기능 그라디언트를 만들어야합니다.

네, 그게 까다로운 부분입니다. 그래디언트와 두 번째 도함수의 행렬인 헤시안 행렬을 계산해야 합니다. 헤시안도 양수여야 합니다.

예를 들어, 이익을 위해 헤시안은 (0과 같음)과 같이 퇴화됩니다. 손실 함수를 어떻게든 필요와 필요 사이에서 합리적인 타협점을 찾아야 합니다.

 
Andrey Dik #:

1. 내 성이 거부되지 않았습니다.
2. 문제는 글로벌이 변경될지 여부가 아니라 (필연적으로 변경될 것입니다) 글로벌 극한을 전혀 찾을 수 있는지 여부입니다. 신경 쓰지 않는다면 네트워크 가중치를 임의의 숫자로 초기화하면됩니다. 글로벌이든 아니든 무슨 차이가 있기 때문에 그게 다입니까? 로컬입니다.))

1. 성에 대해서는 고려하겠습니다. 당신은 내가 아는 유일한 성을 가진 사람입니다.

2. 나는 우리가 아이디어를 부조리하게 가져 오지 말아야한다는 것에 반대하고 싶지만 실제로는 동일합니다. 우리는 최적이 필요하지 않습니다. 우리는 고원이 필요하고, 더 광범위할수록 더 좋고, 더 수익성이 높을수록 더 좋습니다. 그리고 극단은 항상 불안정한 상태이지만 우리는 안정적인 상태가 필요하며 미래에는 안정된 상태가 필요합니다. 따라서 최적을 찾는 것은 해로운 활동이라는 것이 밝혀졌습니다.

여기서 저는 미래 수익의 안정성은 예측 변수의 속성에 달려 있으며 모델에 거의 의존하지 않고 최적화 알고리즘에 더 적게 의존한다는 생각을 추진하고 있습니다. 즉, 완전히 다른 접근 방식입니다.

 
СанСаныч Фоменко #:

제가 여기서 주장하는 것은 미래 수익의 지속 가능성은 예측 변수의 속성에 달려 있으며 최적화 알고리즘보다는 모델에 거의 의존하지 않는다는 생각입니다. 이는 완전히 다른 접근 방식입니다.

샘플을 보내주실 수 있나요? 우리는 모델 학습이 제대로 이루어지지 않는다는 문제에 대해 같은 시각을 가지고 있으며, 귀하의 선택 방법이 저의 선택 방법보다 얼마나 더 나은지, 그리고 귀하의 샘플에 전혀 맞는지 비교하고 싶습니다.

[삭제]  
로그로스 대신 대체할 수 있는 것은 무엇인가요?
 
Aleksey Nikolayev #:

네, 그게 까다로운 부분입니다. 기울기와 두 번째 도함수의 행렬인 헤시안 행렬을 계산해야 합니다. 헤시안도 양의 정적이어야 합니다.

예를 들어 이익을 위해 헤시안은 (0과 같음)과 같이 퇴화됩니다. 손실 함수를 어떻게든 필요와 필요 사이의 합리적인 타협점으로 조정할 필요가 있습니다.

여기서 제가 알기로는 헤시안은 전혀 고려되지 않습니다.

#  Custom objective function (squared error)
myobjective <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  grad <- (preds-labels)    
  hess <- rep(1, length(labels))                
  return(list(grad = grad, hess = hess))
}

#  Custom Metric
evalerror <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  err <- (preds-labels)^2        
  return(list(metric = "MyError", value = mean(err)))   
}

단지 그라데이션을 줄이기 위해 작동합니다.

grad <- (preds-labels)   


이건 다릅니다.

logregobj <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  preds <- 1 / (1 + exp(-preds))
  grad <- preds - labels
  hess <- preds * (1 - preds)
  return(list(grad = grad, hess = hess))
}


고민이 많아서 포기했던 기억이 납니다.

하지만 체력을 단련할 수 있어서 좋았어요.)
 
СанСаныч Фоменко #:

하지만 실제로는 최적이 필요한 것이 아니라,더 광범위할수록 더 좋고 수익성이 높을수록 더 좋은 정체기가 필요합니다. 그리고 극단은 항상 불안정한 상태이며, 따라서

그리고 "얼마나 많은 고원/고원이 아닌지"를 평가하는함수는 최대값을 찾는 것이 아닙니다.

그리고 "수익성이 높을수록 좋다"를 평가하는 함수는 최대값 검색이 아닌가요 ?

그리고 " 더 광범위할수록 좋다"를 평가하는 함수는 최대 검색이 아닌가요?

그리고 "정상/불안정 상태"를 평가하는 함수는 최대 검색이 아닌가요?

아니면 거기에도 고원이 필요합니까? )))) 그럼 포인트 1을 참조하십시오 ))))

오,이 불경 한 사람들 ...



산산 리치 포멘코 #:

저는 여기서 미래의 수익의 지속 가능성은 예측자의 속성에 달려 있고 모델에는 거의 영향을 미치지 않으며 최적화 알고리즘에는 훨씬 덜 영향을 미친다는 아이디어를 추진하고 있습니다. 즉, 완전히 다른 접근 방식입니다.

아이디어를 밀어붙이지 말고 증명하거나 최소한 정당화해야 합니다....

여기에 Mashka가 최고라는 아이디어를 밀어 붙이는 사람이 있었는데,이 밀어 붙이는 것의 용도는 무엇입니까??????

[삭제]  
더 멋진 것은 누락된 본문을 포함하고 칩과 태그 사이의 수익 요소를 어떤 관계로 설명할 수 있는지 생각하는 것입니다. 거의 없음 🤤
 
СанСаныч Фоменко #:

1. 성을 기억해 두겠습니다. 제가 아는 성을 가진 사람은 당신뿐이거든요.

2. 나는 우리가 부조리한 아이디어를 가져 오지 말아야한다는 것에 반대하고 싶지만 실제로는 동일합니다. 우리는 최적이 필요하지 않습니다. 우리는 더 광범위할수록 더 좋고 더 수익성이 높을수록 더 나은 고원이 필요합니다. 그리고 극단은 항상 불안정한 상태이지만 우리는 안정적인 상태가 필요하며 미래에는 안정된 상태가 필요합니다. 따라서 최적을 찾는 것은 해로운 직업이라는 것이 밝혀졌습니다.

여기서 저는 미래 수익의 안정성은 예측 변수의 속성에 달려 있으며 모델에 거의 의존하지 않고 최적화 알고리즘에 더 적게 의존한다는 생각을 추진하고 있습니다. 이는 완전히 다른 접근 방식입니다.

1. v

2. 다음은 가상의 학습 함수의 곡선과 같은 그림입니다.

그리드가 국부 극한점 1에서 멈출까요? 아니면 2에서 멈출까요? 아니면 중간처럼 3에서 멈출까요? 따라서 얼마나 많은 국부 극한점이 있는지 미리 알 수 없으며 100500 또는 그 이상이있을 수 있습니다. 그렇기 때문에 알고리즘이 도달할 수 있는 모든 로컬 극한값 중 가장 높은 극한값을 찾는 것이 중요합니다.

 
Maxim Dmitrievsky #:
로그 로스를 대체할 수 있는 것은 무엇인가요?

저에게 질문이 있다면 수익 또는 이와 유사한 합리적인 유사 개념입니다. 수익 - 지금은 (close[i] - open[i])*prognos[i]의 합으로 하고, 여기서 prognos[i]는 캔들 색상에 대한 예측값이며 1 또는 -1입니다. 좋은 그라데이션과 헤시안 동작을 위해 어떻게든 수정해야 할 수도 있습니다.

[삭제]  
Aleksey Nikolayev #:

저에게 질문이 있다면 수익 또는 이와 유사한 합리적인 아날로그입니다. 수익 - 지금은 (close[i] - open[i])*prognos[i]의 합으로 하고, 여기서 prognos[i]는 캔들 색상에 대한 예측값이며 1 또는 -1입니다. 좋은 그라데이션과 헤시안 동작을 위해 어떤 식으로든 수정해야 할 수도 있습니다.

유전학에서는 변수를 취하고 기준에 따라 변수를 최대화합니다. 여기서는 분류 때문에 그렇게 할 수 없습니다. 수익과 클래스 레이블 사이에는 아무런 관계가 없습니다. 기껏해야 아무것도 얻을 수 없습니다. 그렇기 때문에 이러한 기준이 eval_metrics에 배치됩니다.