트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2594

 
mytarmailS # :
다시 신성한 비판
이마에 있는 것, 이마에 있는 것
논리를 켜다
 
막심 드미트리예프스키 # :
이마에 있는 것, 이마에 있는 것
논리를 켜다
당신은이 vyser가 아니라 세부적으로 생각을 표명했습니다. 작동하지 않기 때문에 작동하지 않습니다.
 
mytarmailS # :
당신은이 vyser가 아니라 세부적으로 생각을 표명했습니다. 작동하지 않기 때문에 작동합니다.
환상조차 완전히 부재한 것은 분명하다. OP는 모델 옵션의 전체 공간을 다루지 않으며 그녀가 최적화한 것을 선택하고 최상의 옵션으로 스스로 결정했습니다. 간단히 말해서 공장에 가십시오. 당신은 당신이 어떤 일을 하고 있는지 거의 이해하지 못하더라도 어떤 일을 맡습니다. 그리고 OP를 높이는 경우에는 반복할 때마다 매개변수의 수가 증가하기 때문에 구성이 불가능합니다. 그리고 당신은 물론 정규화에 대해 들어 본 적이 없습니다. 모든 사람들은 그가 일부 봉우리를 질적으로 제거 할 수 있다고 생각합니다.
 
막심 드미트리예프스키 # :
환상조차 완전히 부재한 것은 분명하다. OP는 모델 옵션의 전체 공간을 다루지 않으며 그녀가 최적화한 것을 선택하고 최상의 옵션으로 스스로 결정했습니다. 간단히 말해서 공장에 가십시오. 당신은 당신이 어떤 일을 하고 있는지 거의 이해하지 못하더라도 어떤 일을 맡습니다. 그리고 OP를 높이는 경우에는 반복할 때마다 매개변수의 수가 증가하기 때문에 구성이 불가능합니다.
흠...
Alexey는 즉시 이것을 수행하는 방법을 이해했습니다.
10회부터는 불명..이름을 지어라)
 
mytarmailS # :
흠...
Aleksey는 즉시 어떻게 할 수 있는지 이해했습니다 ..
10회부터는 불명..이름을 지어라)
바보에서. 하기는 쉽지만 무의미합니다. 좋아, 당신의 늪으로 수입) 결과적으로, 당신은 순간에 재훈련하지 않는 베이지안 MO에 왔습니다.
 
거래에서 ML 사용에 대한 더 흥미로운 질문이 있습니다. 예를 들어 훈련에 사용할 기록 기간을 결정하는 알고리즘입니다. 아마도 교차 검증에 의해 최적화된 일부 메타 매개변수에 의해 설정될 수 있습니다. 프라도를 읽어야지
 
Alexey Nikolaev # :
거래에서 ML 사용에 대한 더 흥미로운 질문이 있습니다. 예를 들어 훈련에 사용할 기록 기간을 결정하는 알고리즘입니다. 아마도 교차 검증에 의해 최적화된 일부 메타 매개변수에 의해 설정될 수 있습니다. 프라도를 읽어야지

나는 데이터가 많을수록 좋다는 것을 쓰고 싶었고, 나는 나의 작은 실험 중 하나를 기억했습니다(그러나 그것은 충분한 대표성 없이 만들어졌기 때문에 결과는 무작위일 수 있지만 여전히). 즉: 2개의 시장이 있습니다. 제 주관적인 추정에 따르면 1은 더 효율적이고 두 번째는 더 적습니다. 더 효율적인 시장에서 훈련된 모델은 동일한 영역에서 덜 효율적인 시장에서 훈련된 모델보다 OOS에서 이 시장에서 더 나쁜 결과를 제공했습니다.

 
종종 모델은 기차의 크기에 관계없이 한 순간에 작동을 멈춥니다. 길이가 다른 샘플에 대해 훈련을 받은 모든 샘플은 과거 역사의 특정 시점에서 작동을 멈췄습니다. 이를 통해 일부 규칙성이 사라지거나 변경됨이 분명합니다.

그리고 그 장소를 커버하는 기차를 늘리면 모델은 소음에 대해 학습할 수 있고 일반적으로 미래에는 전혀 작동하지 않습니다. 기차를 거대한 크기로 키우는 것도 악이다.

따라서 모델이 작동하는 섹션의 길이를 찾은 다음 완전히 학습하면 얼마 동안 성능이 약간 향상됩니다.
 
막심 드미트리예프스키 # :
종종 모델은 기차의 크기에 관계없이 한 순간에 작동을 멈춥니다. 길이가 다른 샘플에 대해 훈련을 받은 모든 샘플은 과거 역사의 특정 시점에서 작동을 멈췄습니다. 이를 통해 일부 규칙성이 사라지거나 변경됨이 분명합니다.

그런 다음 가능한 한 가장 짧은 섹션에서 훈련해야한다는 것이 밝혀졌습니다. 패턴을 변경한 후 새 모델이 더 빨리 작동하기 시작합니다.

예를 들어 훈련이 12개월 동안이라면 6개월 후에 패턴을 변경한 후 새 패턴과 이전 패턴은 50/50이 됩니다. 그리고 약 1년 안에 새로운 패턴에 대한 훈련과 거래가 있을 것입니다. 저것들. 거의 1년 동안 모델은 구식 패턴으로 거래되었으며 대부분 병합되었습니다.

한 달 동안 훈련하면 한 달 안에 모델이 다시 올바르게 작동하는 법을 배웁니다.

1주일이면 공부하면 좋겠지만.. 데이터가 이미 부족합니다.

 
막심 드미트리예프스키 # :
종종 모델은 기차의 크기에 관계없이 한 순간에 작동을 멈춥니다. 길이가 다른 샘플에 대해 훈련을 받은 모든 샘플은 과거 역사의 특정 시점에서 작동을 멈췄습니다. 이를 통해 일부 규칙성이 사라지거나 변경됨이 분명합니다.

그리고 그 장소를 커버하는 기차를 늘리면 모델은 소음에 대해 학습할 수 있고 일반적으로 미래에는 전혀 작동하지 않을 수 있습니다. 기차를 거대한 크기로 확대하는 것도 악이다.

따라서 모델이 작동하는 섹션의 길이를 찾은 다음 완전히 학습하면 얼마 동안 성능이 약간 향상됩니다.

소음에 대해서는 그렇습니다. 소음이 있는 부분과 없는 부분의 역사를 구분하는 관점에서 생각하지는 않았지만. 그런데 모델을 훈련시키기 전에 이것을 어떻게 이해해야 할까요? 반복적으로? 전체 섹션에 대해 교육하고 가장 잘 수행되는 부분을 살펴보고 이 섹션만 남겨두고 처음에는 이 섹션에서만 훈련했습니까? 실험적 확인 전에 철학적이라고 부를 수 있는 두 번째 질문이 발생합니다. 잡음이 있지만 더 잡음이 많은 데이터에 대해 평균적으로 훈련하거나 더 깨끗한 데이터에 대해 훈련하지만 조건부로 잡음이 있는 데이터는 볼 수 없습니다.


거인인게 무슨 문제야? 계산 시간을 늘리는 것 외에도?