트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 694

 

글이 길었는데 모더레이터가 자제를 못해서 삭제하고 전형적인 러시아식으로 제 심정을 표현했습니다.... 그래서 짧게 씁니다....

나는 내가 얻은 결과에서 정직하게 Ouel입니다. 네, 110개의 입력 중 3에서 5까지 다른 상황에서 선택되었고, 그에 따라 상당히 작은 모델로 밝혀졌습니다. 첫째, 선택한 입력을 기반으로 구축된 모든 모델이 내 테스트를 100% 통과했습니다. 그런 결과를 한 번만 얻을 수 있었고 우연히도 여기에서 모든 것이 안정적입니다 ........

예, 다항식 자체가 너무 작은 것으로 판명되었지만 차이점은 무엇입니까? 전쟁에서는 모든 수단이 좋습니다. 우리는 확실히 작은 다항식에서 시장을 공략할 것입니다. 그들이 작동한다면 내 잘못이 아닙니다......

그러나 이것은 모두 급한 일이며 이론을 확인하는 데 더 많은 시간이 필요합니다. 그러나 여기에 지난 2주 동안 환경 보호 현장에서 차량이 작업한 좋은 예가 있습니다.

물론 이것은 다음 스레드에서 논의되는 성배가 아니지만 결과는 최고 수준입니다. Equity는 전체 OOC 사이트에서 일관되게 0보다 높습니다!!!!

R에 대한 도움 요청에 응답해 주신 모든 분들께 감사하다는 말을 전하고 싶습니다. 많은 시간을 절약할 수 있도록 도와주셔서 정말 감사합니다. 이제 신호를 그린존으로 이동하는 일만 남았습니다!!!!!

 
박사 상인 :

예를 들어, jPrediction은 데이터를 간격 [-1; 1]로 확장하고 이 숫자에 대해 이미 훈련되어 있습니다. R에서 입력을 평가하기 전에 동일한 간격으로 확장하는 것도 가능합니다.

트리 기반 추정 방법은 아마도 결과를 변경하지 않을 것입니다. 데이터가 들어온 간격의 숲에 대해서는 그다지 중요하지 않지만 확인하는 것이 좋습니다. vtreat는 간격에 대해서도 까다롭지 않습니다.


그러나 일반적으로 그는 입력이 뉴런에 입력되기 전에도 입력의 비선형 변환에 대해 이야기합니다. 뉴런은 입력에 매우 민감하며 입력 데이터를 특별한 방식으로 어떻게든 처리하면 결과가 향상될 수 있습니다. 예를 들어, Sigmoid를 통해 입력을 변환하는 그런 트릭을 들었습니다.

내가 틀리지 않는다면 빌드된 모델에는 이미 그러한 기능이 있습니다. 그녀는 이렇게 생겼습니다....

 double sigmoid( double x) {
   if ( MathAbs (x) < 1.0 ) {
       return 2.0 * signum(x) - x;
   }
   return signum(x);
}
 
마이클 마르쿠카이테스 :

그녀는 이렇게 생겼습니다....

특별한 "Sigmoid Reshetov" :)

다음은 다양한 데이터 변환에 대한 흥미로운 그림입니다.
모든 예측 변수의 막대가 거의 같으면 뉴런이 매우 만족하고 쉽게 학습할 수 있다고 말합니다. scale()x2->Sigmoid()에 있는 예측자의 마지막 3분의 1은 꽤 괜찮아 보이지만 예측자의 전반부에 대해 무언가를 수행해야 합니다. 그렇지 않으면 뉴런이 질식합니다.
그리고 jPrediction에서와 같이 [-1; 1]의 스케일링에 대한 boxplot을 보면 어떻게 든 전혀 좋지 않습니다.


파일:
 

오늘은 성배의 날이지만 우리는 그것이 어떻게 생겼는지, 그것을 우리 손에 쥐기 위해 얼마나 많은 노력이 필요한지 압니다!!!!

이 단어가 두렵지 않지만 오늘 나는 나 자신을 위한 성배를 찾았다. 나는 여러 테스트를 수행했고 결과는 놀랍습니다. 박사님께 특별히 감사드립니다. 실제로 오프닝으로 이어진 지원에 대한 상인 . 이 단어가 두렵지 않아........... R의 도움으로 변수 예측변수의 집합을 효과적으로 찾을 수 있었고 목표가 같은 클래스의 클래스를 가지고 있다는 것을 감안할 때 그것을 재생함으로써 약간(하나를 추가하거나 제거하여), 중요한 예측 변수 세트를 하나, 두 개의 열로 확장할 수 있습니다. 나는 그것을 한 번 시도했고 그것들을 추가하는 것이 너무 정상적이었습니다. 다음으로 최적화를 시작하고 학습 결과가 최대인 모델을 선택합니다.


물론 헷갈리는 것은 다항식의 큰 크기가 아니지만, 이론상으로는 훈련 간격의 50%, 즉 1주일 동안은 작동할 것이고 나에게는 충분하다!!!!!! 하지만 여기에 문제가 있습니다. 그리고 지금 저는 여기에서 안정적이고 안정적인 패턴을 찾는 사람들에게 말하고 있습니다. 예를 들어 설명하면 쉽죠....

1000개의 행과 111개의 열이 있는 데이터 테이블을 유지합니다. 여기에는 110개의 예측 변수와 그에 따른 출력이 있습니다. 그러나 나는 전체 테이블을 가져오지 않고 40개 레코드의 작은 새 섹션을 가져옵니다.(이것은 약 2주 동안의 TS 작업입니다.) 결과적으로 크기 40 x 110 더하기 대상 하나의 훈련 세트가 있습니다. 사실, 나는 이 특정한 날에 이 간격으로 시장의 한 조각을 가져갑니다. 이 슬라이스는 고정되어 있습니다. 또한 그의 공예의 뛰어난 천재인 Mr. Dr. R 프로그래밍 환경의 거래자, 나는 출력과 관련하여 중요한 입력 변수를 선택하고 3~5개의 열을 얻습니다. 이 열에는 다른 시장 참가자보다 유리하게 작용하는 악명 높은 알파가 있습니다. 그리고 지금 가장 중요한 것은 .... 왜 이 전체 바자회가 실제로 있었는지. 훈련을 위해 데이터 테이블에 다른 행을 추가하자마자 열 집합이 크게 변경됩니다. 즉, 알파가 다른 열 집합으로 이동합니다. 즉시는 아니지만 한 줄도 추가하지 않고 여러 줄을 추가한 후일 수도 있습니다. 토비시 TC 시그널!!!! 알파는 목적 함수에 대해 최소이고 충분한 순수한 형태의 동일한 규칙성입니다. 그러나 이 패턴은 명시적이지 않습니다. 즉, 육안으로 보기가 매우 어렵습니다. 이 단계에서 AI가 연결되어 역할을 수행합니다.

이제 알파가 5개 이상의 입력에 거의 포함되지 않고 전체 필드가 110개 입력인 경우 내가 언로드하는 전체 데이터 필드에서 어떻게 알파가 점프할 수 있는지 상상해 보십시오. 다시 말해, 각각의 새로운 조각에 대해 완전히 다른 예측 변수 집합을 얻습니다. 그리고 몇 년이 지난 후에도 그녀를 따라잡고 싶습니까?!!!!!! 몇 주 동안 여기에 있으면 정상적으로 잡을 수 있을 것입니다 ....... 하지만 당신이 절대적으로 옳습니다 The Grail은 존재하며 모든 사람에게만 자신의 것이 있으며 함께 유지하려면 작은 노력이 필요합니다. ......

그리고 다시, 데모 계정의 이론가를 참조하면 이것이 수행되는 방법입니다 .......

나는 이론을 풀고 그것에 대해 몇 가지 테스트를 했다. 테스트는 좋은 결과를 보여주었습니다. 모델은 로봇이 충전된 상태에서 VPS-ka에 의해 훈련됩니다. 이번 주에 내 신호를 따르면 내 가정의 가치를 즉시 알 수 있습니다.

 

놀라운!

영광 R!

 
마이클 마르쿠카이테스 :

이제 알파가 5개 이상의 입력에 거의 포함되지 않고 전체 필드가 110개 입력인 경우 내가 언로드하는 전체 데이터 필드에서 어떻게 알파가 점프할 수 있는지 상상해 보십시오. 다시 말해, 각각의 새로운 조각에 대해 완전히 다른 예측 변수 집합을 얻습니다.

이제 두뇌를 켜십시오.

 
결합기 :

이제 두뇌를 켜십시오.

당신이 정말로 당신의 조언을 따르고 그것에 대해 생각한다면, 지금까지 단 하나의 대답만이 제안됩니다. 슬라이스는 고정되어 있으며 그 안에 있는 모든 변경 사항은 완전히 다른 법칙이 작동하는 다른 차원(비유적으로 말함)으로 당신을 던집니다. 그래서 시장에서 돈을 버는 것이 매우 어렵습니다. 이것을 비정상성이라고도 합니다. 예측할 수 있는 정보가 가능한 최대 데이터 세트의 5%에 불과하고 다음 신호에서 세트가 근본적으로 변경되거나 전혀 변경되지 않을 때. 또한 11개의 악기에 대한 델타와 볼륨을 저장합니다. 이 중 5%만 현재 여기에서 작동하며 언제 변경될지 모르지만 다른 컬럼으로 교체가 시작되면 이 순간을 추적할 수 있음도 분명합니다. 그리고 그에 따라 모델이 날아가는 순간을 결정합니다.... 우리는 더 많은 테스트를 해야 합니다 ..... 그리고 시간이 없습니다 ...

 

OOS, 15분 tf

전략 번호 2에서 결함을 발견하고 수정했습니다. 작동하는 것 같습니다.

p.3 남아있고 RL이 추가된 부분에서 큰 가능성을 느끼긴 하지만 구현에 대해서는 많이 고민해야 할 것 같습니다.


 

8가지 기계 학습 모델 연구에 대한 흥미로운 기사

특히, 우리는 다층 퍼셉트론(MLP), 로지스틱 회귀, 나이브 베이즈, 가장 가까운 이웃, 결정 트리, 랜덤 포레스트, 그래디언트 부스팅 트리와 같은 알고리즘을 고려합니다. 이러한 모델은 서로 다른 선형 및 비선형 종속성을 반영하는 8개의 DGP(데이터 생성 프로세스)의 시계열에 적용됩니다(기본 사례). 불연속성과 다양한 노이즈 수준을 추가하면 복잡성이 추가됩니다.


그리고 여기 결과가 있습니다

먼저, 최적의 예측에 의해 설정된 목표 수준과 비교하여 알려지지 않은 기본 DGP에서 견고한 성능을 달성하는 기계 학습 모델을 찾습니다. 노이즈가 없는 경우(기본 사례), 기계 학습 모델로 얻은 결과는 최적 예측의 결과와 거의 유사합니다. 모델 측면에서 MLP 및 GBT는 선형 및 비선형 DGP 모두에 대해 최상의 결과를 제공합니다. 비선형성이 없거나 작은 프로세스의 경우 LR은 특히 낮은 계산 비용을 고려할 때 좋은 대안을 제시합니다. NB 및 단일 결정 트리가 더 나쁜 성능을 제공하므로 시계열 예측 작업에 앞서 언급한 기술을 권장합니다.

 

둘째, 너무 적게 포함하는 것보다 특징 공간에 너무 많은 지연 값을 포함하는 것이 좋습니다. 우리는 대부분의 기계 학습 모델이 DGP의 프로세스 방정식에서 제안한 필요한 지연 수를 초과하는 데 상당히 견고하다는 것을 발견했습니다. RF의 경우 추가 기능을 포함하면 예측 정확도도 높아집니다. 하나의 지연으로 시작하여 홀드아웃 세트 또는 교차 유효성 검사에서 성능을 모니터링하는 지연 수를 점차 늘리는 것이 좋습니다.

 

셋째, 점프는 가장 강력한 기계 학습 모델인 LR과 함께 예측 정확도에 매우 강한 부정적인 영향을 미치는 것으로 나타났습니다. 부정적인 영향을 완화하기 위해 기능 공간(DIFF)에 첫 번째 차이점을 추가하고 LOF 알고리즘을 기반으로 점프를 제거하는 모두 좋은 결과를 보여주었습니다. 두 기술의 조합을 권장합니다.

 

넷째, 시계열을 노이즈로 오염시키는 것은 모든 기계 학습 모델에서 예측 정확도에 가장 해로운 영향을 미칩니다. 다시 말하지만, LR은 노이즈가 있는 경우 가장 강력한 기계 학습 모델입니다. 또한, 피쳐 공간에 1차 차분(DIFF) 및 이동 평균(MA)을 포함하는 것과 같은 추가 완화 조치로 결과가 개선되었습니다.

 
산산이치 포멘코 :

8가지 기계 학습 모델 연구에 대한 흥미로운 기사

모델 측면에서 MLP 및 GBT는 선형 및 비선형 DGP 모두에 대해 최상의 결과를 제공합니다. 비선형성이 없거나 작은 프로세스의 경우 LR은 특히 낮은 계산 비용을 고려할 때 좋은 대안을 제시합니다. NB 및 단일 결정 트리가 더 나쁜 성능을 제공 하므로 시계열 예측 작업에 앞서 언급한 기술을 권장합니다.

CART가 사전 선형 작업에서 전혀 작동하지 않는다는 사실을 감안할 때 직선 캡틴이 분명합니다.

사유: