트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 789

 

AUTO ARIMA가 모든 것을 자체적으로 계산한다는 것을 정확히 이해하고 있습니까? 견적만 다운로드하면 됩니다.

여러 사이트에서 ARIMA(0,1,0) 모델을 여기저기서 확인했습니다.

 
아나톨리 자인치코프스키 :

여기에 상황의 그림이 있습니다. 이전에 이 가을 세 막대를 보았다는 사실이 지금 고려한다는 의미는 아닙니다.


멋진 그림, 나는 그것에 대한 예를 들어 줄 것입니다 ...

따라서 예측에 오류가 없다면 하락이 있을 경우 어떻게 마이너스를 얻을 수 있습니까? 반대 기호가 있는 0 막대가 닫힐 때에도 하락이 있을 것임을 여전히 알고 있습니다. 이 그림에 대해 질문이 없기를 바랍니다..... 우리는 창을 무작위로 선택했지만 이 창의 각 막대를 예측하고 따라서 세 번째 막대가 0이고 예측에 큰 차이가 있을 때 우리는 팔다. 그러나 첫 번째 막대의 예측에서 모듈러스의 약간의 차이를 보았을 때 어떤 막대가 크게 증가할지 이미 알고 있습니다. 그냥 오해의 문제입니다. 먼저 제가 당연하다고 생각하는 몇 가지 사항을 생략하여 설명합니다. 두 번째는 경험 부족으로 이해하지 못하는 것입니다. 하지만 질문을 해도 괜찮으니 계속 합시다...

 
마이클 마르쿠카이테스 :

멋진 그림, 나는 그것에 대한 예를 들어 줄 것입니다 ...

따라서 예측에 오류가 없다면 하락이 있을 경우 어떻게 마이너스를 얻을 수 있습니까? 반대 기호가 있는 0 막대가 닫힐 때에도 하락이 있을 것임을 여전히 알고 있습니다. 이 그림에 대해 질문이 없기를 바랍니다..... 우리는 창을 무작위로 선택했지만 이 창의 각 막대를 예측하고 따라서 세 번째 막대가 0이고 예측에 큰 차이가 있을 때 우리는 팔다. 그러나 첫 번째 막대의 예측에서 모듈러스의 약간의 차이를 보았을 때 어떤 막대가 크게 증가할지 이미 알고 있습니다. 그냥 오해의 문제입니다. 먼저 제가 당연하다고 생각하는 몇 가지 사항을 생략하여 설명합니다. 두 번째는 경험 부족으로 이해하지 못하는 것입니다. 하지만 질문을 해도 괜찮으니 계속 합시다...

여기서 핵심은 예측에 오류가 없다는 것입니다. 네, 가을의 이 요소는 정확히 예측에 따라 수익을 내고 있다는 것을 완벽하게 이해합니다. 사실 국회는 무스에 대해 생각하지 않아야합니다. 예측이 있으므로 거래합니다. 새로운 예측이 왔습니다. 우리는 새로운 것을 거래합니다. 그러나 이 모든 것은 100% 예측에서 매우 훌륭하지만 예측이 90%라도 되었을 때 수행할 작업은 오류의 10%가 얼마나 멀리 뒤집힐 수 있기 때문입니다. 거래가 이미 열려 있기 때문에 여기에서 잘못된 예측을 처리하는 방법을 이해해야 합니다.

 

오늘은 집에 늦게 나올 것 같은데 요 몇일동안 글이 너무 길어서 글을 쓰고 싶어졌습니다. 내가 바로 거기에 그것을하고 볼 것입니다. 그러나 먼저 약간의 탈선.

나는 실제로 블로그에 무리의 작성된 부분을 게시하고 링크를 버릴 것입니다. 그러다가 이 글 대신 "머신러닝 분야에서 일하기 위한 지침" 같은 글을 쓰기 시작했습니다. 어쩐지 도시를 돌아다니다가 물이 없으면 할 수 있는 것과 할 수 없는 것에 대한 기본 규칙이 설명되어 있는 대학과 같은 훈련 매뉴얼이 있으면 나쁘지 않을 것이라고 생각했습니다. 글쎄, 그들이 말했듯이 우리는 살고 볼 것입니다. 그리고 이제 긴 게시물의 주제. 그것의 전체 본질은 ...

이번달에 돌파를 해서 완벽하게 볼 수 있고 누군가는 인정하고 누군가는 반박하지만 제가 오랫동안 레셰토프 옵티마이저를 가지고 있었다는 질문을 하는 사람은 없었지만 업로드하면서 좋은 모델을 얻기 시작했습니다 설명과 함께 P의 명령으로 나에게 도킹했고 바로 다음 날 나는 15년 동안 한 번도 본 적이 없는 테스트 결과를 받았습니다. 우리는 그것이 릴과 옵티마이저에 관한 것이 아니라는 것을 알고 있습니다. 비록 그것이 제 역할을 잘하긴 하지만 그것에 관한 것은 아닙니다. 나는 이것이 세계에서 가장 잘 작동하는 유일한 옵티마이저가 아니라는 것을 100% 확신합니다. 당연히 아니지. R의 대부분의 패키지는 그와 마찬가지로 잘 작동합니다. 그래서 문제가 무엇입니까. 왜 많은 결과가 불만족스럽고 기계 학습 분기의 전체 백본이 여전히 검색 중이며 어떤 식 으로든 찾을 수 없습니다. 답은 간단합니다. 모델 준비의 특정 단계에서 실수를 범합니다. 논리적으로, 당신은 하나 또는 다른 술어나 변형을 선택하여 옳은 일을 하고 있다고 생각하지만, 동시에 당신이 옳다고 믿는 작은 실수를 하지만 실제로는 그렇지 않습니다.

그것이 가능한 방법과 하지 않는 방법을 결정하기 위해 회귀에 대해 이야기하기 시작한 이유입니다. 나는 다음과 같은 방식으로 나 자신의 혼란에 빠졌다. 논리적으로 생각해보면. 더 많은 입력이 있고 다항식의 길이가 더 긴 모델은 이러한 모델이 더 똑똑하고 더 모수적이라고 가정하지만 FOS에서 입력이 최소인 모델이 입력이 많은 모델. 이것은 논리적으로 당신이 옳다고 생각할 때와 같은 예이지만 실제로는 당신이 옳지 않은 것으로 판명됩니다.

그러나 기계 학습의 문제는 모델을 얻거나 일종의 초 비밀 변환을 적용하는 방법이 아닙니다. 주요 아킬레스건은 완전히 다르며 예를 들어 설명할 수 있으므로 액세스할 수 있으며 동시에 Maxim의 사진을 산산이 부숴버릴 것입니다.

회귀 또는 분류 모델을 얻기 위한 시스템을 만들었다고 가정합니다. 중요하지 않습니다. 그리고 우리는 디자인 할 때 큰 실수를 한 번도 하지 않았다고 믿습니다. 가정하다.

교육 파일이 있습니다. 최적화를 위해 10번 실행하고 10개 모델을 얻습니다. 그래서 이것은 지금까지 나에게 가장 어려운 질문이었습니다. 재학습되지 않고 재학습되지 않았지만 시장에 적합한 모델을 정확히 선택하는 방법 등 이 질문은 아킬레스건입니다. AI 시스템을 만들고 그 안에서 약간의 실수를 하게 놔두지만 이것이 AI 시스템이 일반 모델을 생성할 수 없다는 것을 의미하지는 않습니다.

AI 시스템의 품질은 전체 최적화 수에 대한 적절한 모델 수와 같은 지표에 의해 결정됩니다. 100개의 최적화 중 하나의 시스템이 적용할 수 있는 모델을 하나만 제공하고 동일한 100개의 최적화 중 두 번째 시스템이 사용 가능한 20개의 모델을 제공한다고 가정해 보겠습니다. 두 번째 시스템이 첫 번째 시스템보다 낫다는 것이 분명해집니다. 동일한 최적화 수를 가진 첫 번째 시스템보다 올바른 모델 수가 더 많기 때문입니다. 예를 들어, 4개 모델의 Reshetov Optimizer(일반적으로 4개 이하로 만듭니다)는 1~2개의 적합한 모델을 제공합니다. 때로는 4개도 충분하지 않습니다. 네, 의심의 여지가 없습니다. 다섯 번째, 여섯 번째 또는 열 번째 최적화에서는 시장에 적합한 모델을 제공할 것입니다. 이제 가장 흥미롭지 만이 모델을 결정하고 찾는 방법은 동일합니다. 방법을 찾았습니다. 나는 이런 일을 한다. 트레이닝 파일을 만들고 4개의 운동을 실행합니다. 다음으로, 이러한 모델을 평가하고 적절한 모델을 정확히 선택합니다. 이를 위해서는 훈련 과정에서 검증 또는 테스트 섹션이 있는 훈련 섹션만 필요합니다. 나는 OOC의 작은 부분을 3-4개의 신호 형태로 남겨두고 마침내 그녀인지 확인한 다음 그녀를 도로에 내보냅니다. 따라서 차량을 준비할 때 가장 중요한 것 중 하나가 모델을 선택하는 문제입니다. 나는 계속할 것이다.

 
forexman77 :

AUTO ARIMA가 모든 것을 자체적으로 계산한다는 것을 정확히 이해하고 있습니까? 견적만 다운로드하면 됩니다.

여러 사이트에서 ARIMA(0,1,0) 모델을 여기저기서 확인했습니다.

auto.arima {forecast}
> y <- dd$OPEN
> auto.arima(y)
Series: y 
ARIMA( 3 , 1 , 5 ) 

Coefficients:
         ar1     ar2      ar3      ma1      ma2     ma3      ma4      ma5
       0.3956    0.4421   - 0.6151   - 0.4159   - 0.4165    0.6288   - 0.0257   - 0.0515
s.e.   0.0904    0.0701    0.0827    0.0905    0.0708    0.0797    0.0105    0.0115

sigma^ 2 estimated as 3.406 e- 06 :   log likelihood= 66279.3
AIC=- 132540.6    AICc=- 132540.6    BIC=- 132473
 

서기관이 글을 쓰고 포럼에 오류가 발생했으므로 다음과 같이 읽습니다. 재작성 방법이 없네요..


 
마이클 마르쿠카이테스 :

오늘은 집에 늦게 나올 것 같은데 요 몇일동안 글이 너무 길어서 글을 쓰고 싶어졌습니다. 내가 바로 거기에 그것을하고 볼 것입니다. 그러나 먼저 약간의 탈선.

나는 실제로 블로그에 무리의 작성된 부분을 게시하고 링크를 버릴 것입니다. 그러다가 이 글 대신 "머신러닝 분야에서 일하기 위한 지침" 같은 글을 쓰기 시작했습니다. 어쩐지 도시를 돌아다니다가 물이 없으면 할 수 있는 것과 할 수 없는 것에 대한 기본 규칙이 설명되어 있는 대학과 같은 훈련 매뉴얼이 있으면 나쁘지 않을 것이라고 생각했습니다. 글쎄, 그들이 말했듯이 우리는 살고 볼 것입니다. 그리고 이제 긴 게시물의 주제. 그것의 전체 본질은 ...

이번달에 돌파를 해서 완벽하게 볼 수 있고 누군가는 인정하고 누군가는 반박하지만 제가 오랫동안 레셰토프 옵티마이저를 가지고 있었다는 질문을 하는 사람은 없었지만 업로드하면서 좋은 모델을 얻기 시작했습니다 설명과 함께 P의 명령으로 나에게 도킹했고 바로 다음 날 나는 15년 동안 한 번도 본 적이 없는 테스트 결과를 받았습니다. 우리는 그것이 릴과 옵티마이저에 관한 것이 아니라는 것을 알고 있습니다. 비록 그것이 제 역할을 잘하긴 하지만 그것에 관한 것은 아닙니다. 나는 이것이 세계에서 가장 잘 작동하는 유일한 옵티마이저가 아니라는 것을 100% 확신합니다. 당연히 아니지. R의 대부분의 패키지는 그와 마찬가지로 잘 작동합니다. 그래서 문제가 무엇입니까. 왜 많은 결과가 불만족스럽고 기계 학습 분기의 전체 백본이 여전히 검색 중이며 어떤 식 으로든 찾을 수 없습니다. 답은 간단합니다. 모델 준비의 특정 단계에서 실수를 범합니다. 논리적으로, 당신은 하나 또는 다른 술어나 변형을 선택하여 옳은 일을 하고 있다고 생각하지만, 동시에 당신이 옳다고 믿는 작은 실수를 하지만 실제로는 그렇지 않습니다.

그것이 가능한 방법과 하지 않는 방법을 결정하기 위해 회귀에 대해 이야기하기 시작한 이유입니다. 나는 다음과 같은 방식으로 나 자신의 혼란에 빠졌다. 논리적으로 생각해보면. 더 많은 입력이 있고 다항식의 길이가 더 긴 모델은 이러한 모델이 더 똑똑하고 더 모수적이라고 가정하지만 FOS에서 입력이 최소인 모델이 입력이 많은 모델. 이것은 논리적으로 당신이 옳다고 생각할 때와 같은 예이지만 실제로는 당신이 옳지 않은 것으로 판명됩니다.

그러나 기계 학습의 문제는 모델을 얻거나 일종의 초 비밀 변환을 적용하는 방법이 아닙니다. 주요 아킬레스건은 완전히 다르며 예를 들어 설명할 수 있으므로 액세스할 수 있으며 동시에 Maxim의 사진을 산산이 부숴버릴 것입니다.

회귀 또는 분류 모델을 얻기 위한 시스템을 만들었다고 가정합니다. 중요하지 않습니다. 그리고 우리는 디자인할 때 큰 실수를 한 번도 하지 않았다고 믿습니다. 가정하다.

교육 파일이 있습니다. 최적화를 위해 10번 실행하고 10개 모델을 얻습니다. 그래서 이것은 지금까지 나에게 가장 어려운 질문이었습니다. 재학습되지 않고 재학습되지 않았지만 시장에 적합한 모델을 정확히 선택하는 방법 등 이 질문은 아킬레스건입니다. AI 시스템을 만들고 그 안에서 약간의 실수를 하게 놔두지만 이것이 AI 시스템이 일반 모델을 생성할 수 없다는 것을 의미하지는 않습니다.

AI 시스템의 품질은 전체 최적화 수에 대한 적절한 모델 수와 같은 지표에 의해 결정됩니다. 100개의 최적화 중 하나의 시스템이 적용할 수 있는 모델을 하나만 제공하고 동일한 100개의 최적화 중 두 번째 시스템이 사용 가능한 20개의 모델을 제공한다고 가정해 보겠습니다. 두 번째 시스템이 첫 번째 시스템보다 낫다는 것이 분명해집니다. 동일한 최적화 수를 가진 첫 번째 시스템보다 올바른 모델 수가 더 많기 때문입니다. 예를 들어, 4개 모델의 Reshetov Optimizer(일반적으로 4개 이하로 만듭니다)는 1~2개의 적합한 모델을 제공합니다. 때로는 4개도 충분하지 않습니다. 네, 의심의 여지가 없습니다. 다섯 번째, 여섯 번째 또는 열 번째 최적화에서는 시장에 적합한 모델을 제공할 것입니다. 이제 가장 흥미롭지 만이 모델을 결정하고 찾는 방법은 동일합니다. 방법을 찾았습니다. 나는 이런 일을 한다. 트레이닝 파일을 만들고 4개의 운동을 실행합니다. 다음으로, 이러한 모델을 평가하고 적절한 모델을 정확히 선택합니다. 이를 위해서는 훈련 과정에서 검증 또는 테스트 섹션이 있는 훈련 섹션만 필요합니다. 나는 OOC의 작은 부분을 3-4개의 신호 형태로 남겨두고 마침내 그녀인지 확인한 다음 그녀를 도로에 내보냅니다. 따라서 차량을 준비할 때 가장 중요한 것 중 하나가 모델을 선택하는 문제입니다. 나는 계속할 것이다.

이 미친 헛소리는 더 이상 읽을 수 없어 넌 날 끝내버렸어

나머지 캡틴은 명확하고 헌병은 명확합니다.

덤프)

 
막심 드미트리예프스키 :

이 미친 헛소리는 더 이상 읽을 수 없어 넌 날 끝내버렸어

나머지 캡틴은 명확하고 헌병은 명확합니다.

덤프)

그는 또한 쿵쾅거리며 2박을 자지 못했다고 썼다. 나는 "말하기"에 끌렸다))

마이클 마르쿠카이테스 :
일반적으로 Michael은 밤에 잠을 자야합니다.

 
막심 드미트리예프스키 :

이 미친 헛소리는 더 이상 읽을 수 없어 넌 날 끝내버렸어

나머지 캡틴은 명확하고 헌병은 명확합니다.

덤프)

Max는 확실히 성배 를 팠습니다))

 
막심 드미트리예프스키 :

주제는 이성의 한계를 넘어섰습니다. 누군가는 오랫동안 골화되어 재교육과 "가방"에 집착해 왔습니다.

그는 모스크바 지역에서 다운되었을 때 누군가가 남아있었습니다.

테마는 어디선가 나온 것이 아니라 "흐리게" 표시되어 있습니다. 정상적인 중재가 없습니다. 내 지점보다 더 나쁜 일종의 힙.

단, 성배 를 가진 사람이 나타날 때까지 기다려야 합니다.

우리는 기다립니다.

사유: