트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3307

 
Aleksey Vyazmikin #:

아무도 이러한 테스트를 실행할 생각을 하지 않았나요?

이러한 테스트가 항상 존재했다고 가정하는 이유는 무엇일까요? 모든 통계적 테스트의 대부분은 이론가가 탄생한 20세기에 들어서야 발명되었고, 가장 중요한 것은 정당화되었습니다. 반면 푸리에 분해는 100년 전에 발명되었습니다.
 
예, 어떤 시대가 지나갔는지) 그들은 어떤 사람들이었는지 - 슈릭, 콜둔, ...)
 
Aleksey Nikolayev #:
예, 어떤 시대가 지나갔는지) 그들은 어떤 사람들이었는지 - 슈릭, 콜둔, ...)

알렉세이 버나 코프, 상인 박사...


하나는 수백의 가치가 있습니다 ...

 
mytarmailS 파라미터를 일치시킨다면 학습되지 않은 모델로 간주할 수 있나요?

결국,"우리가 생각해냈다"라는 문구 자체에는 일종의 사고 과정(반복)이 내포되어 있습니다.

최종 모델은 두뇌 반복인지 컴퓨터 반복인지, 그리고 둘 사이에 차이가 있는지 어떻게 알 수 있을까요?

이 질문은 Prado의 기사를 읽고 나서 생겼습니다.

요점은 모델의 일부 매개 변수를 최적화하는 것에 대해 이야기하는 경우 최적을 1000 회 반복 또는 100 회 반복으로 찾을 수 있다는 것입니다. 반복 횟수에 따라 찾을 확률이 증가합니다.

앞서 찾고자 하는 것의 최대값을 제공하는 추정치를 사용하는 것이 매우 중요하다고 말씀드렸습니다. 잘못된 추정치를 사용하면 커피 찌꺼기를 추측하게 됩니다.

 

알렉세이는 발레라에 대한 이야기를 쓰는 것을 선호하며 더 이상 나아가지 않았습니다. DR 트레이더는 알렉산더와 연락을 취했고, 전자는 의견이 없었기 때문에 후자는 그를 망쳤습니다.

유일한 캐릭터는 마법사였는데, 그는 분명히 무언가를 조금 이해했지만 너무 긴장했고 곧 잡힐 것이라는 사실을 깨달았을 때 도망 쳤습니다.

말하자면, 모든 사람들이 R로 글을 썼기 때문에 R은 마음을 파괴하기 때문에 아무것도 얻지 못했습니다.
 
Aleksey Vyazmikin #:

과잉 학습은 드문 현상을 암기하는 데서 발생합니다. 이러한 현상은 원인과 결과를 설명하는 모델이 없기 때문에 순전히 통계적으로만 분리됩니다.

동시에 손실이 발생한다고 해서 항상 모델이 과학습된 것은 아닙니다.

안드레이 딕 #:

요점은 모델의 일부 매개 변수의 최적화에 대해 이야기하는 경우 1000 회 반복과 100 회 반복에 대해 최적을 찾을 수 있다는 것입니다. 반복 횟수가 증가함에 따라 찾을 확률이 단순히 증가한다는 것입니다.

앞서 찾고자하는 것의 최대 값을 제공하는 그러한 추정치를 사용하는 것이 매우 중요하다고 말씀 드렸습니다. 잘못된 추정치를 사용하면 커피 찌꺼기를 추측하게됩니다.


제 질문의 본질도 이해하지 못하시네요.

 
mytarmailS #:


제 질문의 요점도 이해하지 못하셨군요.

저는 한 가지에 대해, 알렉세이는 다른 것에 대해 이야기하고 있었어요.

제 생각이 액면 그대로 받아들여질 줄은 몰랐어요.

필요한 매개 변수 집합이 모든 변형의 완전한 집합에 존재한다고 상상해보십시오. 이제 반복 횟수에 관계없이이 집합 만 정확하게 찾을 수 있도록 추정이 무엇인지 생각해보십시오. 반복이 증가함에 따라 적합도가 증가하면 잘못 찾은 집합이 아니라 잘못된 추정이 사용되었음을 의미합니다.

 
Andrey Dik #:

저는 한 가지에 대해 이야기하고 있었고 알렉세이는 다른 것에 대해 이야기하고 있었습니다.

그리고 둘 다 잘못된 것에 대해 이야기했습니다.


기사를 읽은 다음 다중 테스트 문제에 대해 읽은 다음 다시 질문합니다.

 
Andrey Dik #:
를 사용하여 반복 횟수에 상관없이 이 세트만 찾을 수 있습니다.

옛 노래!

아무도 이 세트가 필요하지 않습니다. 그리고 테스터의 최적화는 이러한 고유 한 세트를 찾고 있으며 많은 수의 "최적화 자"가 "2 차원 다이어그램"에주의를 기울이지 않고이 단일 매개 변수 세트에 만족하여 세트 세트, 즉 최대 값이 아닌 고원을 찾으려고 시도 할 수 있습니다.

그리고 2 차원 다이어그램에서 창백하거나 흰색 사각형 사이의 녹색 섬처럼 보이는 최적 세트는 오버 트레이닝, 즉 매우 최적이지만 다시는 충족되지 않을 일부 특수성이 제거되었음을 나타내며이를 오버 트레이닝이라고합니다.

 
mytarmailS #:

그리고 둘 다 잘못된 것에 관한 것입니다.

기사를 읽은 다음 다중 테스트 문제를 읽은 다음 다시 질문합니다.

원하는대로 주장하지 않습니다.

사유: