트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 496

 
박사 상인 :

숲이 외삽할 수 있습니까? 네.
그는 그것을 잘합니까? 아니요.


무엇이 좋고 무엇이 나쁜가?

다른 모델에 대한 비교 분석이 있습니까? 그리고 맨 처음부터: 특정 예측 변수의 적합성에서 특정 대상에 대한 적합성, 특정 예측 변수 집합의 특정 모델에 대한 적합성, 교육 파일 외부의 파일에 대한 필수 실행을 통한 평가? 모델이 재교육되지 않는다는 정당화와 함께.


이 모든 것이 있으면 특정 예측 변수 및 대상 집합에 대해 무엇이 좋고 무엇이 나쁜지 판단하는 것이 가능합니다. 동시에 다른 예측 변수 집합과 다른 결과를 제공할 대상 예측 변수 집합이 있을 가능성이 높다는 것을 이해해야 합니다.


제 경우에는 그런 일을 했습니다. 결과는 이 스레드에 여러 번 게시되었습니다. 악화되는 모델의 순서: ada, rf, SVM. 무엇보다 최악의 것은 국회지만, 일부 고대 버전, 현대 국회는 그것을 사용하지 않았습니다. 이는 모두 위의 조건을 따릅니다.

 
박사 상인 :

다음은 흥미로운 예입니다. 이것은 한 번 toxic에서 이 스레드에 게시했습니다.
이 경우 외삽은 "알려진 점의 구름" 밖의 예측이 됩니다.

알려진 점이 잘 클러스터되면 외삽이 대부분의 모델에 문제를 일으키지 않는다는 것이 분명합니다.
그러나 알려진 포인트가 명백한 클러스터 없이 더 무작위로 위치한다면 예측 자체가 더 나빠질 것이고 외삽은 신뢰할 수 없을 것입니다.

예측자에 관한 모든 것입니다. 모델에 쓰레기를 집어넣는다면 실제로 좋은 외삽법이 없을 것입니다.
특히 외환의 경우 이상적인 예측 변수를 찾을 수 없을 것이므로 재무 데이터에 대한 외삽을 거래하지 않습니다.


외삽은 알려지지 않은 포인트에 대한 예측입니다. 포인트가 훈련 샘플의 최대값과 최소값을 넘어서면 RF는 항상 출력에서 훈련된 샘플의 최대값과 최소값을 출력합니다.

그리고 당신은 MB의 근사치와 혼동합니까?

 
박사 상인 :

다음은 흥미로운 예입니다. 이것은 한 번 toxic에서 이 스레드에 게시했습니다.
이 경우 외삽은 "알려진 점의 구름" 밖의 예측이 됩니다.

알려진 점이 잘 클러스터되면 외삽이 대부분의 모델에 문제를 일으키지 않는다는 것이 분명합니다.
그러나 알려진 포인트가 명백한 클러스터 없이 더 무작위로 위치한다면 예측 자체가 더 나빠질 것이고 외삽은 신뢰할 수 없을 것입니다.

예측자에 관한 모든 것입니다. 모델에 쓰레기를 집어넣는다면 실제로 좋은 외삽법이 없을 것입니다.
특히 외환의 경우 이상적인 예측 변수를 찾을 수 없을 것이므로 재무 데이터에 대한 외삽을 거래하지 않습니다.


통계에 대한 신뢰 문제는 일반적으로 철학적입니다. 항상 구체적이어야 합니다.

다음은 분류입니다.

"외삽"이라는 개념이 여기에 적용됩니까? 나를 위해 - 아니. 분류는 패턴을 찾은 다음 이러한 패턴에 따라 새 데이터를 분산하려고 합니다.


분석 형식에 일부 기능이 있는 분석 모델의 외삽.


그리고 아리마? 그것은 외삽합니까? 무엇을보고. 패턴 자체에는 일반적으로 한 번에 하나씩 몇 개의 마지막 막대가 필요합니다. 그러나 매개변수를 선택하려면 수천 개의 막대가 필요합니다. 이 천은 외삽되지만 마지막 계산에 들어간 것은 그렇지 않습니다.


나에게 있어 수학적 이해의 외삽법은 금융 시장에 적용할 수 없습니다.

 
산산이치 포멘코 :

통계에 대한 신뢰의 문제는 일반적으로 철학적입니다. 항상 구체적이어야 합니다.

다음은 분류입니다.

"외삽"이라는 개념이 여기에 적용됩니까? 나를 위해 - 아니. 분류는 패턴을 찾은 다음 이러한 패턴에 따라 새 데이터를 분산하려고 합니다.


분석 형식에 일부 기능이 있는 분석 모델의 외삽.


그리고 아리마? 그것은 외삽합니까? 무엇을보고. 패턴 자체에는 일반적으로 한 번에 하나씩 몇 개의 마지막 막대가 필요합니다. 그러나 매개변수를 선택하려면 수천 개의 막대가 필요합니다. 이 천은 외삽되지만 마지막 계산에 들어간 것은 그렇지 않습니다.


나에게 있어 수학적 이해의 외삽법은 금융 시장에 적용할 수 없습니다.


ML의 외삽은 새로운 데이터에 대해 작업하는 모델의 기능이며 특별한 유형의 근사입니다. 훈련 세트에서, 당신의 모델은 훈련 세트에 포함되지 않은 새로운 데이터에 대해 추정합니다.

따라서 주의 깊게 읽는 XGboost와 비교하여 선형 회귀 의 예가 제공됩니다. 선형 회귀는 완벽하게 외삽하지만 결정 트리와 관련된 모든 것은 결정 트리의 구조로 인해 외삽할 수 없습니다.

 

선형 회귀 는 일반적으로 존재하며 특히 모델의 정규 분포 잔차가 있는 고정 계열에서만 외삽합니다. 이러한 유형의 모델을 금융 시리즈에 유용하지 않게 만드는 응용 프로그램에는 많은 제한이 있습니다.

또는 사람이 자신의 특정 데이터에 대한 모델의 적용 가능성을 탐구하면 다른 모든 경우에는 모델링이 됩니다. 즉, 숫자 게임입니다.

이 스레드의 수많은 게시물은 다른 증거가 제공되지 않기 때문에 숫자 게임입니다.

 
산산이치 포멘코 :

선형 회귀 는 일반적으로 존재하며 특히 모델의 정규 분포 잔차가 있는 고정 계열에서만 외삽합니다. 이러한 유형의 모델을 금융 시리즈에 유용하지 않게 만드는 응용 프로그램에는 많은 제한이 있습니다.

또는 사람이 자신의 특정 데이터에 대한 모델의 적용 가능성을 탐구하면 다른 모든 경우에는 모델링이 됩니다. 즉, 숫자 게임입니다.

이 스레드의 수많은 게시물은 다른 증거가 제공되지 않기 때문에 숫자 게임입니다.


PPC, 선형 회귀는 어디에 있습니까! 문제는 FORESTS를 올바르게 사용하여 STUPID 실수를 하지 않는 방법이었습니다. 예를 들어 그들이 외삽법을 알고 있다고 생각

포리스트에 따옴표 형태의 시계열을 공급하고 따옴표의 최대값과 최소값을 초과하는 새로운 데이터에서 모델은 연구된 최대값과 최소값만 예측합니다. 시리즈, 범위를 벗어나면

 
알료샤 :

어떻게 되어가고 있니 여러분...

KO의 일부 정보:


금융 시장에서는 외삽/보간이 적용 가능하며 수요가 많습니다.


그것이 "적용 가능하고 수요가 많다"면 왜 지난 몇 년 동안 성공적인 차량을 제작해 왔습니까?

추신 나는 들었습니다-고양이가 소리 쳤습니다 ... 정확히 Alyoshka가 다시 무언가를 썼다고 생각합니다!

 
알료샤 :

어떻게 되가고 있니 여러분...

KO의 일부 정보:

ML의 맥락에서 외삽과 보간은 동일합니다! 두 경우 모두 훈련 데이터 세트의 포인트와 일치하지 않는 포인트 의 값(int,float[]) 을 가져와야 합니다. 학습 포인트 클라우드와 관련하여 초공간에서 이 포인트의 위치에 대한 예약은 적절하지 않습니다. 모든 것이 기능, 기능 공간의 구조에 따라 달라지기 때문입니다. 하나의 투영에서 교육 "외부" 포인트가 있을 것입니다 클라우드, 다른 "내부"에서는 이것이 중요하지 않습니다. 의미가 있는 유일한 것은 그것이 학습에 있지 않다는 것입니다.

통합을 위해 요약합니다. 포인트가 교육 데이터 세트에 없는 경우 해당 분류 또는 회귀의 결과는 주제 영역에 의한 결과의 최종 해석에 따라 외삽 및 보간 모두가 될 것이지만 MO 알고리즘의 경우 - THIS 똑같다.

숲은 추정합니다 - 훌륭합니다! 숙련된 손에서는 NS보다 훨씬 낫고 훨씬 빠릅니다.

금융 시장에서는 외삽/보간이 적용 가능하며 수요가 많습니다.


Maxim에 대한 별도의 조언 : 똑똑한 사람은 훨씬 더 많은 테스트를 수행하기 때문에 바보보다 실수를 훨씬 더 자주하지만 바보 만이 자신의 관점에 감정적으로 집착하고 그를 헤어지기 어렵습니다. 당신은 당신 누구인지 선택합니다


좋습니다, 숲이 얼마나 잘 외삽하는지 보여주는 예와 함께 최소한 1개의 기사에 대한 예를 제공하십시오. 나는 아무것도 찾지 못했다

이것은 내 생각에 좋지 않습니다.

그리고 포인트가 내부에 있을 때, 클라우드가 외부에 있을 때, 다양한 기능이 있을 때, 훈련 중 목표 값의 범위가 더 중요할 때, 모든 나무가 만들어지면 대상은 절대 이 범위를 벗어날 수 없습니다.


 
막심 드미트리예프스키 :

선형 회귀는 완벽하게 외삽하지만 의사 결정 트리와 관련된 모든 것은 외삽할 수 없습니다.

외삽은 훈련 중에 알려진 예측자 값을 넘어 새로운 데이터의 예측을 포함합니다.

다음은 오래된 그림의 일부입니다. 녹색으로 음영 처리된 모든 것은 외삽이며 그림으로 판단하면 숲이 할 수 있습니다. 그렇지 않으면 모든 것이 흰색으로 칠해졌을 것입니다(일부 SVM 모델의 경우).


숲과 뉴런, 선형 모델 모두 외삽할 수 있습니다. 예측을 위해 알려진 값과 거리가 먼 데이터를 제공하면 이러한 모든 모델은 예측을 제공하며 모두 그러한 경우에 대한 일종의 알고리즘이 있습니다.

그러나 선형 모델은 공식 y=ax+b에 따라 외삽을 수행하기 때문에 완벽하게 수행하고 포리스트는 가장 가까운 알려진 이웃에서 수행하므로 아무 것도 할 수 없다고 생각하는 이유는 무엇입니까? 이 두 알고리즘은 모두 존재할 권리가 있습니다. SanSanych가 말했듯이 각 예측 변수 및 목표에 대해 연구를 수행하고 모델을 비교해야 합니다. 그래야만 모델이 우수한 외삽을 수행하는지 여부를 말할 수 있습니다.
Habré에 대한 기사에 쓰여진 내용은 또한 특정 예측 변수 및 목표를 나타냅니다. 이것은 모든 경우에 적용되는 진실이 아니며 특정 사례에 대한 특정 연구입니다.

 
박사 상인 :

외삽은 훈련 중에 알려진 예측자 값을 넘어 새로운 데이터의 예측을 포함합니다.

다음은 오래된 그림의 일부입니다. 녹색으로 음영 처리된 모든 것은 외삽이며 그림으로 판단하면 숲이 할 수 있습니다. 그렇지 않으면 모든 것이 흰색으로 칠해졌을 것입니다(일부 SVM 모델의 경우).


숲과 뉴런, 선형 모델 모두 외삽할 수 있습니다. 예측을 위해 알려진 값과 거리가 먼 데이터를 제공하면 이러한 모든 모델은 예측을 제공하며 모두 그러한 경우에 대한 일종의 알고리즘이 있습니다.

그러나 선형 모델은 공식 y=ax+b에 따라 외삽을 수행하기 때문에 완벽하게 수행하고 포리스트는 가장 가까운 알려진 이웃에서 수행하므로 아무 것도 할 수 없다고 생각하는 이유는 무엇입니까? 이 두 알고리즘은 모두 존재할 권리가 있습니다. SanSanych가 말했듯이 각 예측 변수 및 목표에 대해 연구를 수행하고 모델을 비교해야 합니다. 그래야만 모델이 우수한 외삽을 수행하는지 여부를 말할 수 있습니다.
Habré에 대한 기사에 쓰여진 내용은 또한 특정 예측 변수 및 목표를 나타냅니다. 이것은 모든 경우에 적용되는 진실이 아니며 특정 사례에 대한 특정 연구입니다.


당신은 단지 나무를 연구해야합니다


사유: