트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 487

 
이반 네그레쉬니 :

이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에서 자르기, 배깅이 있는지 모르겠습니다.

이 변수가 1보다 작게 만들어지면 오류가 증가해야 합니다.


그렇긴 하지만 위에서 설명한 대로 오류는 여전히 평균으로 표시되었습니다. 이제 정상입니다.

 2017.09 . 27 18 : 34 : 34.076 RF sample (EURUSD,H1)   Info= 1   Error= 0.2893400000000008
2017.09 . 27 18 : 34 : 34.077 RF sample (EURUSD,H1)   Тест 1 >> 1 * 6 = 6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09 . 27 18 : 34 : 34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3 * 8.7 = 36.34 ( 37.41 ) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

그건 그렇고, r이 o.1 감소하더라도 오류는 매우 좋습니다. 크게 증가합니다. 상단 r 0.9 하단 0.8

 2017.09 . 27 18 : 36 : 11.298 RF sample (EURUSD,H1)   Info= 1   Error= 0.5431000000000188
2017.09 . 27 18 : 36 : 11.299 RF sample (EURUSD,H1)   Тест 1 >> 3 * 7 = 21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09 . 27 18 : 36 : 11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0 * 6.3 = 37.00 ( 37.80 ) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

r = 0.66에서(RF의 클래식 버전에서와 같이)

 2017.09 . 27 18 : 37 : 44.484 RF sample (EURUSD,H1)   Info= 1   Error= 0.7935200000000080
2017.09 . 27 18 : 37 : 44.485 RF sample (EURUSD,H1)   Тест 1 >> 2 * 1 = 3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09 . 27 18 : 37 : 44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1 * 9.9 = 40.11 ( 40.59 ) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

그리고 결과는 그 표를 보여줍니다. 곱셈은 이미 잘못 풀었다

 
이반 네그레쉬니 :

이론상 랜덤 포레스트에서는 약간의 오차가 있어야 합니다. 왜냐하면 의사 결정 트리에 구축할 때 모든 변수가 사용되며 신경망에서와 같이 메모리 사용에 제한이 없기 때문입니다(뉴런 수). 여기에서는 레벨 제한, 나무 가지치기 또는 자루에 넣기와 같은 개별 작업만 사용하여 결과를 "흐리게"할 수 있습니다. alglib의 MQ 구현에 크롭이 있는지 모르겠지만 배깅이 있습니다.

이 변수가 1보다 작게 만들어지면 오류가 증가해야 합니다.

@Maxim Dmitrievsky 만큼 오류가 작도록
И тоже очень маленькая ошибка: 2017.09 . 27 16 : 26 : 12.267   RF sample (EURUSD,H1)   Info= 1   Error= 0.0000000000000020
500000000000000에 대해 1번 잘못된 거래를 해야 하는데, 이는 어떤 상품에서도 불가능합니다.

감사합니다.
 
안드레이 키셀료프 :
@Maxim Dmitrievsky 만큼 오류가 작도록
500000000000000에 대해 1번 잘못된 거래를 해야 하는데, 이는 어떤 상품에서도 불가능합니다.

감사합니다.

그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%, 즉 R=1.

예, 이것은 과적합이지만 이것이 알고리즘이 작동하는 방식입니다. 이것이 랜덤 포레스트에서 모든 종류의 트릭을 사용하는 이유입니다.

 
이반 네그레쉬니 :

그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%에서 오류가 전혀 없을 수 있다는 사실에 대해 말하고 있습니다. R=1.


이를 위해서는 모델을 평가하기 위해 가방 밖에서 살펴봐야 하지만 r = 0.66 max set yes

 
이반 네그레쉬니 :

그리고 여기에 거래가 있습니다. 각 의사 결정 트리가 실제로 모든 패턴을 기억하고 샘플의 100%에서 오류가 전혀 없을 수 있다는 사실에 대해 말하고 있습니다. R=1.

나는 숲이 어떻게 작동하는지 들어가지 않았습니다. 그러나 말에 따르면, 각 나무는 나중에 반복되지 않을 수 있는 일종의 패턴을 기억한다는 것을 이해합니다. 동시에, 따라서 (반복이 없기 때문에) 플러스로 풀릴 확률은 얼마인지 말할 수 없으며 공리로서 확률을 0.5로 취하는 대신 1로 취합니다. 본질적으로 알려지지 않았습니다. 따라서 우리는 숲이 실제로 실수가 아니라는 것을 알 수 있습니다(당신의 말에서).

감사합니다.
 
막심 드미트리예프스키 :

이를 위해서는 모델을 평가하기 위해 가방 밖에서 살펴봐야 하지만 r = 0.66 max set yes

선택은 필수겠지만 하나의 배깅은 그다지 강력한 예측 기술은 아니다 - IMHO
 
이반 네그레쉬니 :
선택은 필수겠지만 하나의 배깅은 그다지 강력한 예측 기술은 아니다 - IMHO

글쎄, 그들이 지금까지 부자가 된 것은 .. :) 그러면 일반 lib를 diplerning과 연결하면 볼 것입니다.

하지만 속도!

 
막심 드미트리예프스키 :

그렇긴 하지만 위에서 설명한 대로 오류는 여전히 평균으로 표시되었습니다. 이제 정상입니다.

그건 그렇고, r이 o.1 감소하더라도 오류는 매우 좋습니다. 크게 증가합니다. 상단 r 0.9 하단 0.8

r = 0.66에서(RF의 클래식 버전에서와 같이)

그리고 결과는 그 표를 보여줍니다. 곱셈은 이미 잘못 풀었다

NS 신호에 대한 임계값을 높이면 필요한 입력 데이터의 양을 늘려 이를 보상하므로 오류는 줄어들었지만 입력 옵션은 적었습니다.






감사합니다.
 
안드레이 키셀료프 :
나는 숲이 어떻게 작동하는지 들어가지 않았습니다. 그러나 말에 따르면, 각 나무는 나중에 반복되지 않을 수 있는 일종의 패턴을 기억한다는 것을 이해합니다. 동시에, 따라서 (반복이 없기 때문에) 플러스로 풀릴 확률은 얼마인지 말할 수 없으며 공리로서 확률을 0.5로 취하는 대신 1로 취합니다. 본질적으로 알려지지 않았습니다. 따라서 우리는 숲이 실제로 실수가 아니라는 것을 알 수 있습니다(당신의 말에서).

감사합니다.
R=1은 각 트리가 패턴의 전체 훈련 세트를 기억한다는 것을 의미하고 0.66은 66%만 기억하고 각 트리가 패턴을 선택한다는 것을 의미합니다. 같은 패턴이 숲의 많은 나무에서 반복될 수 있습니다.
 
안드레이 키셀료프 :
NS 신호에 대한 임계값을 높이면 필요한 입력 데이터의 양을 늘려 이를 보상하므로 오류는 줄어들었지만 입력 옵션은 적었습니다.




감사합니다.

글쎄, 여기에 질문은 이미 올바른 기능과 대상에 있습니다. 비록 그것이 곱셈 테이블보다 간단할 수 있지만 거기에서도 오류는 작지 않습니다

사유: