트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3371

 
mytarmailS #:
그럼 거래를 보여주세요.
왜 이렇게 떠들썩하죠?

그리고 시계처럼 작동하는 100년 된 이론에 따라 TS가 어떻게 작동하는지 보겠습니다...
오, 제발

그런 질문은 모두를 현기증 나게 할 것입니다.

학교와 같아요.

멀리서부터 시작해서 간단한 질문부터 해야 합니다.

어떤 쌍으로 거래하시나요?

그리고 모든 매개변수와 함께 마지막 거래, 진입과 청산을 보여주세요.

그런 다음 하루에 몇 번의 거래를하고 여기에서 일시 중지합니다.

P.Z.

두 개 이상의 질문을 해서는 안됩니다.

마스터를 불쾌하게 할 수 있습니다. 그리고 그렇게하기 시작하면 어떨까요?

P.Z.

저는 스파르타크를 지지합니다.

 
Forester #:

스토브에 대해 오해하고 계십니다. 트리 빌딩 코드를 본 적이 없는 것 같습니다.... 거기에는 단일 행 내 연산이 전혀 없습니다 !!!, 세트 (전체 또는 배치)만 있습니다.

간단히 설명하면:
훈련에 전달된 무작위/전체 행 세트는 각 예측자/열에 대해 하나씩 정렬됩니다. 다양한 분할(중간/백분위수/무작위)이 확인되고, 각각의 통계가 계산되며, 제안하신 것처럼 각 행이 아닌 전체 행 세트에 대해 가장 좋은 분할이 선택됩니다.
최적의 분할에 따라 문자열 집합을 2 개의 집합으로 나눈 다음 각 집합을 다시 정렬하고 중지 규칙에 도달 할 때까지 각 부분 등에 대해 최상의 분할을 선택합니다 (깊이, 행당 예제 수 등)

편집기에서 자세한 내용을 볼 수 있으며
\MQL5\Include\Math\Alglib\dataanalysis.mqh
ClassifierSplit () 함수 및 호출되는 파일을 가지고 있습니다.
몇 시간만 있으면 이해할 수 있으며 예측자를 한 줄로 검색하는 것에 대해 이야기할 필요가 없습니다.
여기에서는 더 명확하고 코드가 더 간결하며 주석이 있습니다 https://habr.com/ru/companies/vk/articles/438560/.

1. RegressionTree() 클래스

Пишем XGBoost с нуля — часть 1: деревья решений
Пишем XGBoost с нуля — часть 1: деревья решений
  • 2019.02.06
  • habr.com
Привет, Хабр! После многочисленных поисков качественных руководств о решающих деревьях и ансамблевых алгоритмах (бустинг, решающий лес и пр.) с их непосредственной реализацией на языках программирования, и так ничего не найдя (кто найдёт — напишите в комментах, может, что-то новое почерпну), я решил сделать своё собственное руководство, каким...
 
Forester #:

스토브에 대해 오해하고 계십니다. 트리 빌딩 코드를 본 적이 없는 것 같습니다.... 거기에는 단일 행 내 연산이 전혀 없습니다 !!!, 세트 (전체 또는 배치)만 있습니다.

간단히 설명하면:
훈련에 전달된 무작위/전체 행 세트는 각 예측자/열에 대해 하나씩 정렬됩니다. 다양한 분할(중간/백분위수/무작위)이 확인되고, 각각의 통계가 계산되며, 제안하신 것처럼 각 행이 아닌 전체 행 세트에 대해 가장 좋은 분할이 선택됩니다.
최적의 분할에 따라 문자열 집합을 2 개의 집합으로 나눈 다음 각 집합을 다시 정렬하고 중지 규칙에 도달 할 때까지 각 부분 등에 대해 최상의 분할을 선택합니다 (깊이, 행당 예제 수 등)

편집기에서 자세한 내용을 볼 수 있으며
\MQL5\Include\Math\Alglib\dataanalysis.mqh
ClassifierSplit () 함수 및 호출되는 파일을 가지고 있습니다.
몇 시간만 지나면 이해하실 수 있으며 예측자 검색에 대해 한 줄로 설명할 필요가 없을 것입니다.

많은 줄에 대해 맞습니다.

처음으로 돌아가 보겠습니다. 무작위 숲에서 패턴이란 무엇입니까?

그것은 하나의 나무입니다. 다음은 RF에서 이러한 트리의 한 예입니다:

    left daughter right daughter split var split point status prediction
1               2              3         2  0.34154125      1          0
2               4              5         2  0.28238475      1          0
3               6              7         4  0.37505155      1          0
4               0              0         0  0.00000000     -1          2
5               8              9         5  0.64235664      1          0
6               0              0         0  0.00000000     -1          2
7              10             11         1  0.45438075      1          0
8              12             13         1  0.46271469      1          0
9              14             15         3  0.25803691      1          0
10             16             17         2  0.51942328      1          0
11             18             19         1  0.48839881      1          0
12             20             21         3  0.45243581      1          0
13              0              0         0  0.00000000     -1          2
14              0              0         0  0.00000000     -1          2
15             22             23         6  0.62789488      1          0
16             24             25         2  0.34224983      1          0
17             26             27         4  0.53845361      1          0
18             28             29         3  0.39207978      1          0
19             30             31         3  0.03596312      1          0
20             32             33         7  0.49380156      1          0
21              0              0         0  0.00000000     -1          2
22              0              0         0  0.00000000     -1          2
23             34             35         6  0.76472904      1          0
24              0              0         0  0.00000000     -1          1
25              0              0         0  0.00000000     -1          2
26             36             37         5  0.87588550      1          0
27             38             39         1  0.31089209      1          0
28             40             41         2  0.39193398      1          0
29             42             43         1  0.47068628      1          0
30             44             45         7  0.76420940      1          0
31             46             47         2  0.38380954      1          0

 [ reached getOption("max.print") -- omitted 185 rows ]

총 행 = 166+185! 모두 맞지 않습니다.

내 모델에는 이러한 나무가 150개 있습니다.

split var - это номер переменной, всего их в модели 8
split point - лучшее значение конкретной переменной, которое использовалось для разделения.
 
СанСаныч Фоменко #:

줄이 많다는 말씀이 맞습니다.

처음으로 돌아가서: 랜덤 포레스트의 패턴이란 무엇인가요?

그것은 하나의 나무입니다. 다음은 RF에서 이러한 트리의 한 예입니다:

총 행 = 166+185! 모두 맞지 않습니다.

내 모델에는 이러한 트리가 150개 있습니다.

나뭇잎을 형성하는 경로를 다시 생각해 보세요. 위의 예에서는 5개의 분할이 있습니다. 이것은 꼭지점이 2개인 패턴에 대한 설명이 아닌가요? 설명입니다.
7개의 분할은 머리 어깨 등을 설명할 수 있습니다.
한 나무의 각 잎은 다른 패턴을 설명합니다.

숲은 군중(더뷰)의 의견입니다.
첫 번째 나무: 이 문자열은 내 18번째 패턴/잎에 속하며 답은 = 1
두 번째: 같은 문자열이 내 215번째 패턴/잎에 속하며 답은 = 0
세 번째: = 1

...

평균을 내서 150개의 나무에 대한 평균 의견을 얻습니다. 예를 들어 = 0.78입니다. 각각 활성화된 잎/패턴이 다릅니다.

 
Forester #:

경로 형성 시트를 다시 생각해 보세요. 위의 예시에는 5개의 분할이 있습니다. 두 개의 윗부분이 있고 밑부분이 있는 패턴에 대한 설명이 아닌가요? 설명입니다.
7개의 분할은 머리 어깨 등을 설명할 수 있습니다.
단일 나무의 각 잎은 다른 패턴을 설명합니다.

숲은 더비드 군집의 의견입니다.
첫 번째 나무: 이 선은 내 18번째 패턴/잎에 해당하며 답은 = 1
두 번째: 같은 선이 내 215번째 패턴/잎에 해당하며 답은 = 0
세 번째: = 1

...

150개의 나무의 평균을 구해 평균 의견을 얻습니다. 각각 활성화된 잎/패턴이 달랐습니다.

얼마나 많은 나뭇잎이 있는지 알 수 없습니다.

나무의 수는 학습을 위한 최소 샘플 크기를 얻기 위해 변경할 수 있는 매개변수입니다.

50개의 나무면 충분하다는 것을 알 수 있으므로 나무를 하나의 패턴으로 간주하는 것이 편리합니다.

 
СанСаныч Фоменко #:

얼마나 많은 잎이 있는지 알 수 없습니다.

나무의 수는 학습을 위한 최소 샘플 크기를 얻기 위해 변경할 수 있는 매개변수입니다.

50개의 나무면 충분하므로 나무를 패턴으로 간주하는 것이 편리합니다.

트리는 각 상황/행에 하나의 잎/패턴으로 반응합니다. 다른 상황에서는 다른 잎/패턴으로 응답합니다.
 
Forester #:
트리는 각 상황/라인에 하나의 잎/패턴으로 반응합니다. 다른 상황에서는 다른 잎사귀/무늬로 반응합니다.

나뭇잎뿐만 아니라 나무도 아무것도 해결하지 못하는 것 같습니다.

여기서 최종 분류기의 공식을 찾았습니다.




여기서

  • N - 나무의 수;
  • i - 나무의 카운터;
  • b - 결정적인 나무;
  • x - 데이터에서 생성한 샘플.

분류 작업에서는 다수결 투표로 솔루션을 선택하는 반면, 회귀 작업에서는 평균으로 솔루션을 선택한다는 점도 주목할 필요가 있습니다.

 
СанСаныч Фоменко #:

나뭇잎뿐만 아니라 나무도 아무것도 해결하지 못하는 것 같습니다.

최종 분류기의 공식은 다음과 같습니다.

분류 작업에서는 다수결 투표로 솔루션을 선택하는 반면 회귀 작업에서는 평균으로 솔루션을 선택한다는 점도 주목할 가치가 있습니다.

왜 해결되지 않나요?

각 나무에서 활성화된 잎/패턴 중 하나가 투표에 참여(평균)합니다.

숲의 답은 모든 나무(또는 활성화된 잎/패턴)의 답의 평균이며, 이 공식은 이를 계산합니다. 이진 분류의 경우 평균이 0.5를 초과하면 1, 그렇지 않으면 0이 됩니다.
그러나 패키지가 평균값에 대한 액세스를 제공하는 경우 0.5 경계가 최선의 옵션은 아닐 수 있으므로 다른 경계로 실험해 볼 수 있습니다.

 
Forester #:
트리는 각 상황/라인에 하나의 잎/패턴으로 반응합니다. 다른 상황에서는 다른 잎사귀/패턴으로 반응합니다.
산산치 포멘코 #:

나뭇잎뿐만 아니라 나무도 아무것도 해결하지 못하는 것 같습니다.

하나의 잎뿐만 아니라 모든 나무가 각 상황에 대한 책임이 있으며 모든 나무가 활성화되는 것은 아니며 활성화 된 예측의 합계가 모델의 예측입니다.....


나무 모델 전문가 여러분, 도대체 무슨 말씀이세요?

 
mytarmailS #:

하나의 잎이 아니라 모든 나무가 각 상황을 담당하며, 모든 나무가 활성화되는 것은 아니며 활성화된 나무의 예측을 합한 것이 모델의 예측입니다.


나무 모델 전문가 여러분, 도대체 무슨 말씀이세요?

새로운 말을 하셨나요? 그게 아니라면, 당신 생각에 그것도 쓰레기예요.