트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1963

 
막심 드미트리예프스키 :

여러 개의 D-뉴런(메쉬형)

오류, % = 45.10948905109489

도스비도스)

작가에게 메일로 컷 그리드와 분노를 던졌다.
그는 무엇을 결정 했습니까? 지폐의 진위?
 
발레리 야스트렘스키 :
그는 무엇을 결정 했습니까? 지폐의 진위?

 
막심 드미트리예프스키 :

손상된 논리.
 
발레리 야스트렘스키 :
손상된 논리.

함정이 있을 수 있습니다. 예를 들어 기능의 음수 값은 허용되지 않습니다. 그는 마이크로 테스트에서 이진화된 것들을 사용합니다. 빈약한 설명에는 그것에 대해 아무 것도 표시되지 않으며 오류가 표시되지 않습니다.

 
막심 드미트리예프스키 :

함정이 있을 수 있습니다. 예를 들어 기능의 음수 값은 허용되지 않습니다. 그는 마이크로 테스트에서 이진화된 것들을 사용합니다. 빈약한 설명에는 그것에 대해 아무 것도 표시되지 않으며 오류가 표시되지 않습니다.

결함은 또한 명확하지 않은 징후에서 자주 발생합니다. 그리고 그것들을 식별하는 것은 여전히 일종의 올바른 논리의 문제입니다.
 
한편으로, 다른 한편으로 가중치는 이진법입니다. 그들이 떠나서 온 것에서.
 

Collaborative Filtering 을 위한 흥미로운 NN 접근 방식

사람과 영화의 ID 대신 거래 도구와 전략을, 추정 대신 일종의 메트릭(예상 등)을 사용할 수 있습니다. 그런 다음 도구 및 전략에 대한 숨겨진 변수를 계산합니다. 그리고 나서 마음이 원하는 대로. 도구에 대한 시스템을 선택하거나 원하는 특성으로 이동 중에 생성하고 시스템에 대한 합성을 구축합니다....

 
막심 드미트리예프스키 :
작가에게 메일로 컷 그리드와 분노를 던졌다.

그가 게시한 내용이 흥미롭습니다.

 
mytarmailS :

그가 게시한 내용이 흥미롭습니다.

지금까지 아무것도. 샘플에는 규칙성이 있어야 합니다. 그게 요점입니다. 이것은 다른 접근 방식입니다. 나는 정규 세트에 생각하고 훈련해서는 안됩니다. 저것들. 행의 엔트로피가 낮을수록 더 잘 자르고 해당 데이터 세트에서 샘플이 무작위로 혼합됩니다. 일반적으로 중요한 것은 패턴이 아니라 그 순서가
 
도서관 :
가장 깨끗한 스플릿은 덜 깨끗한 스플릿과 혼합됩니다. 저것들. 기차에서 결과를 악화시키는 것은 원칙적으로 우리에게 중요하지 않습니다. 그러나 이것이 테스트의 결과를 향상시킬 것이라는 사실은 아닙니다. 일반화 능력. 누군가는 시도해야합니다 ... 개인적으로 일반화가 더 나은 경우라고 생각하지 않습니다. 숲.

트리의 깊이를 제한하고 마지막 분할을 수행하지 않고 이전 분할에서 멈추는 것이 훨씬 쉽습니다. 결과적으로 추가 분할을 수행할 때보다 덜 깨끗한 시트를 얻습니다. 당신의 선택은 우리가 분할할지 여부 사이에 무언가를 줄 것입니다. 저것들. 예를 들어 자신의 방식으로 7번째 깊이 수준에서 시트의 평균을 구합니다. 6단계 깊이의 시트보다 약간 더 깨끗합니다. 일반화는 이것에서 크게 달라지지 않을 것이라고 생각하지만, 아이디어를 테스트하기 위해 많은 작업이 있습니다. 깊이가 6과 7인 여러 나무의 평균을 구할 수도 있습니다. 방법에 따라 발생하는 것과 거의 같습니다.

이전에는 시트에 작은 샘플의 경우 1% 이상의 지표가 포함되어야 하고 큰 샘플의 경우 100개 이상 포함되어야 한다고 설명하지 않았으므로 물론 어떤 클래스의 시트에 오류가 없을 때까지 분할되지 않을 것입니다.

마지막 단계를 잘못 이해하고 있는 것 같습니다. 나머지 샘플 1%의 통계적 추정치 로 봅니다. 이 샘플에서 다른 예측 변수로 분할할 때 결과가 향상되는 것을 관찰하고 부분 공간에 대한 정보를 얻습니다. 예를 들면 다음과 같습니다.

A>x1인 경우 대상 1은 하위 샘플의 60%인 40%로 올바르게 식별됩니다.

B>x2인 경우 대상 1은 하위 샘플의 45%인 55%로 올바르게 식별됩니다.

A<=x1인 경우 대상 1은 하위 샘플의 50%가 되는 70%로 올바르게 식별됩니다.

이러한 각 분할에는 유의 요소가 있으며(아직 계산 방법을 결정하지 않았습니다) 마지막 분할에도 유의 요소가 있습니다.

등등, 최대 5-10개의 예측 변수를 가정하고 적용할 때 마지막 분할에 도달한 경우 계수를 추가하고(또는 더 복잡한 감소 방법 사용) 계수의 합이 임계값을 초과하면 1은 시트에 분류되고 그렇지 않으면 0입니다.


간단한 방법으로, 이것은 끝에서 두 번째 분할까지 포리스트를 강제로 구축한 다음 샘플에서 이미 선택된 예측자를 제외하여 새 예측자를 선택함으로써 수행할 수 있습니다. 또는 트리를 구축한 직후에 선택 항목을 리프로 필터링하고 각 예측자를 직접 검토하여 완전성과 정확성의 기준을 충족하는 최상의 분할을 찾습니다.

그리고 다른 클래스 "0"이 비활성을 의미하고 반대 입력이 아닌 경우 훈련 샘플의 결과가 향상됩니다. 그렇지 않으면 개선과 저하가 모두 있을 수 있습니다.

사유: