트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1619

 
엠티브넬 :
안녕하세요 ! 저는 이제 11년 동안 거래자로 Gann과 수동으로 거래했지만 신경망도 사용했습니다. 이 문제를 해결했습니다! 나는 단지 당신을 돕고 싶습니다. 당신은 비즈니스에 대한 올바른 접근 방식이 아닙니다. 신께 맹세컨데 이것은 농담이 아닙니다. 여기 모든 질문에 대한 답을 찾은 이 기사의 작성자가 있습니다. 그는 고문과 스크립트의 코드에 오류가 있을 뿐입니다. 나는 모든 것을 다시 작성하고 거래를 해왔습니다. 거의 1년 동안 모든 통화 쌍 및 기간에 대해 15분 이상을 시도합니다. 이 프로그램은 가격 예측, 가격이 몇 점, 어디로 갈 것인지 알려줍니다. https://www.mql5.com/ru/articles/830 ... 모든 것이 작동합니다. 코드를 다시 작성하기만 하면 됩니다. 오류가 있습니다. 나는 아무 것도 팔지 않고 아무 것도 광고하지 않습니다. 나는 매일 가서 당신의 편지를 읽고 내가 할 수 있는 모든 방법으로 돕고 싶습니다.
오류에 대해 더 구체적으로 말씀해 주시겠습니까?
 
마이클 마르쿠카이테스 :
체는 그런 존경받는 분파에 일종의 좌익 유형이 그려졌습니다. 당신은 찾을 수 없습니다?
예, 스킨은 심각하지 않습니다. 지표를 비교하는 것이 좋습니다. 내 스킨은 거의 준비되었습니다...
 
예브게니 듀카 :
예, 스킨은 심각하지 않습니다. 지표를 비교하는 것이 좋습니다. 내 스킨은 거의 준비되었습니다...
*** 당신은 다른 곳에서 측정됩니다 ....
 
마이클 마르쿠카이테스 :
*** 당신은 다른 곳에서 측정됩니다 ....
나는이 존경받는 스레드에서 확실히 불필요합니다))
 
예브게니 듀카 :
나는이 존경받는 스레드에서 확실히 불필요합니다))
아니요, 우리는 항상 경험과 정보를 공유하는 손님을 뵙게 되어 기쁩니다. 진지하게...
 
마이클 마르쿠카이테스 :
당신은 정말 바보입니다. 내 이름을 봐. 내 이름은 마이클이고 성은 잠시 완전히 다릅니다. 젠장하지마....

이것은 Yura Reshetov의 클론 인 가명입니다.

알리악산드르 흐리신 :
판매자의 경우 결국 실명과 성이 표시되고 여권으로 발급됩니다.

그리고 Mihail Marchukajtes는 무엇을 판매 합니까? 실제 신호나 올빼미는 없습니다. 나는 사이트에서 이 이름으로 거품을 철회한 적이 없다고 확신합니다. 그러나 그는 어떤 이유로 Reshetov를 지속적으로 광고합니다. 그는 "죽은"것처럼 Misha로 환생했습니다. 각 게시물에서 Yurina는 쇼가 아닌 공예품이라고 언급하고 그의 공예품의 새 버전을 출시합니다. "오리 같은 게 있으면 오리다"라는 속담이 있어서 미샤=유라라고 합니다. 이것이 유라의 악마 같은 프로모션 방식이다.

그래서 영상 스트림이 없고, 만약 있었다면 얼굴이 없었다면, 유라의 외모가 알려졌기 때문에 그 이유는 분명하다.

 
케샤 루트 :

이것은 Yura Reshetov의 클론 인 가명입니다.

그리고 " Mihail Marchukajtes "는 무엇을 판매합니까? 실생활이나 올빼미에는 신호가 없습니다. 나는 사이트에서 이 이름으로 거품을 철회한 적이 없다고 확신합니다. 그러나 그는 어떤 이유로 Reshetov를 지속적으로 광고합니다. 그는 "죽은"것처럼 Misha로 환생했습니다. 각 게시물에서 Yurina는 쇼가 아닌 공예품이라고 언급하고 그의 공예품의 새 버전을 출시합니다. "오리 같은 게 있으면 오리다"라는 속담이 있어서 미샤=유라라고 합니다. 이것이 유라의 악마 같은 프로모션 방식이다.

그래서 영상 스트림이 없고, 만약 있었다면 얼굴이 없었다면, 유라의 외모가 알려졌기 때문에 그 이유는 분명하다.

그런 어리석은 비교로 레셰토프의 기억을 모욕할 필요는 없다.

 
도서관 :
그건 그렇고, 내가 부스팅에 대해 좋아하지 않는 것은 권장 목재 깊이가 7-10이라는 것입니다.
저것들. 100개의 예측 변수가 있고 나눗셈도 각 예측 변수의 중간에서 시작됩니다. 그런 다음 높은 확률로 중간에 7개의 서로 다른 예측 변수를 나눕니다. 아마도 1 또는 2는 거의 1/4까지 공유할 것입니다.
아니면 알고리즘이 알고리즘을 반으로 나누지 않고 더 작은 조각으로 부스팅하는 데 작동합니까? 아는 사람 있나요?
그리고 누가 나무의 깊이를 사용합니까?

나는 CatBoost 에 대해 공부했으므로 그것에 대해 이야기하겠습니다.

나무의 깊이는 4-6 분할을 권장합니다. 나는 일반적으로 이 깊이를 시도한다.

예측기는 선택할 수 있는 세 가지 알고리즘으로 나뉩니다. 이른바 그리드가 생성됩니다.

분리 결과도 흥미롭게 뽑아내고 있다. 그리고 AlgLib은 숲을 위한 나무를 만들 때 예측자를 동일한 부분으로 나누는 것은 무엇입니까?

 
mytarmailS :

당신의 목표, 아무 .. 내가 조금 헐렁하게 설명했습니다 ....

클러스터는 한 가지 목적으로만 필요합니다.


그래서 우리는 새로운 테스트에서 XT를 발견하고 좋은 것으로 받아 들였습니다..

이제 새 데이터에서 모델을 적용하기 위해 이 TX를 찾아야 합니다. 모델은 XT에서만 잘 작동하기 때문입니다. 하지만 새 데이터에서는 어떻게 인식합니까? 클러스터 번호별 옵션으로

클러스터링의 입력은 무엇입니까 - 샘플의 모든 예측 변수 또는 무엇입니까?

 
도서관 :

사고가 없습니다. 각 예측 변수에 대해 사용 가능한 가장 좋은 분할이 선택됩니다. 모든 예측 변수가 각 트리에 제공되지는 않지만 예를 들어 무작위로 선택된 예측 변수의 절반이 제공되는 경우 포리스트에 무작위성이 존재합니다.

한번 가르칩니다. 훈련이 없습니다. 나무/숲의 경우 재교육이 충분히 빠르기 때문에 추가 교육이 전혀 없는 것 같습니다.
왜 그리드인가? 나무에는 노드와 잎이 있습니다.

선택은 선형 분할을 기반으로 하며, 그런 식으로 더 명확하다면 비평활 기능을 기반으로 하는 이산 선택을 합니다.

요점은 추가 훈련이 아니라 예측 변수가 서로 강화되지만 서로 강한 상관 관계가 없으며 분할 표본으로 설정할 수 없으면 더 좋다는 사실입니다.

예측자 파티션 그리드는 신경망이 아닙니다.

사유: