트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 301

 

여보세요!!!! 마침내 기적이 일어났고 내 기사가 빛을 보았습니다. 전용 기사 스레드에서 토론하도록 초대합니다.

https://www.mql5.com/ru/articles/2773

Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
  • 2017.03.29
  • Mihail Marchukajtes
  • www.mql5.com
В этой статье я расскажу, как с помощью "скрещивания" одной очень известной стратегии и нейронной сети можно успешно заниматься трейдингом. Речь пойдет о стратегии Томаса Демарка "Секвента" с применением системы искусственного интеллекта. Работать будем ТОЛЬКО по первой части стратегии, используя сигналы "Установка" и "Пересечение".
 
마이클 마르쿠카이테스 :

여보세요!!!! 마침내 기적이 일어났고 내 기사가 빛을 보았습니다. 전용 기사 스레드에서 토론하도록 초대합니다.

https://www.mql5.com/ru/articles/2773


훌륭합니다!) 우리는 당신의 여가 시간에 읽을 것입니다.
 
마이클 마르쿠카이테스 :

여보세요!!!! 마침내 기적이 일어났고 내 기사가 빛을 보았습니다. 전용 기사 스레드에서 토론하도록 초대합니다.

https://www.mql5.com/ru/articles/2773


기사에 충실하러 갔습니다, 감사합니다)
 
안드레이 딕 :
역사는 반복되지 않는다는 것을 알고 있습니다. 따라서 무작위로 동일한 것을 시도하도록 제안됩니다. 결과는 크게 다르지 않습니다(이전 데이터보다 더 나을 수도 있음).


나는 당신과 fxsaber 가 당신의 진술이 매우 전문적으로 논박된 지점에 있다는 점에 주목하고 싶습니다. 이 스레드와 그의 블로그에서 Burnakov의 자료를 보십시오.


또한, TA를 형성하는 우리 머리의 패턴과 MO를 근본적으로 구별하는 근본적인 질문이 있습니다.

기계 학습은 반드시 하나의 전체인 세 부분으로 구성됩니다. 이것은:

  • 초기 데이터 준비(데이터마이닝) - TA에 없음
  • 패턴 자동 검색. 많은 알고리즘이 있습니다. TA에서 이것은 일반적으로 "다이아몬드와 같은 눈" 원리를 사용하여 손으로 수행됩니다.
  • 시뮬레이션 결과 평가. MT 터미널에서 이 역할은 MO의 프레임워크 내에 존재하는 도구를 약간만 대체할 수 있는 테스터에 의해 수행됩니다.

최종 결과에 미치는 영향 측면에서 가장 중요한 단계는 첫 번째 단계인 초기 데이터 준비입니다.

세 단계를 모두 일관되게 사용하고 수행 중인 작업을 이해하면 개인적으로 일부 대상 변수에 대한 예측 오류를 30% 미만으로 줄이는 데 성공했습니다. 거의 즉시 예측 오차를 40% 미만으로 줄이는 것이 가능합니다. 무작위 50%를 얻는다면 MO에서 매우 중요한 것을 이해하지 못한다는 의미입니다.

 
산산이치 포멘코 :


나는 당신과 fxsaber 가 당신의 진술이 매우 전문적으로 논박된 지점에 있다는 점에 주목하고 싶습니다. 이 스레드와 그의 블로그에서 Burnakov의 자료를 보십시오.


또한, TA를 형성하는 우리 머리의 패턴과 MO를 근본적으로 구별하는 근본적인 질문이 있습니다.

기계 학습은 반드시 하나의 전체인 세 부분으로 구성됩니다. 이것은:

  • 초기 데이터 준비(데이터마이닝) - TA에 없음
  • 패턴 자동 검색. 많은 알고리즘이 있습니다. TA에서 이것은 일반적으로 "다이아몬드와 같은 눈" 원리를 사용하여 손으로 수행됩니다.
  • 시뮬레이션 결과 평가. MT 터미널에서 이 역할은 MO의 프레임워크 내에 존재하는 도구를 약간만 대체할 수 있는 테스터에 의해 수행됩니다.

최종 결과에 미치는 영향 측면에서 가장 중요한 단계는 첫 번째 단계인 초기 데이터 준비입니다.

일관되게 수행하는 작업을 이해하고 세 단계를 모두 사용하면 개인적으로 일부 대상 변수에 대한 예측 오류를 30% 미만으로 줄이는 데 성공했습니다. 거의 즉시 예측 오차를 40% 미만으로 줄이는 것이 가능합니다. 무작위로 50%를 얻는다면 MO에서 매우 중요한 것을 이해하지 못한다는 의미입니다.

질문/제안을 능숙하게 피했습니다. 축하합니다! 읽는 동안 질문한 내용을 잊어버렸습니다. ..... "일부 대상 변수"의 경우 임의의 행에서 오류가 훨씬 적었지만 요점은 무엇입니까? 결과에 대한 내 실험은 4번째 포럼 어딘가에 있습니다(이것은 "Burnakov의 자료 보기"에 대한 답변입니다).
 
막심 드미트리예프스키 :

기사에 충실하러 갔습니다, 감사합니다)

내 마음의 바닥에서 형제!!! 당신의 의견은 나에게 매우 중요합니다. 이 글 이후에는 입력변수와 출력변수에 대한 논문이 나올 것이고, 철학, 뭐, 선택하기 어려울 땐 로션도 당연히 있겠죠....
 
산산이치 포멘코 :


일관되게 그리고 당신이 하고 있는 일에 대한 이해와 함께 세 단계를 모두 사용한다면 개인적 으로 일부 목표 변수에 대한 예측 오류를 30% 미만 으로 줄이는 데 성공했습니다. 거의 즉시 예측 오차를 40% 미만으로 줄이는 것이 가능합니다. 무작위 50%를 얻는다면 MO에서 매우 중요한 것을 이해하지 못한다는 의미입니다.

당신이 실수에 대해 이야기하는 경우   out - of - sample , 적절하게 준비된 데이터를 테스트하기 위해 최소 100,000개의 샘플이 있는 경우 HFT 데이터의 경우에도 결과는 "계란보다 더 차갑습니다", 매우 시원합니다.   몇 분 이상 동안 이것은 일반적으로 환상적이거나 평범한 과적합입니다. 저주파 데이터에서 신은 numerai 와 마찬가지로 2-3%의 혜택을 받는 것을 금지합니다.

시세 변화 방향을 1초 앞서 정확하게 예측할 때 멋지다 65-70% ( RI 의 경우) 나는 그런 사람들을 알고 있지만 그들의 데이터는 어린이용이 아니며 그에 따라 비용이 듭니다. 나는 60-65 %를 가지고 있지만 내 데이터의 경우 매우 시원합니다. 지금은 거의 아무것도 구입하지 않습니다. 예전에는 Plaza를 사용했지만 지금은 Forex에서 데이터를 얻는 것이 정기적으로 빠르고 mt입니다.

 

흥미로운 스레드. 홍수가 많이 나지만 현명한 생각도 있다. 고맙습니다.

 
안드레이 :

흥미로운 스레드. 홍수가 많이 나지만 현명한 생각도 있다. 고맙습니다.


))) 주요 커뮤니케이션 및 프로세스. 몇몇 사람들은 이미 신경봇을 만들고 있는 것 같습니다. 시도 할 것입니다.
 
독성 :

오류에 대해 이야기하는 경우   out - of - sample , 적절하게 준비된 데이터를 테스트하기 위해 최소 100,000개의 샘플을 사용하면 HFT 데이터의 경우에도 결과가 매우 훌륭하고 "계란보다 더 차갑습니다",   몇 분 이상 동안 이것은 일반적으로 환상적이거나 평범한 과적합입니다. 저주파 데이터에서 신은 numerai 와 마찬가지로 2-3%의 혜택을 받는 것을 금지합니다.

시세 변화 방향을 1초 앞서 정확하게 예측할 때 멋지다 65-70% ( RI 의 경우) 나는 그런 사람들을 알고 있지만 그들의 데이터는 어린이용이 아니며 그에 따라 비용이 듭니다. 나는 60-65 %를 가지고 있지만 내 데이터의 경우 매우 시원합니다. 지금은 거의 아무것도 구입하지 않습니다. 예전에는 Plaza를 사용했지만 지금은 Forex에서 데이터를 얻는 것이 정기적으로 빠르고 mt입니다.


나에게 예측 오류는 주요 문제가 아닙니다. 저에게 가장 큰 문제는 모델을 과적합하는 것입니다. 모델이 과대적합되지 않았거나 모델이 전혀 필요하지 않다는 약한 증거가 있지만 둘 중 하나입니다.

나는 이 스레드(그리고 다른 스레드에서도)에서 오버트레이닝 진단 및 오버트레이닝과 싸우기 위한 도구에 대해 여러 번 썼습니다. 요컨대, 이것은 노이즈로부터 입력 예측자를 제거하는 것이며 모델 자체는 이차적으로 중요합니다.

다른 모든 것은 재교육을 고려하지 않은 결과이기 때문에 관심이 없습니다. 방금 일어난 일입니다. 지금, 아마도 내일, 그리고 내일 이후에는 저장소가 고갈됩니다.

사유: