트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 472

 
막심 드미트리예프스키 :


즉, MT5에 있는 모든 것이 아직 테스트되지 않았습니다. :)

이거 이해 못 하겠어요. (왜 전혀 시도, 이미 MT에 무엇입니까?

TS 개념이 있으면 도구를 선택합니다. MT에 있고 시스템의 나머지 부분과 잘 상호 작용합니다. 우리는 그것을 사용합니다. 상호 작용이 좋지 않습니다. 외부 소프트웨어를 사용합니다.

기존 MT의 기능을 이용하기 위해 정보를 왔다갔다 하는 것은 전혀 합리적이지 않습니다.

 
유리 아사울렌코 :

이거 이해 못 하겠어요. (왜 전혀 시도, 이미 MT에 무엇입니까?

TS 개념이 있으면 도구를 선택합니다. MT에 있고 시스템의 나머지 부분과 잘 상호 작용합니다. 우리는 그것을 사용합니다. 상호 작용이 좋지 않습니다. 외부 소프트웨어를 사용합니다.

MT의 기존 기능을 이용하기 위해 정보를 왔다갔다 하는 것은 전혀 합리적이지 않습니다.

따라서 처음부터 기성품 개념은 없으며 모든 것이 변덕 스럽습니다. 도구가 많을수록 좋습니다.
 
막심 드미트리예프스키 :
따라서 처음부터 기성품 개념은 없으며 모든 것이 변덕 스럽습니다. 도구가 많을수록 좋습니다.

나는 개념으로 시작하여 일부 소프트웨어(Excel, SciLab, MatLab, R - 때로는 모두 함께)에서 작업합니다. 거기에서 테스터와 함께 테스트하기도 합니다(실제 생활과 큰 차이를 느끼지 못함). 그런 다음 일부를 터미널로 전송하고 나머지는 외부 라이브러리와 연결하여 C ++ / C #입니다.

첫 번째 시스템(2008년 이후)은 VBA-Excel에서 만들어졌으며 터미널과 완벽하게 상호 작용했습니다. VBA의 느림을 고려하더라도 성능 문제가 없습니다. 그리고 일반적으로 1m TF 내에서 작업하는 경우에도 50ms 지연은 시간이 아닙니다.

 
합리적인 신호에 가입하는 것이 더 쉽지만 누가 필요합니까 ??? 일반적으로....!!!!
 
막심 드미트리예프스키 :

그건 그렇고, 당신이 제안한 시퀀스에 대한 기사에서 연속으로 여러 신호를 계산하고 거기에서 뒤집는 것을 기억합니까 .. 신호의 중첩

퍼지 로직을 통해 비슷한 것을 구현하고 학습 과정에 포함시키는 흥미로운 솔루션을 생각해 냈습니다. 나중에 뭔가를 버릴 것입니다. :)


네, 네, 바로 이 글에서 나온 내용입니다..... 거기에 명확하게 설명이 되어 있지 않았을 뿐이지, 이별이라는 개념 자체를 부정한 사람은 아무도 없습니다.

선과 악으로의 구분이 어떻게 진행되고 있는지 명확하게 볼 필요가 있습니다. 모델이 꾸준히 배수되거나 쏟아지는 경우 이는 이미 지표이며 가장 중요한 것은 정확성이 아니라 구분의 안정성입니다 .....

 
Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
블라디미르 페레르벤코 :

산 사니치.

"overfittinga"에 대한 흥미로운 토론을 참조하십시오.

행운을 빕니다


내가 여기에 쓰고 실습에서 사용하는 모든 것은 과적합, 여기서 재훈련이라고 하는 기본적인 인지 문제의 영향을 어떻게든 줄이기 위한 몇 가지 트릭입니다.


모델을 재학습시키는 문제는 원칙적으로 해결되지 않고 이론적으로 해결되지 않으며 이는 아주 오래전부터 알려져 왔습니다. 모델은 항상 외부 세계에 대한 어느 정도의 근사치이자 현실의 어느 정도 조잡한 것입니다. 따라서 모델은 항상 약간의 오류가 있는 개체를 반영합니다. 이것은 모든 모델의 강점과 약점입니다. 따라서 모델링된 객체에 대한 철저한 연구 없이는 모델을 생성할 수 없습니다.


견적을 받아보면.

우리는 무엇을 모델링하고 있습니까?

랜덤 포레스트인 경우 패턴 검색을 자동화합니다.

GARCH인 경우 견적의 통계적 특성을 모델링합니다.

이것은 항상 오류입니다. 그리고 여기서 저는 이 오류가 시계열의 연속적인 부분에서 변경되어서는 안 된다는 일종의 경험적 방법을 제안했습니다. 다음 섹션에서 모델이 말 그대로 다른 오류를 제공하면 다시 훈련(과적합)되어 원칙적으로 사용할 수 없습니다.

랜덤 포레스트의 경우 내가 이해한 대로 NOISE 예측자를 제거하면 훈련된 모델이 잡음 예측자를 사용할 때보다 훨씬 더 오래 동일한 오류를 제공한다는 것을 발견했습니다. 그러나 나는 항상 모델을 만들 수 있는 솔루션을 알지 못하며 이것이 필요하지 않습니다. 주말에 최신 데이터로 모델을 재교육하는 데 매우 만족합니다. 그러나 훈련은 잡음 예측인자를 확인하는 것으로 시작해야 합니다. 시간이 지남에 따라 집합이 변경됩니다. 즉, 모델 자체뿐만 아니라 입력 데이터 집합도 변경됩니다. 나는 시계열을 따라 윈도우 실행을 했기 때문에 25개의 예측 변수에서 10-15개의 예측 변수를 지속적으로 선택하고 이 그룹의 구성이 변경됩니다. 오류는 매우 안정적이며 23~27% 범위 = 항상 30% 미만입니다. 내 예측 변수의 오류가 20% 미만이면 해당 모델을 사용하지 않고 기다립니다.


추신.

내가 다른 모델에 관심이 없는 이유는 이미 말한 것으로부터 알 수 있다.

 
산산이치 포멘코 :

내가 여기에 쓰고 실습에서 사용하는 모든 것은 과적합, 여기서 재훈련이라고 하는 기본적인 인지 문제의 영향을 어떻게든 줄이기 위한 몇 가지 트릭입니다.


입장은 분명합니다.

행운을 빕니다.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
이론이 얼마나 흥미로운지. 그러나 실제로 사용하는 방법은 무엇입니까? 어딘가에 프로그램 형태로?
사유: