트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2591

 
막심 드미트리예프스키 # :
예, 각각 MT5에서 일반 봇처럼 테스트 및 최적화하고 외부 매개변수를 분류할 수 있습니다. 막대에서 빠르게 테스트되지만 나무가 자체적으로 계산하는 데 꽤 오랜 시간이 걸리기 때문에 진드기에 브레이크가 있을 수 있습니다.

ML을 추가한 후에는 더 이상 최적화하고 싶지 않습니다. 다시 맞는 바람이 반대편에서 분다.) 속도가 정상이라면 최소한 확실히 시도 할 수 있습니다. 일반적으로 예, 최고의 통합 속도가 아니므로 ML 위에 상인의 추가 기능에 거의주의를 기울이지 않았습니다. 이렇게 통합되고 테스터에서 조건부로 속도 표준을 테스트할 수 있다면 당연히 이것은 기회의 추가 지평을 엽니다.


글쎄, 일반적으로 최고의 속도(내 결정에 비해 속도에 정상적인 차이가 있을 것이라고 생각합니다)는 항상 좋습니다. 로봇이 많고 시간 프레임이 작고 속도가 더 중요할 때 모두 그렇습니다.

 
Alexey Nikolaev # :

모델 매개변수 공간에서? 그것은 거대한 차원을 가지고 있습니다. 이것은 적은 수의 예측 변수가 있는 매우 간단한 모델에서만 가능합니다.

거대한 차원의 공간에서 표면을 구성하는 방법은 명확하지 않습니다. 이 차원과 비교할 때 우리는 매우 적은 수의 포인트를 가지고 있습니다. 일부 시각화 방법은 PCA 등의 차원이 감소하지 않는 한 의미가 불명확합니다.

모든 것이 함께 섞여 있습니다.

어떤 모델 매개변수가 논의됩니까?

모델이 ML의 것이라면 이것은 한 가지이고, 모델이 테스터의 Expert Advisor라면 완전히 다릅니다.

테스터에서 최적화된 모델은 일반적으로 아무것도 아닙니다. 예를 들어 마우스를 가져 와서 기간을 선택하기 시작하면 특정 결과 세트가 나타납니다. 자체 매개변수가 있는 이러한 "마스크"가 많으면 결과적으로 매끄러운 표면이 얻어지지 않고 미래에 우연히 일치할 수 있는 임의의 피크를 선택합니다. 왜요? 나에게 대답은 분명합니다. 이러한 "마스크"의 매개변수는 모델의 성능과 관련이 없으며 단지 노이즈일 뿐입니다.


또 다른 점은 MO의 모델 매개변수가 예측 변수의 집합이면 예측 변수가 시뮬레이션 결과와 관련이 있는지 여부와 같은 문제가 의미 있게 제기될 수 있다는 것입니다. 있다면 어느 것입니다. RF, 뉴런 또는 다른 모델을 선택하는 경우 상황은 비슷합니다.

 
SanSanych Fomenko # :

모든 것이 함께 섞여 있습니다.

어떤 모델 매개변수가 논의됩니까?

모델이 ML의 것이라면 이것은 한 가지이고, 모델이 테스터의 Expert Advisor라면 완전히 다릅니다.

테스터에서 최적화된 모델은 일반적으로 아무 것도 아닙니다. 예를 들어 마우스를 가져 와서 기간을 선택하기 시작하면 특정 결과 세트가 나타납니다. 자체 매개변수가 있는 이러한 "마스크"가 많으면 결과적으로 매끄러운 표면이 얻어지지 않고 미래에 우연히 일치할 수 있는 임의의 피크를 선택합니다. 왜요? 나에게 대답은 분명합니다. 이러한 "마스크"의 매개변수는 모델의 성능과 관련이 없으며 단지 노이즈일 뿐입니다.


또 다른 점은 MO의 모델 매개변수가 예측 변수의 집합이면 예측 변수가 시뮬레이션 결과와 관련이 있는지 여부와 같은 문제가 의미 있게 제기될 수 있다는 것입니다. 있다면 어느 것입니다. RF, 뉴런 또는 다른 모델을 선택하는 경우 상황은 비슷합니다.

실제로 모든 것이 힙에 있습니다. 매개변수는 매개변수이고 예측자는 예측자입니다. 틱이 있는 예에서 매개변수는 기간이고 예측자는 해당 틱의 값입니다. 한두 명의 엄마에게 필요한 표면을 만드는 것은 어렵지 않지만 수백의 경우 예측 변수와 매개 변수의 공간 차원이 커지면서 의미가 완전히 사라집니다.

테스터의 모델과 MO 패키지의 모델 사이에 근본적인 차이점은 없습니다. 차이점은 단지 기술적인 것뿐입니다(사용된 소프트웨어의 기능).

 
Alexey Nikolaev # :

실제로 모든 것이 힙에 있습니다. 매개변수는 매개변수이고 예측자는 예측자입니다. 틱이 있는 예에서 매개변수는 기간이고 예측자는 해당 틱의 값입니다. 한두 명의 엄마에게 필요한 표면을 만드는 것은 어렵지 않지만 수백의 경우 예측 변수와 매개 변수의 공간 차원이 커지면서 의미가 완전히 사라집니다.

테스터의 모델과 MO 패키지의 모델 사이에 근본적인 차이점은 없습니다. 차이점은 단지 기술적인 것뿐입니다(사용된 소프트웨어의 기능).

나는 꽁꽁 묶고 싶지 않지만 수백 또는 다른 MA에 대한 메모 ..합리적인 숫자에 대한 제한 값이 있으며 1.386*ln(N) 이하입니다(여기서 N은 전체 관찰 기록).

 
최적화 표면 분석도 양날의 검입니다. 그리고 고원에 도달한다고 해서 일시적인 영감을 주기는 하지만 공장에 갈 시간이라는 것을 깨달을 때까지는 아무 것도 보장하지 않습니다. 또한 최적화/훈련 알고리즘은 지역 극단을 어느 정도 녹아웃시키도록 설계되었습니다. 즉, 전역 극단을 검색하도록 설계되었습니다.
 
막심 드미트리예프스키 # :
최적화 표면 분석도 양날의 검입니다. 그리고 고원에 도달하는 것은 일시적인 영감을 주기는 하지만 공장에 갈 시간이라는 것을 깨달을 때까지 아무 것도 보장하지 않습니다.
신성한 비판
 
mytarmailS # :
신성한 비판
시험을 마친 :)
 
막심 드미트리예프스키 # :
시험을 마친 :)
나는 또한 "고원"과 글로벌 최소값의 차이점을 이해할 것입니다.
 
mytarmailS # :
나는 또한 "고원"과 글로벌 최소값의 차이점을 이해할 것입니다.
당신이 찾고있는 것을보십시오. 이상과 꿈으로 세계의 고원을 암시
 
견고함이 좋다는 점에는 누구도 이의를 제기하지 않습니다. 문제는 그것을 달성하는 간단하고 절대적인 방법이 없다는 것입니다.
사유: